Dein Alltag dreht sich um die Entwicklung und Optimierung von Datenplattformen, während du Anwendungen und Pipelines in der Cloud gestaltest. Du stellst sicher, dass die Datenmodelle effizient integriert werden und die Datenqualität stets hoch bleibt.
Anforderungen
- •Mindestens 3 Jahre Erfahrung in Data Engineering
- •Kenntnisse in SQL, Python und ETL/ELT-Verfahren
- •Praktische Erfahrung mit Tools wie Databricks, DBT, Airflow
- •Gute Programmierkenntnisse in Python, Spark SQL, PySpark
- •Praktische Erfahrung mit AWS-Diensten wie EC2, S3, RDS
- •Kenntnisse in Containerisierungstechnologien wie Docker, Kubernetes
- •Erfahrung mit ETL-/Streaming-Pipelines und Data Lakehouses
- •Erfahrung mit User Tracking und Analytik im E-Commerce
Deine Aufgaben
- •Datenplattformen entwickeln, implementieren und optimieren
- •Datenpipelines und Anwendungen mit AWS Native Tech entwickeln
- •Effiziente Datenmodelle gestalten und integrieren
- •Robuste Datenqualitätsprüfungen implementieren
- •ETL-Prozesse automatisieren und überwachen
- •Datenworkflows überwachen und Probleme lösen
- •Migration zu moderner Lakehouse-Architektur unterstützen
- •Zur kontinuierlichen Verbesserung der Datenoperationen beitragen
Deine Vorteile
Bis zu 32 Urlaubstage
Mobiles Büro bis zu 40%
10 Tage mobiles Büro im Ausland
Sprach- und E-Learning-Kurse
Mitarbeiterrabatt bis zu 30%
Betriebliche Altersvorsorge
Ermäßigtes Mitgliedschaftsangebot für Sportplattformen
Ermäßigtes Ticket für den Nahverkehr
Zugang zu LinkedIn Learning
Individuelle Unterstützung für mentale Gesundheit
Sozialer Tag
Mitarbeiteraktienprogramm
Original Beschreibung
# Data Engineer (f/m/d)
Performance Marketing & Customer Analytics
Munich, DE
To support our team we are searching for a Data Engineer (f/m/d) to be based in our Munich office.
## WHAT YOU WILL DO
* Development, implementation and optimization of data platforms for scalable and secure data flows
* Develop and maintain data pipelines and applications using AWS Native Tech and standard ETL solutions
* Design efficient data models and ensure smooth integration of diverse data sources
* Implement robust data quality checks and help automate ETL processes
* Monitor data workflows and resolve issues as part of a DevOps-focused approach
* Support the shift/Migration from a traditional data warehouse to a modern
* Lakehouse architecture
* Contribute to continuous improvement of data operations and best practices
## WHO YOU ARE
* At least 3 years of experience in Data Engineering, preferably with a focus on AWS as Platform
* Proficiency in SQL, Python and experience with ETL/ ELT processes and data modelling techniques (e.g. Data Vault, Kimball)
* Practical experience with tools such as Databricks, DBT, Airflow, PowerBl, or similar platforms
* Good programming skills in Python, Spark SQL, PySpark
* Practical Experience with AWS services such as EC2, S3, RDS, Lambda, Glue, and etc.
* Knowledge of containerization technologies such as Docker and Kubernetes
* Experience implementing ETL/streaming pipelines and/ or managing data lakehouses (e.g. Databricks) and warehouses (e.g. Snowflake)
* Experience in the User Tracking and analytics in e-commerce environment
## WHAT WE OFFER
* Up to 32 days of holiday, depending on the length of service, starting with 28 days
* Mobile office with up to 40% of your total contracted hours (job and position permitting)
* 10 days/year of mobile office abroad in EU-countries (job and position permitting)
* Language & e-learning courses
* Staff discount of up to 30%
* Company pension scheme
* Discounted membership for selected sports platforms & gyms
* Discounted travel card
* Access to LinkedIn Learning
* Individual support on mental health & well-being (e.g. compatibility work and family life)
* Social Day
* Employee Share Purchase Plan
We treat all applicants, employees, partners and customers equally, irrespective of their race and ethnic background or national origin, their religion or beliefs, their gender and sexual identity, their age, marital status and care responsibility, or any disability.