The AI Job Search Engine
Data Engineer mit Schwerpunkt Microsoft Fabric(m/w/x)
Entwicklung von Data Pipelines in Microsoft Fabric für Analytics, BI und KI-Anwendungen bei Datenlösungsanbieter. Erfahrung mit Microsoft Fabric oder Azure-Datenplattform-Komponenten sowie PySpark/SQL-Kenntnisse erforderlich. 6 Wochen Urlaub, Mitarbeiter-Beteiligungsprogramm, kostenlose Urban Sports Club Mitgliedschaft.
Requirements
- Erfahrung mit Microsoft Fabric oder Microsoft-Datenplattform-Komponenten (z.B. Azure Data Factory, Synapse, Lakehouse, Delta Lake)
- Gute Kenntnisse in PySpark, SQL und Data-Engineering-Entwicklung
- Erfahrung im Aufbau von ETL/ELT-Pipelines (idealerweise Medallion-Architektur)
- Sicherer Umgang mit Git und CI/CD-Prozessen
- Grundlagen der Datenmodellierung (Star Schema, 3NF oder Data Vault)
- Erfahrung mit Fabric-Data-Pipelines, Orchestrierung & Deployment-Workflows
- Qualitätsbewusstsein, Teamorientierung und klare Kommunikation
- Wille, sich in moderne Microsoft-Technologien einzuarbeiten und zu wachsen
- Sehr gute Deutschkenntnisse (für Kundendialog, Workshops und Teamkommunikation)
- Fabric-Governance (z.B. Domains, Security, Rollenmodelle)
- Power BI (insbesondere im Zusammenspiel mit Fabric)
- Monitoring und Observability
- Streaming (Event Hubs, Kafka, Fabric Real-Time)
- Erfahrung mit mehreren Cloud- oder Datenplattform-Ökosystemen
- MLflow oder MLOps-Ansätze
Tasks
- Eng mit Kundenteams zusammenarbeiten
- Aktiv Lösungen mitgestalten
- Data Pipelines in Microsoft Fabric aufbauen
- Data Pipelines in Microsoft Fabric weiterentwickeln
- Daten für Analytics-, BI- und KI-Anwendungen modellieren
- Daten für Analytics-, BI- und KI-Anwendungen strukturieren
- Mit OneLake, Delta Lake und Fabric Lakehouse-Systemen arbeiten
- ETL/ELT-Prozesse in der Medallion-Architektur entwickeln
- Mit BI-Entwickler:innen zusammenarbeiten
- Mit Data Scientists zusammenarbeiten
- Mit Kundenteams zusammenarbeiten
- Performance innerhalb der Fabric-Umgebung optimieren
- Performance innerhalb der Fabric-Umgebung überwachen
- Beim Design moderner Lakehouse-Architekturen mitarbeiten
Work Experience
- approx. 1 - 4 years
Education
- Vocational certificationOR
- Bachelor's degreeOR
- Master's degree
Languages
- German – Business Fluent
Tools & Technologies
- Microsoft Fabric
- Azure Data Factory
- Synapse
- Lakehouse
- Delta Lake
- PySpark
- SQL
- Git
- CI/CD
- Fabric Data Pipelines
- Power BI
- Event Hubs
- Kafka
- Fabric Real-Time
- MLflow
Benefits
Job Security
- Unbefristete Festanstellung
More Vacation Days
- 6 Wochen Urlaub
Mentorship & Coaching
- Einarbeitungsphase mit Mentoring Programm
Competitive Pay
- Mitarbeiter-Beteiligungsprogramm
Healthcare & Fitness
- Kostenlose M-Mitgliedschaft Urban Sports Club
- Vergünstigte Konditionen Urban Sports Club
Modern Equipment
- Notebook
- Smartphone
Public Transport Subsidies
- Deutschlandticket
Other Benefits
- JobRad
Retirement Plans
- Betriebliche Altersvorsorge
Workation & Sabbatical
- Individuell gestaltbare Sabbaticals
Not a perfect match?
- ComputacenterFull-timeWith HomeofficeExperiencedBerlin, Hamburg, München, Köln, Frankfurt am Main, Düsseldorf, Stuttgart, Dortmund, Essen, Hannover
- ISS
Data Engineer(m/w/x)
Full-timeWith HomeofficeNot specifiedDüsseldorf, Köln, Hamburg, Berlin, München, Stuttgart, Erfurt, Dresden, Frankfurt am Main, Mannheim - CONTACT Software
Software Engineer mit Schwerpunkt im Data Engineering(m/w/x)
Full-timeWith HomeofficeExperiencedBremen, Bad Vilbel, Dessau, Berlin, Ingolstadt, Kaiserslautern, Karlsruhe, Köln, München, Paderborn - q.beyond AG
Senior Data Engineer(m/w/x)
Full-timeWith HomeofficeSeniorOberhausen, Hamburg, Leipzig, Köln, Darmstadt, Ulm, Augsburg - Redcare Pharmacy
Data Engineer(m/w/x)
Full-timeWith HomeofficeExperiencedKöln
Data Engineer mit Schwerpunkt Microsoft Fabric(m/w/x)
Entwicklung von Data Pipelines in Microsoft Fabric für Analytics, BI und KI-Anwendungen bei Datenlösungsanbieter. Erfahrung mit Microsoft Fabric oder Azure-Datenplattform-Komponenten sowie PySpark/SQL-Kenntnisse erforderlich. 6 Wochen Urlaub, Mitarbeiter-Beteiligungsprogramm, kostenlose Urban Sports Club Mitgliedschaft.
Requirements
- Erfahrung mit Microsoft Fabric oder Microsoft-Datenplattform-Komponenten (z.B. Azure Data Factory, Synapse, Lakehouse, Delta Lake)
- Gute Kenntnisse in PySpark, SQL und Data-Engineering-Entwicklung
- Erfahrung im Aufbau von ETL/ELT-Pipelines (idealerweise Medallion-Architektur)
- Sicherer Umgang mit Git und CI/CD-Prozessen
- Grundlagen der Datenmodellierung (Star Schema, 3NF oder Data Vault)
- Erfahrung mit Fabric-Data-Pipelines, Orchestrierung & Deployment-Workflows
- Qualitätsbewusstsein, Teamorientierung und klare Kommunikation
- Wille, sich in moderne Microsoft-Technologien einzuarbeiten und zu wachsen
- Sehr gute Deutschkenntnisse (für Kundendialog, Workshops und Teamkommunikation)
- Fabric-Governance (z.B. Domains, Security, Rollenmodelle)
- Power BI (insbesondere im Zusammenspiel mit Fabric)
- Monitoring und Observability
- Streaming (Event Hubs, Kafka, Fabric Real-Time)
- Erfahrung mit mehreren Cloud- oder Datenplattform-Ökosystemen
- MLflow oder MLOps-Ansätze
Tasks
- Eng mit Kundenteams zusammenarbeiten
- Aktiv Lösungen mitgestalten
- Data Pipelines in Microsoft Fabric aufbauen
- Data Pipelines in Microsoft Fabric weiterentwickeln
- Daten für Analytics-, BI- und KI-Anwendungen modellieren
- Daten für Analytics-, BI- und KI-Anwendungen strukturieren
- Mit OneLake, Delta Lake und Fabric Lakehouse-Systemen arbeiten
- ETL/ELT-Prozesse in der Medallion-Architektur entwickeln
- Mit BI-Entwickler:innen zusammenarbeiten
- Mit Data Scientists zusammenarbeiten
- Mit Kundenteams zusammenarbeiten
- Performance innerhalb der Fabric-Umgebung optimieren
- Performance innerhalb der Fabric-Umgebung überwachen
- Beim Design moderner Lakehouse-Architekturen mitarbeiten
Work Experience
- approx. 1 - 4 years
Education
- Vocational certificationOR
- Bachelor's degreeOR
- Master's degree
Languages
- German – Business Fluent
Tools & Technologies
- Microsoft Fabric
- Azure Data Factory
- Synapse
- Lakehouse
- Delta Lake
- PySpark
- SQL
- Git
- CI/CD
- Fabric Data Pipelines
- Power BI
- Event Hubs
- Kafka
- Fabric Real-Time
- MLflow
Benefits
Job Security
- Unbefristete Festanstellung
More Vacation Days
- 6 Wochen Urlaub
Mentorship & Coaching
- Einarbeitungsphase mit Mentoring Programm
Competitive Pay
- Mitarbeiter-Beteiligungsprogramm
Healthcare & Fitness
- Kostenlose M-Mitgliedschaft Urban Sports Club
- Vergünstigte Konditionen Urban Sports Club
Modern Equipment
- Notebook
- Smartphone
Public Transport Subsidies
- Deutschlandticket
Other Benefits
- JobRad
Retirement Plans
- Betriebliche Altersvorsorge
Workation & Sabbatical
- Individuell gestaltbare Sabbaticals
About the Company
rheindata GmbH
Industry
IT
Description
rheindata GmbH entwickelt moderne Data Pipelines, Datenplattformen, BI-Lösungen und KI-Modelle. Die Mission ist, aus Daten echten, messbaren Mehrwert zu schaffen.
Not a perfect match?
- Computacenter
Data Engineer(m/w/x)
Full-timeWith HomeofficeExperiencedBerlin, Hamburg, München, Köln, Frankfurt am Main, Düsseldorf, Stuttgart, Dortmund, Essen, Hannover - ISS
Data Engineer(m/w/x)
Full-timeWith HomeofficeNot specifiedDüsseldorf, Köln, Hamburg, Berlin, München, Stuttgart, Erfurt, Dresden, Frankfurt am Main, Mannheim - CONTACT Software
Software Engineer mit Schwerpunkt im Data Engineering(m/w/x)
Full-timeWith HomeofficeExperiencedBremen, Bad Vilbel, Dessau, Berlin, Ingolstadt, Kaiserslautern, Karlsruhe, Köln, München, Paderborn - q.beyond AG
Senior Data Engineer(m/w/x)
Full-timeWith HomeofficeSeniorOberhausen, Hamburg, Leipzig, Köln, Darmstadt, Ulm, Augsburg - Redcare Pharmacy
Data Engineer(m/w/x)
Full-timeWith HomeofficeExperiencedKöln