Die KI-Suchmaschine für Jobs
Data Engineer(m/w/x)
Beschreibung
In dieser Rolle entwickelst du skalierbare Datenpipelines und arbeitest eng mit Data Scientists und Consultants zusammen, um innovative Datenlösungen zu schaffen, die einen messbaren Einfluss auf das Geschäft haben.
Lass KI die perfekten Jobs für dich finden!
Lade deinen CV hoch und die Nejo-KI findet passende Stellenangebote für dich.
Anforderungen
- •Abgeschlossenes Studium in Informatik, Data Engineering, Wirtschaftsinformatik, Mathematik, Physik oder verwandtem Fachgebiet
- •Fundierte Erfahrung in Python und SQL
- •Praktische Erfahrung im Aufbau und Betrieb von ETL-/ELT-Pipelines und Datenworkflows
- •Erfahrung mit Cloud-Umgebungen (bevorzugt Azure, alternativ AWS oder GCP)
- •Vertrautheit mit Containerisierung und Workflow-Orchestrierung (z. B. Docker, Airflow)
- •Erfahrung mit Infrastructure as Code (z. B. Terraform)
- •Verständnis von Data Lakes, Warehouses und Streaming-Technologien (z. B. Kafka, Kinesis)
- •Idealerweise Erfahrung mit verteilten Verarbeitungssystemen wie Spark, Snowflake oder Databricks
- •Sicherstellung von Datenqualität, Monitoring und Stabilität
- •Freude an interdisziplinärer Zusammenarbeit
- •Serviceorientierung und Kommunikationsfähigkeit
- •Starke Kommunikations- und Präsentationsfähigkeiten
- •Fließende Englischkenntnisse; regionale Sprachen von Vorteil
Ausbildung
Berufserfahrung
2 - 5 Jahre
Aufgaben
- •Skalierbare Datenpipelines und -architekturen entwickeln und optimieren
- •Daten aus verschiedenen Quellen effizient integrieren und transformieren
- •Eng mit Data Scientists, Consultants und Product Ownern zusammenarbeiten
- •End-to-End-Datenlösungen mit messbarem Business Impact liefern
- •ETL-/ELT-Prozesse entwickeln und pflegen
- •Datenqualität, Zuverlässigkeit und Performance sicherstellen
- •Verantwortung für Cloud-basierte Dateninfrastrukturen (Azure, AWS oder GCP) übernehmen
- •Containerisierung und Workflow-Tools (z. B. Docker, Airflow) nutzen
- •Lösungen mit einem klaren End-to-End-Verständnis entwickeln
- •Aktiv zur Weiterentwicklung der Datenstrategie, Tools und Best Practices beitragen
Tools & Technologien
Sprachen
Englisch – verhandlungssicher
Benefits
Attraktive Vergütung
- •Attraktive Gehaltspakete
Boni & Prämien
- •Beteiligungen am Vertriebserfolg
Sonstige Vorteile
- •Exklusive Investmentmöglichkeiten
Weiterbildungsangebote
- •Vielfältige Entwicklungsangebote
Flexibles Arbeiten
- •Flexibles und hybrides Arbeitsmodell
Team Events & Ausflüge
- •Regelmäßige Teamevents
- •Gemeinsame Sportsessions
Betriebliche Altersvorsorge
- •Attraktive betriebliche Altersvorsorge
Gesundheits- & Fitnessangebote
- •Exklusive Fitness- und Wellness-Mitgliedschaft
Sonstige Zulagen
- •Mobilitäts- und Essenszuschüsse
- ComputacenterVollzeitmit HomeofficeBerufserfahrenFrankfurt am Main, Stuttgart, Hannover, Hamburg, München, Ludwigshafen am Rhein, Nürnberg, Köln, Berlin, Düsseldorf
- pacemaker.ai
Data Engineer(m/w/x)
Vollzeitmit HomeofficeJuniorMünster, Berlin, Düsseldorf, München, Hamburg - 1-2-3.tv GmbH
Data Engineer(m/w/x)
Vollzeitmit HomeofficeSeniorGrünwald - esentri AG
Data Engineer(m/w/x)
Vollzeitmit HomeofficeBerufserfahrenMünchen - Zeppelin
Data Engineer(m/w/x)
Vollzeitmit HomeofficeSeniorGarching bei München
Data Engineer(m/w/x)
Die KI-Suchmaschine für Jobs
Beschreibung
In dieser Rolle entwickelst du skalierbare Datenpipelines und arbeitest eng mit Data Scientists und Consultants zusammen, um innovative Datenlösungen zu schaffen, die einen messbaren Einfluss auf das Geschäft haben.
Lass KI die perfekten Jobs für dich finden!
Lade deinen CV hoch und die Nejo-KI findet passende Stellenangebote für dich.
Anforderungen
- •Abgeschlossenes Studium in Informatik, Data Engineering, Wirtschaftsinformatik, Mathematik, Physik oder verwandtem Fachgebiet
- •Fundierte Erfahrung in Python und SQL
- •Praktische Erfahrung im Aufbau und Betrieb von ETL-/ELT-Pipelines und Datenworkflows
- •Erfahrung mit Cloud-Umgebungen (bevorzugt Azure, alternativ AWS oder GCP)
- •Vertrautheit mit Containerisierung und Workflow-Orchestrierung (z. B. Docker, Airflow)
- •Erfahrung mit Infrastructure as Code (z. B. Terraform)
- •Verständnis von Data Lakes, Warehouses und Streaming-Technologien (z. B. Kafka, Kinesis)
- •Idealerweise Erfahrung mit verteilten Verarbeitungssystemen wie Spark, Snowflake oder Databricks
- •Sicherstellung von Datenqualität, Monitoring und Stabilität
- •Freude an interdisziplinärer Zusammenarbeit
- •Serviceorientierung und Kommunikationsfähigkeit
- •Starke Kommunikations- und Präsentationsfähigkeiten
- •Fließende Englischkenntnisse; regionale Sprachen von Vorteil
Ausbildung
Berufserfahrung
2 - 5 Jahre
Aufgaben
- •Skalierbare Datenpipelines und -architekturen entwickeln und optimieren
- •Daten aus verschiedenen Quellen effizient integrieren und transformieren
- •Eng mit Data Scientists, Consultants und Product Ownern zusammenarbeiten
- •End-to-End-Datenlösungen mit messbarem Business Impact liefern
- •ETL-/ELT-Prozesse entwickeln und pflegen
- •Datenqualität, Zuverlässigkeit und Performance sicherstellen
- •Verantwortung für Cloud-basierte Dateninfrastrukturen (Azure, AWS oder GCP) übernehmen
- •Containerisierung und Workflow-Tools (z. B. Docker, Airflow) nutzen
- •Lösungen mit einem klaren End-to-End-Verständnis entwickeln
- •Aktiv zur Weiterentwicklung der Datenstrategie, Tools und Best Practices beitragen
Tools & Technologien
Sprachen
Englisch – verhandlungssicher
Benefits
Attraktive Vergütung
- •Attraktive Gehaltspakete
Boni & Prämien
- •Beteiligungen am Vertriebserfolg
Sonstige Vorteile
- •Exklusive Investmentmöglichkeiten
Weiterbildungsangebote
- •Vielfältige Entwicklungsangebote
Flexibles Arbeiten
- •Flexibles und hybrides Arbeitsmodell
Team Events & Ausflüge
- •Regelmäßige Teamevents
- •Gemeinsame Sportsessions
Betriebliche Altersvorsorge
- •Attraktive betriebliche Altersvorsorge
Gesundheits- & Fitnessangebote
- •Exklusive Fitness- und Wellness-Mitgliedschaft
Sonstige Zulagen
- •Mobilitäts- und Essenszuschüsse
Über das Unternehmen
OMMAX
Branche
Consulting
Beschreibung
OMMAX ist ein digitales Strategieberatungsunternehmen, das sich auf nachhaltige digitale Wertschöpfung spezialisiert hat.
- Computacenter
Data Engineer - Data & AI Platform(m/w/x)
Vollzeitmit HomeofficeBerufserfahrenFrankfurt am Main, Stuttgart, Hannover, Hamburg, München, Ludwigshafen am Rhein, Nürnberg, Köln, Berlin, Düsseldorf - pacemaker.ai
Data Engineer(m/w/x)
Vollzeitmit HomeofficeJuniorMünster, Berlin, Düsseldorf, München, Hamburg - 1-2-3.tv GmbH
Data Engineer(m/w/x)
Vollzeitmit HomeofficeSeniorGrünwald - esentri AG
Data Engineer(m/w/x)
Vollzeitmit HomeofficeBerufserfahrenMünchen - Zeppelin
Data Engineer(m/w/x)
Vollzeitmit HomeofficeSeniorGarching bei München