Your personal AI career agent
Junior Data & AI Engineer(m/w/x)
Mitgestaltung robuster Datenwege und Betreuung von Datenlösungen über den gesamten Lebenszyklus bei einem globalen KI-Transformationspartner. Praktische Projekterfahrung im Data Engineering erforderlich. Mobiles Arbeiten und Jobfahrrad-Programm.
Requirements
- Praktische Projekterfahrung im Data Engineering (Praktika, Werkstudent, Projektanteile)
- Hohe Motivation, Verantwortung zu übernehmen und produktionsreife Lösungen zu entwickeln
- Grundkenntnisse in Datenplattform/Cloud (AWS, Azure, GCP, Databricks, Snowflake)
- Erste Erfahrungen mit Transformations-/Orchestrierungstools (dbt, Airflow, vergleichbar)
- Solide Kenntnisse in Python und SQL
- Grundlagen der Datenmodellierung
- Erfahrung mit ETL/ELT-Prozessen
- Erste Berührungspunkte mit Streaming-Architekturen
- Vertrautheit mit Versionskontrolle (Git)
- Grundlegendes Verständnis von CI/CD-Konzepten
- Sensibilität für Datenqualität, Observability, Security und Governance
- Sicherer Einsatz von GenAI-Tools (Code-Unterstützung, Dokumentation, Testautomatisierung)
- Grundverständnis von Human-in-the-loop-Ansätzen
- Interesse an der Weiterentwicklung von Agentic-AI-Patterns
- Grundlegende Erfahrung in der Anforderungsaufnahme
- Strukturierte schriftliche und mündliche Kommunikation
- Mitarbeit in Workshops
- Beratungsorientierte Arbeitsweise
- Abgeschlossenes Studium oder erste Berufserfahrung (Wirtschafts-)Informatik, MINT oder vergleichbar
- Sehr gute Deutschkenntnisse
- Sehr gute Englischkenntnisse
- Bereitschaft zu projektbezogener Reisetätigkeit
Tasks
- Robuste Datenwege mitgestalten
- Datenlösungen über den gesamten Lebenszyklus betreuen
- Datenaufnahme und -integration durchführen
- Datenlösungen in Betrieb nehmen und optimieren
- Datenpipelines orchestrieren, planen und überwachen
- GenAI für Codeerstellung, Dokumentation und Tests einsetzen
- Agentic AI-Muster mit Human-in-the-Loop verstehen
- Integrationsmuster in Daten-Workflows weiterentwickeln
- Lösungen auf AWS, Azure oder GCP mitgestalten
- Mit Plattformen wie Databricks und Snowflake arbeiten
- Lakehouse-Architekturen anwenden
- Batch- und Streaming-Verarbeitung anwenden
- dbt und Airflow anwenden
- Wartbare Datenpipelines (ETL/ELT) entwickeln und pflegen
- Datenpipelines für Batch- und Streaming-Szenarien entwickeln und pflegen
- SQL für performante Abfragen einsetzen
- Grundprinzipien der Datenmodellierung anwenden
- Mit Git arbeiten
- Grundlegende CI/CD-Ansätze anwenden
- Testbare Komponenten entwickeln
- Data-Quality-Checks umsetzen
- Observability- und Cost-Control-Maßnahmen umsetzen
- Grundlagen von Security- und Governance-Konzepten anwenden
- Datenkataloge und Lineage anwenden
- Strukturierte Kommunikation in Workshops durchführen
- Entscheidungen sorgfältig dokumentieren
- Aktiv lernen und Wissen teilen
- Eng mit Architekt:innen und Delivery-Teams zusammenarbeiten
Education
- Bachelor's degree
Languages
- German – Native
- English – Native
Tools & Technologies
- AWS
- Azure
- GCP
- Databricks
- Snowflake
- dbt
- Airflow
- Python
- SQL
- Git
- GenAI
Benefits
Flexible Working
- Flexible Arbeitszeitmodelle
- Mobiles Arbeiten
Company Bike
- Jobfahrrad-Programm
Additional Allowances
- Mobilitätsbudget
Learning & Development
- Vielfältiges Weiterbildungsangebot
Informal Culture
- Internationales Netzwerk
Family Support
- Kooperation mit dem pme Familienservice
- Work-life-balance
Retirement Plans
- Deferred Compensation
Healthcare & Fitness
- Gesundheitsangebote
Other Benefits
- Attraktiver Arbeitsplatz für Menschen mit Handicap
- Kontakthalteprogramm fareWelcome!
Corporate Discounts
- Mitarbeiterrabatte
Team Events
- Team- und Sportevents
Not a perfect match?
- ExxetaFull-timeWith HomeofficeJuniorBerlin, Karlsruhe, Mannheim
- Deloitte GmbH Wirtschaftsprüfungsgesellschaft
Consultant AI & Data(m/w/x)
Full-timeWith HomeofficeJuniorBerlin, Düsseldorf, Frankfurt am Main, Görlitz, Hamburg, Hannover, Köln, Leipzig, München, Stuttgart - Capgemini
Senior Data & AI Engineer Sovereign Cloud(m/w/x)
Full-timeWith HomeofficeSeniorBerlin, Hamburg, München, Köln, Frankfurt am Main, Düsseldorf, Stuttgart, Dortmund, Nürnberg, Erfurt - Computacenter
Data Engineer(m/w/x)
Full-timeWith HomeofficeExperiencedBerlin, Hamburg, München, Köln, Frankfurt am Main, Düsseldorf, Stuttgart, Dortmund, Essen, Hannover - solvistas GmbH
Data Engineer / Data Architect(m/w/x)
Full-time/Part-timeWith HomeofficeExperiencedWien, Linz, Berlinfrom 3,175 - 3,700 / month
Junior Data & AI Engineer(m/w/x)
Mitgestaltung robuster Datenwege und Betreuung von Datenlösungen über den gesamten Lebenszyklus bei einem globalen KI-Transformationspartner. Praktische Projekterfahrung im Data Engineering erforderlich. Mobiles Arbeiten und Jobfahrrad-Programm.
Requirements
- Praktische Projekterfahrung im Data Engineering (Praktika, Werkstudent, Projektanteile)
- Hohe Motivation, Verantwortung zu übernehmen und produktionsreife Lösungen zu entwickeln
- Grundkenntnisse in Datenplattform/Cloud (AWS, Azure, GCP, Databricks, Snowflake)
- Erste Erfahrungen mit Transformations-/Orchestrierungstools (dbt, Airflow, vergleichbar)
- Solide Kenntnisse in Python und SQL
- Grundlagen der Datenmodellierung
- Erfahrung mit ETL/ELT-Prozessen
- Erste Berührungspunkte mit Streaming-Architekturen
- Vertrautheit mit Versionskontrolle (Git)
- Grundlegendes Verständnis von CI/CD-Konzepten
- Sensibilität für Datenqualität, Observability, Security und Governance
- Sicherer Einsatz von GenAI-Tools (Code-Unterstützung, Dokumentation, Testautomatisierung)
- Grundverständnis von Human-in-the-loop-Ansätzen
- Interesse an der Weiterentwicklung von Agentic-AI-Patterns
- Grundlegende Erfahrung in der Anforderungsaufnahme
- Strukturierte schriftliche und mündliche Kommunikation
- Mitarbeit in Workshops
- Beratungsorientierte Arbeitsweise
- Abgeschlossenes Studium oder erste Berufserfahrung (Wirtschafts-)Informatik, MINT oder vergleichbar
- Sehr gute Deutschkenntnisse
- Sehr gute Englischkenntnisse
- Bereitschaft zu projektbezogener Reisetätigkeit
Tasks
- Robuste Datenwege mitgestalten
- Datenlösungen über den gesamten Lebenszyklus betreuen
- Datenaufnahme und -integration durchführen
- Datenlösungen in Betrieb nehmen und optimieren
- Datenpipelines orchestrieren, planen und überwachen
- GenAI für Codeerstellung, Dokumentation und Tests einsetzen
- Agentic AI-Muster mit Human-in-the-Loop verstehen
- Integrationsmuster in Daten-Workflows weiterentwickeln
- Lösungen auf AWS, Azure oder GCP mitgestalten
- Mit Plattformen wie Databricks und Snowflake arbeiten
- Lakehouse-Architekturen anwenden
- Batch- und Streaming-Verarbeitung anwenden
- dbt und Airflow anwenden
- Wartbare Datenpipelines (ETL/ELT) entwickeln und pflegen
- Datenpipelines für Batch- und Streaming-Szenarien entwickeln und pflegen
- SQL für performante Abfragen einsetzen
- Grundprinzipien der Datenmodellierung anwenden
- Mit Git arbeiten
- Grundlegende CI/CD-Ansätze anwenden
- Testbare Komponenten entwickeln
- Data-Quality-Checks umsetzen
- Observability- und Cost-Control-Maßnahmen umsetzen
- Grundlagen von Security- und Governance-Konzepten anwenden
- Datenkataloge und Lineage anwenden
- Strukturierte Kommunikation in Workshops durchführen
- Entscheidungen sorgfältig dokumentieren
- Aktiv lernen und Wissen teilen
- Eng mit Architekt:innen und Delivery-Teams zusammenarbeiten
Education
- Bachelor's degree
Languages
- German – Native
- English – Native
Tools & Technologies
- AWS
- Azure
- GCP
- Databricks
- Snowflake
- dbt
- Airflow
- Python
- SQL
- Git
- GenAI
Benefits
Flexible Working
- Flexible Arbeitszeitmodelle
- Mobiles Arbeiten
Company Bike
- Jobfahrrad-Programm
Additional Allowances
- Mobilitätsbudget
Learning & Development
- Vielfältiges Weiterbildungsangebot
Informal Culture
- Internationales Netzwerk
Family Support
- Kooperation mit dem pme Familienservice
- Work-life-balance
Retirement Plans
- Deferred Compensation
Healthcare & Fitness
- Gesundheitsangebote
Other Benefits
- Attraktiver Arbeitsplatz für Menschen mit Handicap
- Kontakthalteprogramm fareWelcome!
Corporate Discounts
- Mitarbeiterrabatte
Team Events
- Team- und Sportevents
About the Company
Capgemini
Industry
IT
Description
Capgemini ist ein globaler Business- und Technologie-Transformationspartner für Organisationen, der bei der digitalen und nachhaltigen Transformation unterstützt.
Not a perfect match?
- Exxeta
(Senior) Data Engineer(m/w/x)
Full-timeWith HomeofficeJuniorBerlin, Karlsruhe, Mannheim - Deloitte GmbH Wirtschaftsprüfungsgesellschaft
Consultant AI & Data(m/w/x)
Full-timeWith HomeofficeJuniorBerlin, Düsseldorf, Frankfurt am Main, Görlitz, Hamburg, Hannover, Köln, Leipzig, München, Stuttgart - Capgemini
Senior Data & AI Engineer Sovereign Cloud(m/w/x)
Full-timeWith HomeofficeSeniorBerlin, Hamburg, München, Köln, Frankfurt am Main, Düsseldorf, Stuttgart, Dortmund, Nürnberg, Erfurt - Computacenter
Data Engineer(m/w/x)
Full-timeWith HomeofficeExperiencedBerlin, Hamburg, München, Köln, Frankfurt am Main, Düsseldorf, Stuttgart, Dortmund, Essen, Hannover - solvistas GmbH
Data Engineer / Data Architect(m/w/x)
Full-time/Part-timeWith HomeofficeExperiencedWien, Linz, Berlinfrom 3,175 - 3,700 / month