Your personal AI career agent
Data AI Engineer(m/w/x)
Entwicklung und Betrieb von Datenpipelines und AI-Systemen mit Apache Kafka und Databricks. MLOps-Erfahrung mit MLflow und LLM-Frameworks wie LangChain erforderlich. 30 Tage Urlaub und freie Systemauswahl.
Requirements
- Sehr gute Python-Kenntnisse (PySpark, FastAPI, Pandas)
- Fortgeschrittenes SQL
- Praxiserfahrung mit dbt, Apache Spark, Airflow oder vergleichbaren Frameworks
- MLops-Erfahrung: Modell-Deployment, MLflow, CI/CD für ML-Pipelines
- Kenntnisse in LLM-Frameworks (LangChain, LlamaIndex, OpenAI API)
- Kenntnisse in Vektordatenbanken (Pinecone, pgvector o.Ä.)
- Cloud-Erfahrung auf AWS
- Sicherer Umgang mit Docker und Terraform
- Erfahrung mit Kafka, Kubernetes oder Streaming-Architekturen
- Relevante Zertifizierungen (AWS Certified Data Engineer, Databricks, Google Professional Data Engineer)
- Studium in Informatik, Data Science, Wirtschaftsinformatik o.Ä.
- Starkes Portfolio (GitHub, Kaggle, eigene Projekte)
- Ganzheitliches Systemdenken (Datenquelle bis Business-Outcome)
- Pragmatismus und Eigenverantwortung
- Lust auf Weiterentwicklung in einem sich schnell entwickelnden Feld
Tasks
- Datenpipelines und AI-Systeme bauen und betreiben
- Skalierbare ETL/ELT-Pipelines entwerfen
- Databricks-basierte Dateninfrastruktur verantworten
- Streaming-Szenarien mit Apache Kafka implementieren
- Feature Pipelines entwickeln
- CI/CD-Prozesse für ML-Modelle bauen
- Modelle produktionsreif deployen
- Modelle in Produktion überwachen
- Retrieval-Augmented-Generation-Systeme bauen
- LLMs mit internen Wissensdatenbanken integrieren
- Retrieval-Qualität optimieren
- AI/Data-Stack auf AWS betreiben
- Terraform für Infrastructure as Code nutzen
- Workloads mit Docker & Kubernetes containerisieren
- Geschäftsanforderungen in technische Lösungen übersetzen
- Data Scientists zur Produktionsfähigkeit beraten
- Datenprodukte sowie AI-Komponenten dokumentieren
Education
- Bachelor's degree
Languages
- English – Advanced
Tools & Technologies
- Python
- PySpark
- FastAPI
- Pandas
- SQL
- dbt
- Apache Spark
- Airflow
- MLflow
- LangChain
- LlamaIndex
- OpenAI API
- Pinecone
- pgvector
- AWS
- Docker
- Terraform
- Kafka
- Kubernetes
Benefits
More Vacation Days
- 30 Tage Urlaub
Flexible Working
- Flexible Arbeitszeitmodelle
- Hybrides Arbeiten
Modern Equipment
- Freie Systemauswahl
Workation & Sabbatical
- Sabbaticals
- Working abroad
Company Bike
- Bikeleasing
Corporate Discounts
- Corporate Benefits
Free or Subsidized Food
- Kantinenzuschuss
Retirement Plans
- Betriebliche Altersvorsorge
Team Events
- Firmenevents
Informal Culture
- Flache Hierarchien
- Transparente, agile Unternehmenskultur
Not a perfect match?
- ICB GmbHFull-timeRemoteNot specifiedMünchen, Gütersloh
- Alexander Thamm GmbH
Principal Data Engineer(m/w/x)
Full-timeRemoteSeniorMünchen, Frankfurt am Main, Berlin, Leipzig, Stuttgart, Essen, Nürnberg - Computacenter
Data Engineer(m/w/x)
Full-timeWith HomeofficeExperiencedBerlin, Hamburg, München, Köln, Frankfurt am Main, Düsseldorf, Stuttgart, Dortmund, Essen, Hannover - Computacenter
MLOPs Engineer - Data & AI Platforms(m/w/x)
Full-timeWith HomeofficeExperiencedFrankfurt am Main, Stuttgart, Hannover, Hamburg, München, Ludwigshafen am Rhein, Nürnberg, Köln, Berlin - MaibornWolff GmbH
Senior AI Engineer(m/w/x)
Full-time/Part-timeWith HomeofficeSeniorMünchen
Data AI Engineer(m/w/x)
Entwicklung und Betrieb von Datenpipelines und AI-Systemen mit Apache Kafka und Databricks. MLOps-Erfahrung mit MLflow und LLM-Frameworks wie LangChain erforderlich. 30 Tage Urlaub und freie Systemauswahl.
Requirements
- Sehr gute Python-Kenntnisse (PySpark, FastAPI, Pandas)
- Fortgeschrittenes SQL
- Praxiserfahrung mit dbt, Apache Spark, Airflow oder vergleichbaren Frameworks
- MLops-Erfahrung: Modell-Deployment, MLflow, CI/CD für ML-Pipelines
- Kenntnisse in LLM-Frameworks (LangChain, LlamaIndex, OpenAI API)
- Kenntnisse in Vektordatenbanken (Pinecone, pgvector o.Ä.)
- Cloud-Erfahrung auf AWS
- Sicherer Umgang mit Docker und Terraform
- Erfahrung mit Kafka, Kubernetes oder Streaming-Architekturen
- Relevante Zertifizierungen (AWS Certified Data Engineer, Databricks, Google Professional Data Engineer)
- Studium in Informatik, Data Science, Wirtschaftsinformatik o.Ä.
- Starkes Portfolio (GitHub, Kaggle, eigene Projekte)
- Ganzheitliches Systemdenken (Datenquelle bis Business-Outcome)
- Pragmatismus und Eigenverantwortung
- Lust auf Weiterentwicklung in einem sich schnell entwickelnden Feld
Tasks
- Datenpipelines und AI-Systeme bauen und betreiben
- Skalierbare ETL/ELT-Pipelines entwerfen
- Databricks-basierte Dateninfrastruktur verantworten
- Streaming-Szenarien mit Apache Kafka implementieren
- Feature Pipelines entwickeln
- CI/CD-Prozesse für ML-Modelle bauen
- Modelle produktionsreif deployen
- Modelle in Produktion überwachen
- Retrieval-Augmented-Generation-Systeme bauen
- LLMs mit internen Wissensdatenbanken integrieren
- Retrieval-Qualität optimieren
- AI/Data-Stack auf AWS betreiben
- Terraform für Infrastructure as Code nutzen
- Workloads mit Docker & Kubernetes containerisieren
- Geschäftsanforderungen in technische Lösungen übersetzen
- Data Scientists zur Produktionsfähigkeit beraten
- Datenprodukte sowie AI-Komponenten dokumentieren
Education
- Bachelor's degree
Languages
- English – Advanced
Tools & Technologies
- Python
- PySpark
- FastAPI
- Pandas
- SQL
- dbt
- Apache Spark
- Airflow
- MLflow
- LangChain
- LlamaIndex
- OpenAI API
- Pinecone
- pgvector
- AWS
- Docker
- Terraform
- Kafka
- Kubernetes
Benefits
More Vacation Days
- 30 Tage Urlaub
Flexible Working
- Flexible Arbeitszeitmodelle
- Hybrides Arbeiten
Modern Equipment
- Freie Systemauswahl
Workation & Sabbatical
- Sabbaticals
- Working abroad
Company Bike
- Bikeleasing
Corporate Discounts
- Corporate Benefits
Free or Subsidized Food
- Kantinenzuschuss
Retirement Plans
- Betriebliche Altersvorsorge
Team Events
- Firmenevents
Informal Culture
- Flache Hierarchien
- Transparente, agile Unternehmenskultur
About the Company
ippen.ai
Industry
Media
Description
ippen.ai ist die Technologie-Einheit von IPPEN.MEDIA und Vorreiter in der Integration von Agentic AI im Redaktionsalltag zur Qualitätssicherung und Produktivitätssteigerung.
Not a perfect match?
- ICB GmbH
AI Engineer(m/w/x)
Full-timeRemoteNot specifiedMünchen, Gütersloh - Alexander Thamm GmbH
Principal Data Engineer(m/w/x)
Full-timeRemoteSeniorMünchen, Frankfurt am Main, Berlin, Leipzig, Stuttgart, Essen, Nürnberg - Computacenter
Data Engineer(m/w/x)
Full-timeWith HomeofficeExperiencedBerlin, Hamburg, München, Köln, Frankfurt am Main, Düsseldorf, Stuttgart, Dortmund, Essen, Hannover - Computacenter
MLOPs Engineer - Data & AI Platforms(m/w/x)
Full-timeWith HomeofficeExperiencedFrankfurt am Main, Stuttgart, Hannover, Hamburg, München, Ludwigshafen am Rhein, Nürnberg, Köln, Berlin - MaibornWolff GmbH
Senior AI Engineer(m/w/x)
Full-time/Part-timeWith HomeofficeSeniorMünchen