The AI Job Search Engine
Data AI Engineer(m/w/x)
Entwicklung und Betrieb von Datenpipelines und AI-Systemen mit Apache Kafka und Databricks. MLOps-Erfahrung mit MLflow und LLM-Frameworks wie LangChain erforderlich. 30 Tage Urlaub und freie Systemauswahl.
Requirements
- Sehr gute Python-Kenntnisse (PySpark, FastAPI, Pandas)
- Fortgeschrittenes SQL
- Praxiserfahrung mit dbt, Apache Spark, Airflow oder vergleichbaren Frameworks
- MLops-Erfahrung: Modell-Deployment, MLflow, CI/CD für ML-Pipelines
- Kenntnisse in LLM-Frameworks (LangChain, LlamaIndex, OpenAI API)
- Kenntnisse in Vektordatenbanken (Pinecone, pgvector o.Ä.)
- Cloud-Erfahrung auf AWS
- Sicherer Umgang mit Docker und Terraform
- Erfahrung mit Kafka, Kubernetes oder Streaming-Architekturen
- Relevante Zertifizierungen (AWS Certified Data Engineer, Databricks, Google Professional Data Engineer)
- Studium in Informatik, Data Science, Wirtschaftsinformatik o.Ä.
- Starkes Portfolio (GitHub, Kaggle, eigene Projekte)
- Ganzheitliches Systemdenken (Datenquelle bis Business-Outcome)
- Pragmatismus und Eigenverantwortung
- Lust auf Weiterentwicklung in einem sich schnell entwickelnden Feld
Tasks
- Datenpipelines und AI-Systeme bauen und betreiben
- Skalierbare ETL/ELT-Pipelines entwerfen
- Databricks-basierte Dateninfrastruktur verantworten
- Streaming-Szenarien mit Apache Kafka implementieren
- Feature Pipelines entwickeln
- CI/CD-Prozesse für ML-Modelle bauen
- Modelle produktionsreif deployen
- Modelle in Produktion überwachen
- Retrieval-Augmented-Generation-Systeme bauen
- LLMs mit internen Wissensdatenbanken integrieren
- Retrieval-Qualität optimieren
- AI/Data-Stack auf AWS betreiben
- Terraform für Infrastructure as Code nutzen
- Workloads mit Docker & Kubernetes containerisieren
- Geschäftsanforderungen in technische Lösungen übersetzen
- Data Scientists zur Produktionsfähigkeit beraten
- Datenprodukte sowie AI-Komponenten dokumentieren
Education
- Bachelor's degree
Languages
- English – Advanced
Tools & Technologies
- Python
- PySpark
- FastAPI
- Pandas
- SQL
- dbt
- Apache Spark
- Airflow
- MLflow
- LangChain
- LlamaIndex
- OpenAI API
- Pinecone
- pgvector
- AWS
- Docker
- Terraform
- Kafka
- Kubernetes
Benefits
More Vacation Days
- 30 Tage Urlaub
Flexible Working
- Flexible Arbeitszeitmodelle
- Hybrides Arbeiten
Modern Equipment
- Freie Systemauswahl
Workation & Sabbatical
- Sabbaticals
- Working abroad
Company Bike
- Bikeleasing
Corporate Discounts
- Corporate Benefits
Free or Subsidized Food
- Kantinenzuschuss
Retirement Plans
- Betriebliche Altersvorsorge
Team Events
- Firmenevents
Informal Culture
- Flache Hierarchien
- Transparente, agile Unternehmenskultur
Not a perfect match?
- CapgeminiFull-timeWith HomeofficeSeniorMünchen
- ICB GmbH
AI Engineer(m/w/x)
Full-timeRemoteNot specifiedMünchen, Gütersloh - Computacenter
Data Engineer(m/w/x)
Full-timeWith HomeofficeExperiencedBerlin, Hamburg, München, Köln, Frankfurt am Main, Düsseldorf, Stuttgart, Dortmund, Essen, Hannover - Alexander Thamm GmbH
Principal Data Engineer(m/w/x)
Full-timeRemoteSeniorMünchen, Frankfurt am Main, Berlin, Leipzig, Stuttgart, Essen, Nürnberg - appliedAI Initiative GmbH
AI Engineer - Focus: Software Engineering(m/w/x)
Full-timeWith HomeofficeExperiencedHeilbronn, München
Data AI Engineer(m/w/x)
Entwicklung und Betrieb von Datenpipelines und AI-Systemen mit Apache Kafka und Databricks. MLOps-Erfahrung mit MLflow und LLM-Frameworks wie LangChain erforderlich. 30 Tage Urlaub und freie Systemauswahl.
Requirements
- Sehr gute Python-Kenntnisse (PySpark, FastAPI, Pandas)
- Fortgeschrittenes SQL
- Praxiserfahrung mit dbt, Apache Spark, Airflow oder vergleichbaren Frameworks
- MLops-Erfahrung: Modell-Deployment, MLflow, CI/CD für ML-Pipelines
- Kenntnisse in LLM-Frameworks (LangChain, LlamaIndex, OpenAI API)
- Kenntnisse in Vektordatenbanken (Pinecone, pgvector o.Ä.)
- Cloud-Erfahrung auf AWS
- Sicherer Umgang mit Docker und Terraform
- Erfahrung mit Kafka, Kubernetes oder Streaming-Architekturen
- Relevante Zertifizierungen (AWS Certified Data Engineer, Databricks, Google Professional Data Engineer)
- Studium in Informatik, Data Science, Wirtschaftsinformatik o.Ä.
- Starkes Portfolio (GitHub, Kaggle, eigene Projekte)
- Ganzheitliches Systemdenken (Datenquelle bis Business-Outcome)
- Pragmatismus und Eigenverantwortung
- Lust auf Weiterentwicklung in einem sich schnell entwickelnden Feld
Tasks
- Datenpipelines und AI-Systeme bauen und betreiben
- Skalierbare ETL/ELT-Pipelines entwerfen
- Databricks-basierte Dateninfrastruktur verantworten
- Streaming-Szenarien mit Apache Kafka implementieren
- Feature Pipelines entwickeln
- CI/CD-Prozesse für ML-Modelle bauen
- Modelle produktionsreif deployen
- Modelle in Produktion überwachen
- Retrieval-Augmented-Generation-Systeme bauen
- LLMs mit internen Wissensdatenbanken integrieren
- Retrieval-Qualität optimieren
- AI/Data-Stack auf AWS betreiben
- Terraform für Infrastructure as Code nutzen
- Workloads mit Docker & Kubernetes containerisieren
- Geschäftsanforderungen in technische Lösungen übersetzen
- Data Scientists zur Produktionsfähigkeit beraten
- Datenprodukte sowie AI-Komponenten dokumentieren
Education
- Bachelor's degree
Languages
- English – Advanced
Tools & Technologies
- Python
- PySpark
- FastAPI
- Pandas
- SQL
- dbt
- Apache Spark
- Airflow
- MLflow
- LangChain
- LlamaIndex
- OpenAI API
- Pinecone
- pgvector
- AWS
- Docker
- Terraform
- Kafka
- Kubernetes
Benefits
More Vacation Days
- 30 Tage Urlaub
Flexible Working
- Flexible Arbeitszeitmodelle
- Hybrides Arbeiten
Modern Equipment
- Freie Systemauswahl
Workation & Sabbatical
- Sabbaticals
- Working abroad
Company Bike
- Bikeleasing
Corporate Discounts
- Corporate Benefits
Free or Subsidized Food
- Kantinenzuschuss
Retirement Plans
- Betriebliche Altersvorsorge
Team Events
- Firmenevents
Informal Culture
- Flache Hierarchien
- Transparente, agile Unternehmenskultur
About the Company
ippen.ai
Industry
Media
Description
ippen.ai ist die Technologie-Einheit von IPPEN.MEDIA und Vorreiter in der Integration von Agentic AI im Redaktionsalltag zur Qualitätssicherung und Produktivitätssteigerung.
Not a perfect match?
- Capgemini
Senior GenAI Engineer(m/w/x)
Full-timeWith HomeofficeSeniorMünchen - ICB GmbH
AI Engineer(m/w/x)
Full-timeRemoteNot specifiedMünchen, Gütersloh - Computacenter
Data Engineer(m/w/x)
Full-timeWith HomeofficeExperiencedBerlin, Hamburg, München, Köln, Frankfurt am Main, Düsseldorf, Stuttgart, Dortmund, Essen, Hannover - Alexander Thamm GmbH
Principal Data Engineer(m/w/x)
Full-timeRemoteSeniorMünchen, Frankfurt am Main, Berlin, Leipzig, Stuttgart, Essen, Nürnberg - appliedAI Initiative GmbH
AI Engineer - Focus: Software Engineering(m/w/x)
Full-timeWith HomeofficeExperiencedHeilbronn, München