Die KI-Suchmaschine für Jobs
Data AI Engineer(m/w/x)
Entwicklung und Betrieb von Datenpipelines und AI-Systemen mit Apache Kafka und Databricks. MLOps-Erfahrung mit MLflow und LLM-Frameworks wie LangChain erforderlich. 30 Tage Urlaub und freie Systemauswahl.
Anforderungen
- Sehr gute Python-Kenntnisse (PySpark, FastAPI, Pandas)
- Fortgeschrittenes SQL
- Praxiserfahrung mit dbt, Apache Spark, Airflow oder vergleichbaren Frameworks
- MLops-Erfahrung: Modell-Deployment, MLflow, CI/CD für ML-Pipelines
- Kenntnisse in LLM-Frameworks (LangChain, LlamaIndex, OpenAI API)
- Kenntnisse in Vektordatenbanken (Pinecone, pgvector o.Ä.)
- Cloud-Erfahrung auf AWS
- Sicherer Umgang mit Docker und Terraform
- Erfahrung mit Kafka, Kubernetes oder Streaming-Architekturen
- Relevante Zertifizierungen (AWS Certified Data Engineer, Databricks, Google Professional Data Engineer)
- Studium in Informatik, Data Science, Wirtschaftsinformatik o.Ä.
- Starkes Portfolio (GitHub, Kaggle, eigene Projekte)
- Ganzheitliches Systemdenken (Datenquelle bis Business-Outcome)
- Pragmatismus und Eigenverantwortung
- Lust auf Weiterentwicklung in einem sich schnell entwickelnden Feld
Aufgaben
- Datenpipelines und AI-Systeme bauen und betreiben
- Skalierbare ETL/ELT-Pipelines entwerfen
- Databricks-basierte Dateninfrastruktur verantworten
- Streaming-Szenarien mit Apache Kafka implementieren
- Feature Pipelines entwickeln
- CI/CD-Prozesse für ML-Modelle bauen
- Modelle produktionsreif deployen
- Modelle in Produktion überwachen
- Retrieval-Augmented-Generation-Systeme bauen
- LLMs mit internen Wissensdatenbanken integrieren
- Retrieval-Qualität optimieren
- AI/Data-Stack auf AWS betreiben
- Terraform für Infrastructure as Code nutzen
- Workloads mit Docker & Kubernetes containerisieren
- Geschäftsanforderungen in technische Lösungen übersetzen
- Data Scientists zur Produktionsfähigkeit beraten
- Datenprodukte sowie AI-Komponenten dokumentieren
Ausbildung
- Bachelor-Abschluss
Sprachen
- Englisch – fortgeschritten
Tools & Technologien
- Python
- PySpark
- FastAPI
- Pandas
- SQL
- dbt
- Apache Spark
- Airflow
- MLflow
- LangChain
- LlamaIndex
- OpenAI API
- Pinecone
- pgvector
- AWS
- Docker
- Terraform
- Kafka
- Kubernetes
Benefits
Mehr Urlaubstage
- 30 Tage Urlaub
Flexibles Arbeiten
- Flexible Arbeitszeitmodelle
- Hybrides Arbeiten
Moderne Technikausstattung
- Freie Systemauswahl
Workation & Sabbatical
- Sabbaticals
- Working abroad
Firmenfahrrad
- Bikeleasing
Mitarbeiterrabatte
- Corporate Benefits
Gratis oder Vergünstigte Mahlzeiten
- Kantinenzuschuss
Betriebliche Altersvorsorge
- Betriebliche Altersvorsorge
Team Events & Ausflüge
- Firmenevents
Lockere Unternehmenskultur
- Flache Hierarchien
- Transparente, agile Unternehmenskultur
Noch nicht perfekt?
- CapgeminiVollzeitmit HomeofficeSeniorMünchen
- ICB GmbH
AI Engineer(m/w/x)
VollzeitRemoteKeine AngabeMünchen, Gütersloh - Alexander Thamm GmbH
Principal Data Engineer(m/w/x)
VollzeitRemoteSeniorMünchen, Frankfurt am Main, Berlin, Leipzig, Stuttgart, Essen, Nürnberg - Computacenter
Data Engineer(m/w/x)
Vollzeitmit HomeofficeBerufserfahrenBerlin, Hamburg, München, Köln, Frankfurt am Main, Düsseldorf, Stuttgart, Dortmund, Essen, Hannover - appliedAI Initiative GmbH
AI Engineer - Focus: Software Engineering(m/w/x)
Vollzeitmit HomeofficeBerufserfahrenHeilbronn, München
Data AI Engineer(m/w/x)
Entwicklung und Betrieb von Datenpipelines und AI-Systemen mit Apache Kafka und Databricks. MLOps-Erfahrung mit MLflow und LLM-Frameworks wie LangChain erforderlich. 30 Tage Urlaub und freie Systemauswahl.
Anforderungen
- Sehr gute Python-Kenntnisse (PySpark, FastAPI, Pandas)
- Fortgeschrittenes SQL
- Praxiserfahrung mit dbt, Apache Spark, Airflow oder vergleichbaren Frameworks
- MLops-Erfahrung: Modell-Deployment, MLflow, CI/CD für ML-Pipelines
- Kenntnisse in LLM-Frameworks (LangChain, LlamaIndex, OpenAI API)
- Kenntnisse in Vektordatenbanken (Pinecone, pgvector o.Ä.)
- Cloud-Erfahrung auf AWS
- Sicherer Umgang mit Docker und Terraform
- Erfahrung mit Kafka, Kubernetes oder Streaming-Architekturen
- Relevante Zertifizierungen (AWS Certified Data Engineer, Databricks, Google Professional Data Engineer)
- Studium in Informatik, Data Science, Wirtschaftsinformatik o.Ä.
- Starkes Portfolio (GitHub, Kaggle, eigene Projekte)
- Ganzheitliches Systemdenken (Datenquelle bis Business-Outcome)
- Pragmatismus und Eigenverantwortung
- Lust auf Weiterentwicklung in einem sich schnell entwickelnden Feld
Aufgaben
- Datenpipelines und AI-Systeme bauen und betreiben
- Skalierbare ETL/ELT-Pipelines entwerfen
- Databricks-basierte Dateninfrastruktur verantworten
- Streaming-Szenarien mit Apache Kafka implementieren
- Feature Pipelines entwickeln
- CI/CD-Prozesse für ML-Modelle bauen
- Modelle produktionsreif deployen
- Modelle in Produktion überwachen
- Retrieval-Augmented-Generation-Systeme bauen
- LLMs mit internen Wissensdatenbanken integrieren
- Retrieval-Qualität optimieren
- AI/Data-Stack auf AWS betreiben
- Terraform für Infrastructure as Code nutzen
- Workloads mit Docker & Kubernetes containerisieren
- Geschäftsanforderungen in technische Lösungen übersetzen
- Data Scientists zur Produktionsfähigkeit beraten
- Datenprodukte sowie AI-Komponenten dokumentieren
Ausbildung
- Bachelor-Abschluss
Sprachen
- Englisch – fortgeschritten
Tools & Technologien
- Python
- PySpark
- FastAPI
- Pandas
- SQL
- dbt
- Apache Spark
- Airflow
- MLflow
- LangChain
- LlamaIndex
- OpenAI API
- Pinecone
- pgvector
- AWS
- Docker
- Terraform
- Kafka
- Kubernetes
Benefits
Mehr Urlaubstage
- 30 Tage Urlaub
Flexibles Arbeiten
- Flexible Arbeitszeitmodelle
- Hybrides Arbeiten
Moderne Technikausstattung
- Freie Systemauswahl
Workation & Sabbatical
- Sabbaticals
- Working abroad
Firmenfahrrad
- Bikeleasing
Mitarbeiterrabatte
- Corporate Benefits
Gratis oder Vergünstigte Mahlzeiten
- Kantinenzuschuss
Betriebliche Altersvorsorge
- Betriebliche Altersvorsorge
Team Events & Ausflüge
- Firmenevents
Lockere Unternehmenskultur
- Flache Hierarchien
- Transparente, agile Unternehmenskultur
Über das Unternehmen
ippen.ai
Branche
Media
Beschreibung
ippen.ai ist die Technologie-Einheit von IPPEN.MEDIA und Vorreiter in der Integration von Agentic AI im Redaktionsalltag zur Qualitätssicherung und Produktivitätssteigerung.
Noch nicht perfekt?
- Capgemini
Senior GenAI Engineer(m/w/x)
Vollzeitmit HomeofficeSeniorMünchen - ICB GmbH
AI Engineer(m/w/x)
VollzeitRemoteKeine AngabeMünchen, Gütersloh - Alexander Thamm GmbH
Principal Data Engineer(m/w/x)
VollzeitRemoteSeniorMünchen, Frankfurt am Main, Berlin, Leipzig, Stuttgart, Essen, Nürnberg - Computacenter
Data Engineer(m/w/x)
Vollzeitmit HomeofficeBerufserfahrenBerlin, Hamburg, München, Köln, Frankfurt am Main, Düsseldorf, Stuttgart, Dortmund, Essen, Hannover - appliedAI Initiative GmbH
AI Engineer - Focus: Software Engineering(m/w/x)
Vollzeitmit HomeofficeBerufserfahrenHeilbronn, München