Du entwickelst und implementierst innovative Datenprodukte und optimierst ETL- und ELT-Pipelines. Gemeinsam mit Analysten erstellst du interaktive Dashboards und sorgst für die Datenqualität, während du Machine-Learning-Modelle operationalisierst.
Anforderungen
- •Bachelor-Abschluss mit 4 Jahren Erfahrung oder Master-Abschluss mit 2 Jahren Erfahrung
- •Mindestens 1 Jahr Erfahrung mit Databricks
- •ETL/ELT-Entwicklung mit Python (insbesondere PySpark)
- •SQL inkl. Performanceoptimierung
- •Kommunikation & Teamarbeit
- •Cloud-Plattformen (vorzugsweise Azure)
- •CI/CD für Datenprodukte
- •Dashboarding mit Streamlit oder Dash
- •Machine Learning – Modellintegration
- •Data Governance & Security
- •Agile Methoden (Scrum, Kanban)
Deine Aufgaben
- •Datenprodukte auf der Databricks-Plattform entwickeln
- •ETL/ELT-Pipelines für große Datenmengen designen
- •Interaktive Dashboards mit Streamlit oder Dash erstellen
- •Machine-Learning-Modelle integrieren und operationalisieren
- •Anforderungsanalysen mit Data Scientists und Analysten durchführen
- •Datenqualität, -sicherheit und -dokumentation sicherstellen
- •Datenprozesse und -abfragen performanceoptimieren
- •Datenarchitektur und -strategie weiterentwickeln
Deine Vorteile
Attraktives Zeitmodell
Familienfreundliche Arbeitgeber:in
Flexibles Arbeiten im Home Office
Technische Ausstattung inkl. iPhone
Gefördertes Mittagessen
Work-Life-Balance
Original Beschreibung
Data Engineer (m/w/d) - befristet
=================================
#energiewende #frauenpower #poweron
Aufgaben
* Entwicklung und Implementierung von Datenprodukten auf der Databricks-Plattform
* Design und Umsetzung von ETL/ELT-Pipelines für große Datenmengen
* Erstellung interaktiver Dashboards mit Streamlit oder Dash auf Posit Connect
* Integration und Operationalisierung von Machine-Learning-Modellen (optional, je nach Projekt und Fähigkeiten)
* Zusammenarbeit mit Data Scientists, Analysten und Fachbereichen zur Anforderungsanalyse
* Sicherstellung von Datenqualität, -sicherheit und -dokumentation
* Performanceoptimierung von Datenprozessen und -abfragen
* Unterstützung bei der Weiterentwicklung der Datenarchitektur und -strategie
Anforderungen
**Must-Haves:**
* Abgeschlossenes Studium (Bachelor mit mind. 4 Jahren einschlägiger Berufserfahrung ODER Master mit mind. 2 Jahren einschlägiger Berufserfahrung) in Informatik, Data Engineering, Wirtschaftsinformatik, Mathematik, Elektrotechnik oder vergleichbarer technischer Fachrichtung
* Mindestens 1 Jahr praktische Erfahrung mit Databricks oder vergleichbaren Cloud-Datenplattformen
* ETL/ELT-Entwicklung mit Python (insbesondere PySpark)
* SQL inkl. Performanceoptimierung
* Kommunikation & Teamarbeit
**Nice-to-have:**
* Cloud-Plattformen (vorzugsweise Azure)
* CI/CD für Datenprodukte
* Dashboarding mit Streamlit oder Dash
* Machine Learning – Modellintegration
* Data Governance & Security
* Agile Methoden (Scrum, Kanban)
Das bieten wir:
* Attraktives Zeitmodell mit größeren Freizeitblöcken
* Familienfreundliche Arbeitgeber:in
* Flexible Arbeitszeiten und Home Office Möglichkeiten
* iPhone & Laptop (Dell) zzgl. Bildschirmen, Tastatur, Webcam, Headset
* Gefördertes Mittagessen
* Work Life Balance
Das Gehalt für Ihren neuen Job richtet sich nach Ihrer konkreten Qualifikation und Erfahrung. Das kollektivvertragliche Mindestgrundgehalt beträgt für diese Position Euro 4.609,55 brutto im Monat.
Die Stelle ist auf die Dauer von einem Jahr befristet. Das früheste Startdatum für die Stelle ist der 01.08.2025.
Vielfalt bei unseren Mitarbeiter:innen ist ein wichtiger Bestandteil unserer Unternehmenskultur. Wir sind auf der Suche nach motivierten Menschen und achten bei Ihrer Bewerbung auf Chancengleichheit. Uns ist der Mensch wichtig, das Engagement und Ihr Wille mit uns gemeinsam die Energiewende zu gestalten.
Dieser Position liegt eine Beschäftigung im Rahmen einer Arbeitskräfteüberlassung zu Grunde und ist auf die Dauer einer Karenz befristet. Arbeitgeber ist ein Arbeitskräfteüberlassungsunternehmen.