Du entwickelst und pflegst Datenpipelines zur Verarbeitung von Daten aus verschiedenen Quellen. Dabei gewährleistest du die Datenqualität, automatisierst ETL-Prozesse und erstellst Dashboards, um wertvolle Einblicke zu gewinnen.
Anforderungen
- •Laufendes Masterstudium in Informatik
- •Gute Programmierkenntnisse in Python
- •Gute Kenntnisse in Power BI oder Grafana
- •Kenntnisse über Datenmodellierung und ETL-Prozesse
- •Ausgezeichnete Problemlösungsfähigkeiten
- •Ausgeprägte Kommunikations- und Teamwork-Fähigkeiten
- •Vertrautheit mit AWS und Datenbanken wünschenswert
- •Verhandlungssichere Deutsch- und Englischkenntnisse
Deine Aufgaben
- •Datenpipelines konzipieren und entwickeln
- •Datenqualität sicherstellen und überwachen
- •ETL-Pipelines automatisieren und betreiben
- •Power BI- oder Grafana-Dashboards erstellen
- •Mit funktionsübergreifenden Teams zusammenarbeiten
- •Datenpipeline-Architektur dokumentieren
Deine Vorteile
Hybrides Arbeiten
Flexible Arbeitszeiten
Gesundheitsförderung durch EGYM Wellpass
Corporate Benefits
Teamevents
Modernes Arbeitsumfeld
Weiterbildungsangebote durch Workshops
Seminare und e-Learning
Original Beschreibung
## Praktikant (m/w/d) Data Engineering für die Zellproduktion
###### Intern / Student, Full-time ·Kirchentellinsfurt
---
##### Deine Aufgaben
* Entwicklung von Datenpipelines: Unterstützen bei der Konzeption, Entwicklung und Pflege von robusten Datenpipelines zur Erfassung, Verarbeitung und Speicherung von Daten aus verschiedenen Quellen über die gesamte Produktionslinie hinweg
* Sicherstellung der Datenqualität: Implementieren und Überwachen von Datenqualitätsprüfungen, um die Genauigkeit, Vollständigkeit und Zuverlässigkeit der Daten in der gesamten Pipeline sicherzustellen
* Automatisierung: Entwickeln und Betreiben von ETL-Pipelines auf Basis von IoT- und Cloud-Technologien wie AWS Glue, Amazon S3, Redshift and Amazon Lambda
* Entwicklung und Pflege von Power BI- oder Grafana-Dashboards, um mit Daten einen Mehrwert für das Unternehmen zu schaffen
* Kollaboration: Zusammenarbeit mit funktionsübergreifenden Teams, einschließlich Ingenieur:innen, Data Scientists, Analyst:innen und IT-Fachleuten, um Datenanforderungen zu verstehen und Lösungen zu liefern, die den Anforderungen entsprechen
* Dokumentation: Klare und detaillierte Dokumentation der Datenpipeline-Architektur, Prozesse und best Practices
* Die Position ist vor Ort in Kirchentellinsfurt
##### Dein Profil
* Laufendes Masterstudium im Bereich Informatik oder vergleichbare Studienrichtung
* Gute Programmierkenntnisse in Python
* Gute Kenntnisse in der Entwicklung von Dashboards auf der Grundlage von Power BI oder Grafana
* Kenntnisse über Datenmodellierung, ETL-Prozesse und bewährte Verfahren der Datenverwaltung
* Ausgezeichnete Problemlösungsfähigkeiten und Liebe zum Detail
* Ausgeprägte Kommunikations- und Teamwork-Fähigkeiten
* Vertrautheit mit AWS (AWS Glue, AWS Athena, AWS Lake Formation) sowie Verständnis von Data-Warehousing-Konzepten und Erfahrung mit Datenbanken (z. B. SQL, NoSQL) sind wünschenswert
* Verhandlungssichere Deutsch- und Englischkenntnisse
##### Your mission
* Data Pipeline Development: Assist in the design, development, and maintenance of robust data pipelines to collect, process, and store data from various sources across the production line
* Data Quality Assurance: Implement and monitor data quality checks to ensure the accuracy, completeness, and reliability of data throughout the pipeline
* Automation: Develop and operate ETL pipelines based on IoT and cloud technologies such as AWS Glue, Amazon S3, Redshift and Amazon Lambda
* Develop and maintain Power BI, or Grafana dashboards to add value to the business with data
* Collaboration: Collaborate with cross-functional teams, including engineers, data scientists, analysts, and IT professionals, to understand data requirements and deliver solutions that meet business needs
* Documentation: Maintain clear and detailed documentation of data pipeline architecture, processes, and best practices
* Position is on site in Kirchentellinsfurt
##### Your profile
* Enrolled in a Master's program in Computer Science, Information Technology, or a related field
* Strong programming skills in Python
* Strong dashboard development skills based on Power BI or Grafana
* Knowledge of data modelling, ETL processes, and data governance best practices
* Excellent problem-solving skills and attention to detail
* Strong communication and teamwork abilities
* Good to have:
1. Familiarity with AWS (AWS Glue, AWS Athena, AWS Lake Formation)
2. Understanding of data warehousing concepts and experience with databases (e.g., SQL, NoSQL).
* Fluent German and English language skills