Dein Alltag dreht sich um die Entwicklung und Optimierung von Datenprozessen. Du sorgst dafür, dass Datenpipelines effizient implementiert werden und die Daten in skalierbaren Datenbanken optimal strukturiert sind.
Anforderungen
- •Praktische Erfahrung in Dateninfrastrukturen
- •Erfahrung mit großen Datenmengen
- •Erfahrung mit Google Cloud, Databricks, Google Looker wünschenswert
- •Sehr gute Kenntnisse in relationalen Daten
- •Kenntnisse im Datenschutz und -sicherheit
- •Einschlägige Programmierkenntnisse in Python
- •Data-Scientist-Kenntnisse für Analyse
- •Erfahrung mit agilen Arbeitsmethoden
- •Sehr gutes analytisches Denkvermögen
- •Ausgeprägte Kommunikations- und Teamfähigkeit
- •Gute Deutsch- und Englisch-Kenntnisse (mind. B2)
Deine Aufgaben
- •Reibungslose Datenprozesse bereitstellen
- •Datenpipelines definieren und implementieren
- •Optimale Rahmenbedingungen für Datensuche schaffen
- •Skalierbare Datenbanken modellieren und strukturieren
- •Frameworks zur Datenverwaltung entwickeln und nutzen
- •Automatisches Testing für hohe Datenqualität einsetzen
Deine Vorteile
Code-Reviews und Pair-Programming
Agile Arbeitsweise in Teams
Entwicklungsumgebung unter Linux
Moderne Technologien in Microserver-Architektur
Flexible Arbeitszeiten und mobiles Arbeiten
30 Tage Urlaub und freie Tage
Transparente Entscheidungswege und Feedbackkultur
Gemeinsame Events und Firmenfeste
Frisches Obst und Getränke
Fitness-Studio im Unternehmen
Weiterbildungsmöglichkeiten und Teilnahme an Events
Original Beschreibung
# (Big) Data Engineer (all genders)
!(Big) Data Engineer (all genders), 1. Bild
Du liebst den Umgang mit großen Datenmengen (Big Data). Zusammen mit dem Data Architect arbeitest Du an der (Weiter-)Entwicklung und Implementierung unserer Datenmodelle. Dadurch können die Daten so aggregiert, verarbeitet und verfügbar gemacht werden, dass sie im Unternehmen optimal genutzt werden können (interne Dashboards und Steuerungsprozesse).
## Das erwartet Dich
* Du sorgst für die Bereitstellung reibungsloser Datenprozesse (Entwicklung und Optimierung der Dateninfrastruktur)
* Du bist für die Definition und Implementierung von Datenpipelines zuständig
* Du schaffst die optimalen Rahmenbedingungen für die Suche und das Abrufen der Daten (Modellierung skalierbarer Datenbanken, um die Daten zu strukturieren)
* Du entwickelst / nutzt geeignete Frameworks zur Speicherung und Verwaltung der Flut an Daten, die den Verfügbarkeits-, Integritäts- und Sicherheitsanspruch erfüllen
* Du nutzt automatisches Testing, um eine hohe Qualität der erstellten Prozesse und der verarbeiteten Daten sicherzustellen
## Das bringst Du mit
* Praktische Erfahrung in der Implementierung von Dateninfrastrukturen und -pipelines
* Erfahrung im Umgang mit großen Datenmengen und in der Implementierung von ETL-Prozessen
* Erfahrung im sicheren Umgang mit Google Cloud, Databricks und Google Looker erwünscht
* Sehr gute Kenntnisse in der Modellierung und der Abfrage von relationalen Daten im Big Data Kontext
* Kenntnisse im Bereich Datenschutz und -sicherheit
* Einschlägige praktische Programmierkenntnisse (Python)
* Du verfügst über Data-Scientist-Kenntnisse, um die Anforderungen zur bestmöglichen Analyse zu berücksichtigen
* Du hast Erfahrung mit agilen Arbeitsmethoden
* Ein sehr gutes analytisches Denkvermögen sowie eine selbstständige, strukturierte und lösungsorientierte Arbeitsweise
* Eine ausgeprägte Kommunikations- und Teamfähigkeit
* Gute Deutsch- und Englisch-Kenntnisse (mind. B2)
## Was wir Dir bieten
* Code-Reviews, Pair-Programming und Brainstorming im Team
* Agile Arbeitsweise in selbstorganisierten Teams
* Eine Entwicklungsumgebung unter Linux
* Einsatz moderner Technologien in unserer eigenen Microserver-Architektur
* Flexible Arbeitszeiten und Mobiles Arbeiten für eine optimale Work-Life-Balance
* 30 Tage Urlaub – zusätzlich hast Du auch an Weihnachten und Silvester frei
* Transparente Entscheidungswege und Feedbackkultur, beispielsweise in Form von regelmäßigen Vollversammlungen und Unternehmensumfragen
* Gemeinsame Events wie Koch- und Grillpausen, Tischkicker-Turniere und Firmenfeste
* Frisches Obst, Getränke und ein eigenes Fitness-Studio
* Weiterbildungsmöglichkeiten in Form von hausinternen Learning days sowie die Teilnahme an Meetups, Konferenzen oder anderen Events