The AI Job Search Engine
Data Engineer(m/w/x)
Entwurf, Optimierung und Wartung von Datenpipelines für BI-Berichte, APIs und Produktfunktionen auf Google Cloud Platform bei Medienkonzern mit digitalem Fokus. Mindestens 3 Jahre Data Engineering Erfahrung, fundierte SQL-Kenntnisse und Python-Entwicklung erforderlich. Flexible Arbeitszeiten und Homeoffice-Möglichkeit.
Requirements
- Mindestens 3 Jahre Erfahrung im Data Engineering
- Fundierte SQL-Kenntnisse (Abfrageoptimierung, Modellierung, Kostenbewusstsein)
- Sichere Python-Entwicklung von Datenpipelines
- Produktiver, effizienter Einsatz von Google BigQuery
- Souveräne Workflow-Koordination (idealerweise Prefect oder ähnliche Tools)
- Erstellung nachvollziehbarer, robuster Transformationen mit dbt
- Vertrautheit mit Google Cloud (GCP) Umgebungen
- Praktische Beherrschung der Containerisierung mit Docker
- Wartung, Optimierung und Aufbau neuer Pipelines
- Selbstständiges Arbeiten und Stakeholder-Zusammenarbeit
- Idealerweise Einsatz von Terraform oder IaC-Tools
- Erfahrung mit Daten-Test-Frameworks
- Kenntnisse in Monitoring und Observability Best Practices
- Java-Erfahrung (kein Muss)
- Mindestens 3 Jahre Erfahrung im Data Engineering
- Fundierte SQL-Kenntnisse (Abfrageoptimierung, Modellierung, Kostenbewusstsein)
- Sichere Python-Entwicklung von Datenpipelines
- Produktiver, effizienter Einsatz von Google BigQuery
- Souveräne Workflow-Koordination (idealerweise Prefect oder ähnliche Tools)
- Erstellung nachvollziehbarer, robuster Transformationen mit dbt
- Vertrautheit mit Google Cloud (GCP) Umgebungen
- Praktische Beherrschung der Containerisierung mit Docker
- Wartung, Optimierung und Aufbau neuer Pipelines
- Selbstständiges Arbeiten und Stakeholder-Zusammenarbeit
- Idealerweise Einsatz von Terraform oder IaC-Tools
- Erfahrung mit Daten-Test-Frameworks
- Kenntnisse in Monitoring und Observability Best Practices
- Java-Erfahrung (kein Muss)
Tasks
- Datenpipelines für BI-Berichte, APIs und Produktfunktionen entwerfen
- Datenpipelines für BI-Berichte, APIs und Produktfunktionen optimieren
- Datenpipelines für BI-Berichte, APIs und Produktfunktionen warten
- Batch-Datenpipelines auf Google Cloud Platform entwerfen
- Batch-Datenpipelines auf Google Cloud Platform erstellen
- Batch-Datenpipelines auf Google Cloud Platform optimieren
- Bestehende Dateninfrastruktur warten und kontinuierlich verbessern
- Datenmodelle in Google BigQuery weiterentwickeln
- Datenmodelle in Google BigQuery kontinuierlich pflegen
- Workflows effizient mit Prefect orchestrieren
- Transformationen mit dbt umsetzen
- Transformationen mit geplanten Abfragen umsetzen
- Analyse- und Betriebsdaten (GA4, SAP, Piano) für Nutzung aufbereiten
- Strukturierte Datensätze für BI-Berichte aufbereiten
- Strukturierte Datensätze für interne APIs aufbereiten
- Containerisierte Workloads (Docker) warten
- Containerisierte Workloads (Docker) verbessern
- Aktiv in Infrastrukturentscheidungen einbringen
- Eng mit externen Infrastrukturanbietern zusammenarbeiten
- Integration von Datenquellen für Analysezwecke unterstützen
- Integration von Datenquellen für Produktzwecke unterstützen
- Zustand der Pipelines im Blick behalten
- Zuverlässigkeit des Systems sicherstellen
- Datengetriebene Lösungen mit Kund:innen gestalten
- Technische Einschränkungen und Kompromisse kommunizieren
- Neue Workflows aufsetzen
Work Experience
- 3 years
Education
- Vocational certificationOR
- Bachelor's degreeOR
- Master's degree
Languages
- German – Business Fluent
Tools & Technologies
- SQL
- Python
- Google BigQuery
- Prefect
- dbt
- Google Cloud (GCP)
- Docker
- Terraform
- Java
Benefits
Flexible Working
- Flexible Arbeitszeiten
- Homeoffice
Bonuses & Incentives
- Gewinnspiele
Parking & Commuter Benefits
- Gute öffentliche Anbindung
Learning & Development
- Weiterbildung
Other Benefits
- Welcome-Abo
Modern Office
- Moderner Arbeitsplatz
Not a perfect match?
- Netconomy GmbHFull-timeWith HomeofficeExperiencedGraz, Wien, Pörtschach am Wörther Seefrom 53,802 / year
- Bundesimmobiliengesellschaft m.b.H.
Data Engineer(m/w/x)
Full-timeWith HomeofficeExperiencedWienfrom 56,000 / year - Capgemini
(Senior) Data Engineer (Databricks/Snowflake)(m/w/x)
Full-timeWith HomeofficeExperiencedWien, Grazfrom 60,000 / year - b.telligent Gruppe
Senior Data Engineer(m/w/x)
Full-timeWith HomeofficeSeniorWien - solvistas GmbH
Data Engineer / Data Architect(m/w/x)
Full-time/Part-timeWith HomeofficeExperiencedWien, Linz, Berlinfrom 3,175 - 3,700 / month
Data Engineer(m/w/x)
Entwurf, Optimierung und Wartung von Datenpipelines für BI-Berichte, APIs und Produktfunktionen auf Google Cloud Platform bei Medienkonzern mit digitalem Fokus. Mindestens 3 Jahre Data Engineering Erfahrung, fundierte SQL-Kenntnisse und Python-Entwicklung erforderlich. Flexible Arbeitszeiten und Homeoffice-Möglichkeit.
Requirements
- Mindestens 3 Jahre Erfahrung im Data Engineering
- Fundierte SQL-Kenntnisse (Abfrageoptimierung, Modellierung, Kostenbewusstsein)
- Sichere Python-Entwicklung von Datenpipelines
- Produktiver, effizienter Einsatz von Google BigQuery
- Souveräne Workflow-Koordination (idealerweise Prefect oder ähnliche Tools)
- Erstellung nachvollziehbarer, robuster Transformationen mit dbt
- Vertrautheit mit Google Cloud (GCP) Umgebungen
- Praktische Beherrschung der Containerisierung mit Docker
- Wartung, Optimierung und Aufbau neuer Pipelines
- Selbstständiges Arbeiten und Stakeholder-Zusammenarbeit
- Idealerweise Einsatz von Terraform oder IaC-Tools
- Erfahrung mit Daten-Test-Frameworks
- Kenntnisse in Monitoring und Observability Best Practices
- Java-Erfahrung (kein Muss)
- Mindestens 3 Jahre Erfahrung im Data Engineering
- Fundierte SQL-Kenntnisse (Abfrageoptimierung, Modellierung, Kostenbewusstsein)
- Sichere Python-Entwicklung von Datenpipelines
- Produktiver, effizienter Einsatz von Google BigQuery
- Souveräne Workflow-Koordination (idealerweise Prefect oder ähnliche Tools)
- Erstellung nachvollziehbarer, robuster Transformationen mit dbt
- Vertrautheit mit Google Cloud (GCP) Umgebungen
- Praktische Beherrschung der Containerisierung mit Docker
- Wartung, Optimierung und Aufbau neuer Pipelines
- Selbstständiges Arbeiten und Stakeholder-Zusammenarbeit
- Idealerweise Einsatz von Terraform oder IaC-Tools
- Erfahrung mit Daten-Test-Frameworks
- Kenntnisse in Monitoring und Observability Best Practices
- Java-Erfahrung (kein Muss)
Tasks
- Datenpipelines für BI-Berichte, APIs und Produktfunktionen entwerfen
- Datenpipelines für BI-Berichte, APIs und Produktfunktionen optimieren
- Datenpipelines für BI-Berichte, APIs und Produktfunktionen warten
- Batch-Datenpipelines auf Google Cloud Platform entwerfen
- Batch-Datenpipelines auf Google Cloud Platform erstellen
- Batch-Datenpipelines auf Google Cloud Platform optimieren
- Bestehende Dateninfrastruktur warten und kontinuierlich verbessern
- Datenmodelle in Google BigQuery weiterentwickeln
- Datenmodelle in Google BigQuery kontinuierlich pflegen
- Workflows effizient mit Prefect orchestrieren
- Transformationen mit dbt umsetzen
- Transformationen mit geplanten Abfragen umsetzen
- Analyse- und Betriebsdaten (GA4, SAP, Piano) für Nutzung aufbereiten
- Strukturierte Datensätze für BI-Berichte aufbereiten
- Strukturierte Datensätze für interne APIs aufbereiten
- Containerisierte Workloads (Docker) warten
- Containerisierte Workloads (Docker) verbessern
- Aktiv in Infrastrukturentscheidungen einbringen
- Eng mit externen Infrastrukturanbietern zusammenarbeiten
- Integration von Datenquellen für Analysezwecke unterstützen
- Integration von Datenquellen für Produktzwecke unterstützen
- Zustand der Pipelines im Blick behalten
- Zuverlässigkeit des Systems sicherstellen
- Datengetriebene Lösungen mit Kund:innen gestalten
- Technische Einschränkungen und Kompromisse kommunizieren
- Neue Workflows aufsetzen
Work Experience
- 3 years
Education
- Vocational certificationOR
- Bachelor's degreeOR
- Master's degree
Languages
- German – Business Fluent
Tools & Technologies
- SQL
- Python
- Google BigQuery
- Prefect
- dbt
- Google Cloud (GCP)
- Docker
- Terraform
- Java
Benefits
Flexible Working
- Flexible Arbeitszeiten
- Homeoffice
Bonuses & Incentives
- Gewinnspiele
Parking & Commuter Benefits
- Gute öffentliche Anbindung
Learning & Development
- Weiterbildung
Other Benefits
- Welcome-Abo
Modern Office
- Moderner Arbeitsplatz
About the Company
Styria Digital Services GmbH
Industry
IT
Description
Das Unternehmen unterstützt Medienportale in ihrer digitalen Transformation.
Not a perfect match?
- Netconomy GmbH
Data Engineer(m/w/x)
Full-timeWith HomeofficeExperiencedGraz, Wien, Pörtschach am Wörther Seefrom 53,802 / year - Bundesimmobiliengesellschaft m.b.H.
Data Engineer(m/w/x)
Full-timeWith HomeofficeExperiencedWienfrom 56,000 / year - Capgemini
(Senior) Data Engineer (Databricks/Snowflake)(m/w/x)
Full-timeWith HomeofficeExperiencedWien, Grazfrom 60,000 / year - b.telligent Gruppe
Senior Data Engineer(m/w/x)
Full-timeWith HomeofficeSeniorWien - solvistas GmbH
Data Engineer / Data Architect(m/w/x)
Full-time/Part-timeWith HomeofficeExperiencedWien, Linz, Berlinfrom 3,175 - 3,700 / month