Die KI-Suchmaschine für Jobs
Data Engineer(m/w/x)
Entwurf, Optimierung und Wartung von Datenpipelines für BI-Berichte, APIs und Produktfunktionen auf Google Cloud Platform bei Medienkonzern mit digitalem Fokus. Mindestens 3 Jahre Data Engineering Erfahrung, fundierte SQL-Kenntnisse und Python-Entwicklung erforderlich. Flexible Arbeitszeiten und Homeoffice-Möglichkeit.
Anforderungen
- Mindestens 3 Jahre Erfahrung im Data Engineering
- Fundierte SQL-Kenntnisse (Abfrageoptimierung, Modellierung, Kostenbewusstsein)
- Sichere Python-Entwicklung von Datenpipelines
- Produktiver, effizienter Einsatz von Google BigQuery
- Souveräne Workflow-Koordination (idealerweise Prefect oder ähnliche Tools)
- Erstellung nachvollziehbarer, robuster Transformationen mit dbt
- Vertrautheit mit Google Cloud (GCP) Umgebungen
- Praktische Beherrschung der Containerisierung mit Docker
- Wartung, Optimierung und Aufbau neuer Pipelines
- Selbstständiges Arbeiten und Stakeholder-Zusammenarbeit
- Idealerweise Einsatz von Terraform oder IaC-Tools
- Erfahrung mit Daten-Test-Frameworks
- Kenntnisse in Monitoring und Observability Best Practices
- Java-Erfahrung (kein Muss)
- Mindestens 3 Jahre Erfahrung im Data Engineering
- Fundierte SQL-Kenntnisse (Abfrageoptimierung, Modellierung, Kostenbewusstsein)
- Sichere Python-Entwicklung von Datenpipelines
- Produktiver, effizienter Einsatz von Google BigQuery
- Souveräne Workflow-Koordination (idealerweise Prefect oder ähnliche Tools)
- Erstellung nachvollziehbarer, robuster Transformationen mit dbt
- Vertrautheit mit Google Cloud (GCP) Umgebungen
- Praktische Beherrschung der Containerisierung mit Docker
- Wartung, Optimierung und Aufbau neuer Pipelines
- Selbstständiges Arbeiten und Stakeholder-Zusammenarbeit
- Idealerweise Einsatz von Terraform oder IaC-Tools
- Erfahrung mit Daten-Test-Frameworks
- Kenntnisse in Monitoring und Observability Best Practices
- Java-Erfahrung (kein Muss)
Aufgaben
- Datenpipelines für BI-Berichte, APIs und Produktfunktionen entwerfen
- Datenpipelines für BI-Berichte, APIs und Produktfunktionen optimieren
- Datenpipelines für BI-Berichte, APIs und Produktfunktionen warten
- Batch-Datenpipelines auf Google Cloud Platform entwerfen
- Batch-Datenpipelines auf Google Cloud Platform erstellen
- Batch-Datenpipelines auf Google Cloud Platform optimieren
- Bestehende Dateninfrastruktur warten und kontinuierlich verbessern
- Datenmodelle in Google BigQuery weiterentwickeln
- Datenmodelle in Google BigQuery kontinuierlich pflegen
- Workflows effizient mit Prefect orchestrieren
- Transformationen mit dbt umsetzen
- Transformationen mit geplanten Abfragen umsetzen
- Analyse- und Betriebsdaten (GA4, SAP, Piano) für Nutzung aufbereiten
- Strukturierte Datensätze für BI-Berichte aufbereiten
- Strukturierte Datensätze für interne APIs aufbereiten
- Containerisierte Workloads (Docker) warten
- Containerisierte Workloads (Docker) verbessern
- Aktiv in Infrastrukturentscheidungen einbringen
- Eng mit externen Infrastrukturanbietern zusammenarbeiten
- Integration von Datenquellen für Analysezwecke unterstützen
- Integration von Datenquellen für Produktzwecke unterstützen
- Zustand der Pipelines im Blick behalten
- Zuverlässigkeit des Systems sicherstellen
- Datengetriebene Lösungen mit Kund:innen gestalten
- Technische Einschränkungen und Kompromisse kommunizieren
- Neue Workflows aufsetzen
Berufserfahrung
- 3 Jahre
Ausbildung
- Abgeschlossene BerufsausbildungODER
- Bachelor-AbschlussODER
- Master-Abschluss
Sprachen
- Deutsch – verhandlungssicher
Tools & Technologien
- SQL
- Python
- Google BigQuery
- Prefect
- dbt
- Google Cloud (GCP)
- Docker
- Terraform
- Java
Benefits
Flexibles Arbeiten
- Flexible Arbeitszeiten
- Homeoffice
Boni & Prämien
- Gewinnspiele
Parkplatz & Pendelvorteile
- Gute öffentliche Anbindung
Weiterbildungsangebote
- Weiterbildung
Sonstige Vorteile
- Welcome-Abo
Modernes Büro
- Moderner Arbeitsplatz
Noch nicht perfekt?
- Netconomy GmbHVollzeitmit HomeofficeBerufserfahrenGraz, Wien, Pörtschach am Wörther Seeab 53.802 / Jahr
- Bundesimmobiliengesellschaft m.b.H.
Data Engineer(m/w/x)
Vollzeitmit HomeofficeBerufserfahrenWienab 56.000 / Jahr - Capgemini
(Senior) Data Engineer (Databricks/Snowflake)(m/w/x)
Vollzeitmit HomeofficeBerufserfahrenWien, Grazab 60.000 / Jahr - b.telligent Gruppe
Senior Data Engineer(m/w/x)
Vollzeitmit HomeofficeSeniorWien - solvistas GmbH
Data Engineer / Data Architect(m/w/x)
Vollzeit/Teilzeitmit HomeofficeBerufserfahrenWien, Linz, Berlinab 3.175 - 3.700 / Monat
Data Engineer(m/w/x)
Entwurf, Optimierung und Wartung von Datenpipelines für BI-Berichte, APIs und Produktfunktionen auf Google Cloud Platform bei Medienkonzern mit digitalem Fokus. Mindestens 3 Jahre Data Engineering Erfahrung, fundierte SQL-Kenntnisse und Python-Entwicklung erforderlich. Flexible Arbeitszeiten und Homeoffice-Möglichkeit.
Anforderungen
- Mindestens 3 Jahre Erfahrung im Data Engineering
- Fundierte SQL-Kenntnisse (Abfrageoptimierung, Modellierung, Kostenbewusstsein)
- Sichere Python-Entwicklung von Datenpipelines
- Produktiver, effizienter Einsatz von Google BigQuery
- Souveräne Workflow-Koordination (idealerweise Prefect oder ähnliche Tools)
- Erstellung nachvollziehbarer, robuster Transformationen mit dbt
- Vertrautheit mit Google Cloud (GCP) Umgebungen
- Praktische Beherrschung der Containerisierung mit Docker
- Wartung, Optimierung und Aufbau neuer Pipelines
- Selbstständiges Arbeiten und Stakeholder-Zusammenarbeit
- Idealerweise Einsatz von Terraform oder IaC-Tools
- Erfahrung mit Daten-Test-Frameworks
- Kenntnisse in Monitoring und Observability Best Practices
- Java-Erfahrung (kein Muss)
- Mindestens 3 Jahre Erfahrung im Data Engineering
- Fundierte SQL-Kenntnisse (Abfrageoptimierung, Modellierung, Kostenbewusstsein)
- Sichere Python-Entwicklung von Datenpipelines
- Produktiver, effizienter Einsatz von Google BigQuery
- Souveräne Workflow-Koordination (idealerweise Prefect oder ähnliche Tools)
- Erstellung nachvollziehbarer, robuster Transformationen mit dbt
- Vertrautheit mit Google Cloud (GCP) Umgebungen
- Praktische Beherrschung der Containerisierung mit Docker
- Wartung, Optimierung und Aufbau neuer Pipelines
- Selbstständiges Arbeiten und Stakeholder-Zusammenarbeit
- Idealerweise Einsatz von Terraform oder IaC-Tools
- Erfahrung mit Daten-Test-Frameworks
- Kenntnisse in Monitoring und Observability Best Practices
- Java-Erfahrung (kein Muss)
Aufgaben
- Datenpipelines für BI-Berichte, APIs und Produktfunktionen entwerfen
- Datenpipelines für BI-Berichte, APIs und Produktfunktionen optimieren
- Datenpipelines für BI-Berichte, APIs und Produktfunktionen warten
- Batch-Datenpipelines auf Google Cloud Platform entwerfen
- Batch-Datenpipelines auf Google Cloud Platform erstellen
- Batch-Datenpipelines auf Google Cloud Platform optimieren
- Bestehende Dateninfrastruktur warten und kontinuierlich verbessern
- Datenmodelle in Google BigQuery weiterentwickeln
- Datenmodelle in Google BigQuery kontinuierlich pflegen
- Workflows effizient mit Prefect orchestrieren
- Transformationen mit dbt umsetzen
- Transformationen mit geplanten Abfragen umsetzen
- Analyse- und Betriebsdaten (GA4, SAP, Piano) für Nutzung aufbereiten
- Strukturierte Datensätze für BI-Berichte aufbereiten
- Strukturierte Datensätze für interne APIs aufbereiten
- Containerisierte Workloads (Docker) warten
- Containerisierte Workloads (Docker) verbessern
- Aktiv in Infrastrukturentscheidungen einbringen
- Eng mit externen Infrastrukturanbietern zusammenarbeiten
- Integration von Datenquellen für Analysezwecke unterstützen
- Integration von Datenquellen für Produktzwecke unterstützen
- Zustand der Pipelines im Blick behalten
- Zuverlässigkeit des Systems sicherstellen
- Datengetriebene Lösungen mit Kund:innen gestalten
- Technische Einschränkungen und Kompromisse kommunizieren
- Neue Workflows aufsetzen
Berufserfahrung
- 3 Jahre
Ausbildung
- Abgeschlossene BerufsausbildungODER
- Bachelor-AbschlussODER
- Master-Abschluss
Sprachen
- Deutsch – verhandlungssicher
Tools & Technologien
- SQL
- Python
- Google BigQuery
- Prefect
- dbt
- Google Cloud (GCP)
- Docker
- Terraform
- Java
Benefits
Flexibles Arbeiten
- Flexible Arbeitszeiten
- Homeoffice
Boni & Prämien
- Gewinnspiele
Parkplatz & Pendelvorteile
- Gute öffentliche Anbindung
Weiterbildungsangebote
- Weiterbildung
Sonstige Vorteile
- Welcome-Abo
Modernes Büro
- Moderner Arbeitsplatz
Über das Unternehmen
Styria Digital Services GmbH
Branche
IT
Beschreibung
Das Unternehmen unterstützt Medienportale in ihrer digitalen Transformation.
Noch nicht perfekt?
- Netconomy GmbH
Data Engineer(m/w/x)
Vollzeitmit HomeofficeBerufserfahrenGraz, Wien, Pörtschach am Wörther Seeab 53.802 / Jahr - Bundesimmobiliengesellschaft m.b.H.
Data Engineer(m/w/x)
Vollzeitmit HomeofficeBerufserfahrenWienab 56.000 / Jahr - Capgemini
(Senior) Data Engineer (Databricks/Snowflake)(m/w/x)
Vollzeitmit HomeofficeBerufserfahrenWien, Grazab 60.000 / Jahr - b.telligent Gruppe
Senior Data Engineer(m/w/x)
Vollzeitmit HomeofficeSeniorWien - solvistas GmbH
Data Engineer / Data Architect(m/w/x)
Vollzeit/Teilzeitmit HomeofficeBerufserfahrenWien, Linz, Berlinab 3.175 - 3.700 / Monat