Dein persönlicher KI-Karriere-Agent
Data Engineer(m/w/x)
Entwurf, Optimierung und Wartung von Datenpipelines für BI-Berichte, APIs und Produktfunktionen auf Google Cloud Platform bei Medienkonzern mit digitalem Fokus. Mindestens 3 Jahre Data Engineering Erfahrung, fundierte SQL-Kenntnisse und Python-Entwicklung erforderlich. Flexible Arbeitszeiten und Homeoffice-Möglichkeit.
Anforderungen
- Mindestens 3 Jahre Erfahrung im Data Engineering
- Fundierte SQL-Kenntnisse (Abfrageoptimierung, Modellierung, Kostenbewusstsein)
- Sichere Python-Entwicklung von Datenpipelines
- Produktiver, effizienter Einsatz von Google BigQuery
- Souveräne Workflow-Koordination (idealerweise Prefect oder ähnliche Tools)
- Erstellung nachvollziehbarer, robuster Transformationen mit dbt
- Vertrautheit mit Google Cloud (GCP) Umgebungen
- Praktische Beherrschung der Containerisierung mit Docker
- Wartung, Optimierung und Aufbau neuer Pipelines
- Selbstständiges Arbeiten und Stakeholder-Zusammenarbeit
- Idealerweise Einsatz von Terraform oder IaC-Tools
- Erfahrung mit Daten-Test-Frameworks
- Kenntnisse in Monitoring und Observability Best Practices
- Java-Erfahrung (kein Muss)
- Mindestens 3 Jahre Erfahrung im Data Engineering
- Fundierte SQL-Kenntnisse (Abfrageoptimierung, Modellierung, Kostenbewusstsein)
- Sichere Python-Entwicklung von Datenpipelines
- Produktiver, effizienter Einsatz von Google BigQuery
- Souveräne Workflow-Koordination (idealerweise Prefect oder ähnliche Tools)
- Erstellung nachvollziehbarer, robuster Transformationen mit dbt
- Vertrautheit mit Google Cloud (GCP) Umgebungen
- Praktische Beherrschung der Containerisierung mit Docker
- Wartung, Optimierung und Aufbau neuer Pipelines
- Selbstständiges Arbeiten und Stakeholder-Zusammenarbeit
- Idealerweise Einsatz von Terraform oder IaC-Tools
- Erfahrung mit Daten-Test-Frameworks
- Kenntnisse in Monitoring und Observability Best Practices
- Java-Erfahrung (kein Muss)
Aufgaben
- Datenpipelines für BI-Berichte, APIs und Produktfunktionen entwerfen
- Datenpipelines für BI-Berichte, APIs und Produktfunktionen optimieren
- Datenpipelines für BI-Berichte, APIs und Produktfunktionen warten
- Batch-Datenpipelines auf Google Cloud Platform entwerfen
- Batch-Datenpipelines auf Google Cloud Platform erstellen
- Batch-Datenpipelines auf Google Cloud Platform optimieren
- Bestehende Dateninfrastruktur warten und kontinuierlich verbessern
- Datenmodelle in Google BigQuery weiterentwickeln
- Datenmodelle in Google BigQuery kontinuierlich pflegen
- Workflows effizient mit Prefect orchestrieren
- Transformationen mit dbt umsetzen
- Transformationen mit geplanten Abfragen umsetzen
- Analyse- und Betriebsdaten (GA4, SAP, Piano) für Nutzung aufbereiten
- Strukturierte Datensätze für BI-Berichte aufbereiten
- Strukturierte Datensätze für interne APIs aufbereiten
- Containerisierte Workloads (Docker) warten
- Containerisierte Workloads (Docker) verbessern
- Aktiv in Infrastrukturentscheidungen einbringen
- Eng mit externen Infrastrukturanbietern zusammenarbeiten
- Integration von Datenquellen für Analysezwecke unterstützen
- Integration von Datenquellen für Produktzwecke unterstützen
- Zustand der Pipelines im Blick behalten
- Zuverlässigkeit des Systems sicherstellen
- Datengetriebene Lösungen mit Kund:innen gestalten
- Technische Einschränkungen und Kompromisse kommunizieren
- Neue Workflows aufsetzen
Berufserfahrung
- 3 Jahre
Ausbildung
- Abgeschlossene BerufsausbildungODER
- Bachelor-AbschlussODER
- Master-Abschluss
Sprachen
- Deutsch – verhandlungssicher
Tools & Technologien
- SQL
- Python
- Google BigQuery
- Prefect
- dbt
- Google Cloud (GCP)
- Docker
- Terraform
- Java
Benefits
Flexibles Arbeiten
- Flexible Arbeitszeiten
- Homeoffice
Boni & Prämien
- Gewinnspiele
Parkplatz & Pendelvorteile
- Gute öffentliche Anbindung
Weiterbildungsangebote
- Weiterbildung
Sonstige Vorteile
- Welcome-Abo
Modernes Büro
- Moderner Arbeitsplatz
Gefällt dir diese Stelle?
BetaDein Career Agent findet täglich ähnliche Jobs für dich.
Noch nicht perfekt?
- Netconomy GmbHVollzeitmit HomeofficeBerufserfahrenGraz, Wien, Pörtschach am Wörther Seeab 53.802 / Jahr
- TÜV AUSTRIA Holding AG
Data Engineer(m/w/x)
Vollzeitmit HomeofficeBerufserfahrenWienab 60.000 / Jahr - Capgemini
(Senior) Data Engineer (Databricks/Snowflake)(m/w/x)
Vollzeitmit HomeofficeBerufserfahrenWien, Grazab 60.000 / Jahr - Porsche Informatik GmbH
Data Engineer(m/w/x)
Vollzeitmit HomeofficeBerufserfahrenSalzburg, Wien, Hagenbergab 56.854 / Jahr - b.telligent Gruppe
Senior Data Engineer(m/w/x)
Vollzeitmit HomeofficeSeniorWien
Data Engineer(m/w/x)
Entwurf, Optimierung und Wartung von Datenpipelines für BI-Berichte, APIs und Produktfunktionen auf Google Cloud Platform bei Medienkonzern mit digitalem Fokus. Mindestens 3 Jahre Data Engineering Erfahrung, fundierte SQL-Kenntnisse und Python-Entwicklung erforderlich. Flexible Arbeitszeiten und Homeoffice-Möglichkeit.
Anforderungen
- Mindestens 3 Jahre Erfahrung im Data Engineering
- Fundierte SQL-Kenntnisse (Abfrageoptimierung, Modellierung, Kostenbewusstsein)
- Sichere Python-Entwicklung von Datenpipelines
- Produktiver, effizienter Einsatz von Google BigQuery
- Souveräne Workflow-Koordination (idealerweise Prefect oder ähnliche Tools)
- Erstellung nachvollziehbarer, robuster Transformationen mit dbt
- Vertrautheit mit Google Cloud (GCP) Umgebungen
- Praktische Beherrschung der Containerisierung mit Docker
- Wartung, Optimierung und Aufbau neuer Pipelines
- Selbstständiges Arbeiten und Stakeholder-Zusammenarbeit
- Idealerweise Einsatz von Terraform oder IaC-Tools
- Erfahrung mit Daten-Test-Frameworks
- Kenntnisse in Monitoring und Observability Best Practices
- Java-Erfahrung (kein Muss)
- Mindestens 3 Jahre Erfahrung im Data Engineering
- Fundierte SQL-Kenntnisse (Abfrageoptimierung, Modellierung, Kostenbewusstsein)
- Sichere Python-Entwicklung von Datenpipelines
- Produktiver, effizienter Einsatz von Google BigQuery
- Souveräne Workflow-Koordination (idealerweise Prefect oder ähnliche Tools)
- Erstellung nachvollziehbarer, robuster Transformationen mit dbt
- Vertrautheit mit Google Cloud (GCP) Umgebungen
- Praktische Beherrschung der Containerisierung mit Docker
- Wartung, Optimierung und Aufbau neuer Pipelines
- Selbstständiges Arbeiten und Stakeholder-Zusammenarbeit
- Idealerweise Einsatz von Terraform oder IaC-Tools
- Erfahrung mit Daten-Test-Frameworks
- Kenntnisse in Monitoring und Observability Best Practices
- Java-Erfahrung (kein Muss)
Aufgaben
- Datenpipelines für BI-Berichte, APIs und Produktfunktionen entwerfen
- Datenpipelines für BI-Berichte, APIs und Produktfunktionen optimieren
- Datenpipelines für BI-Berichte, APIs und Produktfunktionen warten
- Batch-Datenpipelines auf Google Cloud Platform entwerfen
- Batch-Datenpipelines auf Google Cloud Platform erstellen
- Batch-Datenpipelines auf Google Cloud Platform optimieren
- Bestehende Dateninfrastruktur warten und kontinuierlich verbessern
- Datenmodelle in Google BigQuery weiterentwickeln
- Datenmodelle in Google BigQuery kontinuierlich pflegen
- Workflows effizient mit Prefect orchestrieren
- Transformationen mit dbt umsetzen
- Transformationen mit geplanten Abfragen umsetzen
- Analyse- und Betriebsdaten (GA4, SAP, Piano) für Nutzung aufbereiten
- Strukturierte Datensätze für BI-Berichte aufbereiten
- Strukturierte Datensätze für interne APIs aufbereiten
- Containerisierte Workloads (Docker) warten
- Containerisierte Workloads (Docker) verbessern
- Aktiv in Infrastrukturentscheidungen einbringen
- Eng mit externen Infrastrukturanbietern zusammenarbeiten
- Integration von Datenquellen für Analysezwecke unterstützen
- Integration von Datenquellen für Produktzwecke unterstützen
- Zustand der Pipelines im Blick behalten
- Zuverlässigkeit des Systems sicherstellen
- Datengetriebene Lösungen mit Kund:innen gestalten
- Technische Einschränkungen und Kompromisse kommunizieren
- Neue Workflows aufsetzen
Berufserfahrung
- 3 Jahre
Ausbildung
- Abgeschlossene BerufsausbildungODER
- Bachelor-AbschlussODER
- Master-Abschluss
Sprachen
- Deutsch – verhandlungssicher
Tools & Technologien
- SQL
- Python
- Google BigQuery
- Prefect
- dbt
- Google Cloud (GCP)
- Docker
- Terraform
- Java
Benefits
Flexibles Arbeiten
- Flexible Arbeitszeiten
- Homeoffice
Boni & Prämien
- Gewinnspiele
Parkplatz & Pendelvorteile
- Gute öffentliche Anbindung
Weiterbildungsangebote
- Weiterbildung
Sonstige Vorteile
- Welcome-Abo
Modernes Büro
- Moderner Arbeitsplatz
Gefällt dir diese Stelle?
BetaDein Career Agent findet täglich ähnliche Jobs für dich.
Über das Unternehmen
Styria Digital Services GmbH
Branche
IT
Beschreibung
Das Unternehmen unterstützt Medienportale in ihrer digitalen Transformation.
Noch nicht perfekt?
- Netconomy GmbH
Data Engineer(m/w/x)
Vollzeitmit HomeofficeBerufserfahrenGraz, Wien, Pörtschach am Wörther Seeab 53.802 / Jahr - TÜV AUSTRIA Holding AG
Data Engineer(m/w/x)
Vollzeitmit HomeofficeBerufserfahrenWienab 60.000 / Jahr - Capgemini
(Senior) Data Engineer (Databricks/Snowflake)(m/w/x)
Vollzeitmit HomeofficeBerufserfahrenWien, Grazab 60.000 / Jahr - Porsche Informatik GmbH
Data Engineer(m/w/x)
Vollzeitmit HomeofficeBerufserfahrenSalzburg, Wien, Hagenbergab 56.854 / Jahr - b.telligent Gruppe
Senior Data Engineer(m/w/x)
Vollzeitmit HomeofficeSeniorWien