Die KI-Suchmaschine für Jobs
Data Engineer(m/w/x)
Entwicklung skalierbarer Datenlösungen auf Google Cloud Platform mit Dataflow, Pub/Sub und BigQuery bei Lösungsanbieter für digitale Produkte. 3+ Jahre Erfahrung als Data Engineer mit BigQuery und Dataflow erforderlich. Flexible Arbeitsmodelle.
Anforderungen
- Mindestens 3 Jahre praktische Erfahrung als Data Engineer
- Fundierte Erfahrung mit BigQuery (SQL, Partitionierung, Clustering, Optimierung) und Dataflow (Apache Beam)
- Starke Programmierkenntnisse in Python mit Erfahrung in Datenmanipulationsbibliotheken wie PySpark und pandas
- Starke Kenntnisse in SQL für komplexe Transformationen, Optimierung und Analyse
- Versiert im Umgang mit Dataform für modulare SQL basierte Daten Transformationen und Pipeline-Management
- Solides Verständnis von Data-Warehousing-Prinzipien, ETL-/ELT-Prozessen, dimensionalem Modellieren und Daten Governance
- Erfahrung in der Integration von Daten aus unterschiedlichen APIs und Streaming-Systemen (Pub/Sub)
- Erfahrung mit Cloud Composer zur Orchestrierung von Workflows
- Hervorragende Kommunikations- und Kollaborationsfähigkeiten in Englisch
- Fähigkeit, sowohl selbstständig als auch im agilen Team zu arbeiten
- Google Professional Data Engineer-Zertifizierung
- Kenntnisse in BigLake für den einheitlichen Zugriff auf und die Verwaltung von strukturierten und unstrukturierten Daten
- Erfahrung mit Dataplex zur Verwaltung von Metadaten, Datenherkunft (Lineage) und Daten-Governance
- Vertrautheit mit Infrastructure-as-Code (Terraform) zur Automatisierung der Bereitstellung von GCP-Ressourcen und CI/CD-Pipelines
- Erfahrung mit Datenvisualisierungstools wie Looker, Looker Studio oder Power BI
- Interesse an bzw. Erfahrung mit Machine-Learning-Workflows unter Verwendung von Vertex AI oder ähnlichen Plattformen
Aufgaben
- Moderne, skalierbare Datenlösungen auf der Google Cloud Platform entwickeln
- Effiziente ETL-/ELT-Prozesse zum Einlesen, Transformieren und Laden von Daten aufbauen
- Daten-Ingestion und Echtzeitverarbeitung mit Dataflow und Pub/Sub implementieren
- SQL-Transformations-Workflows mit Dataform entwickeln
- Effiziente BigQuery Abfragen erstellen unter Berücksichtigung von Partitionierung und Clustering
- Komplexe Workflows mit Cloud Composer und Cloud Functions orchestrieren
- Zentrale Daten Governance und Metadatenverwaltung mit Dataplex implementieren
- Datenpipelines hinsichtlich Leistung und Kosten überwachen und optimieren
- Mit Data Scientists und Analysten zur Erfassung von Datenanforderungen zusammenarbeiten
- Kontinuierliche Weiterbildung in GCP-Datenservices und Best Practices im Data Engineering
Berufserfahrung
- 3 Jahre
Ausbildung
- Abgeschlossene BerufsausbildungODER
- Bachelor-AbschlussODER
- Master-Abschluss
Sprachen
- Englisch – verhandlungssicher
Tools & Technologien
- Google Cloud Platform (GCP)
- BigQuery
- Dataflow (Apache Beam)
- Python
- PySpark
- pandas
- SQL
- Dataform
- APIs
- Pub/Sub
- Cloud Composer
- BigLake
- Dataplex
- Terraform
- Looker
- Looker Studio
- Power BI
- Vertex AI
Benefits
Flexibles Arbeiten
- Flexible Arbeitsmodelle
Mentoring & Coaching
- Strukturiertes Onboarding
Weiterbildungsangebote
- Individuelle Schulungsmöglichkeiten
Team Events & Ausflüge
- Jährlicher NETCONOMY Summit
- Social Events
Gratis oder Vergünstigte Mahlzeiten
- Lunch Benefit
Mitarbeiterrabatte
- Rabatte in Partnerrestaurants
Sonstige Vorteile
- Mobility Support
Noch nicht perfekt?
- CapgeminiVollzeitmit HomeofficeBerufserfahrenWien, Grazab 60.000 / Jahr
- TimeTac
Data Engineer(m/w/x)
Vollzeitmit HomeofficeBerufserfahrenGrazab 53.802 / Jahr - Dataciders GmbH
Senior Data Engineer(m/w/x)
Vollzeit/Teilzeitmit HomeofficeSeniorHohenzell, Grazab 3.843 / Monat - Institut AllergoSan Pharmazeutische Produkte Forschungs- und Vertriebs GmbH
Data Engineer (Data Quality & Operations)(m/w/x)
Vollzeitmit HomeofficeBerufserfahrenGrazab 70.000 / Jahr - VusionGroup SA
Senior Data Engineer - Telemetry Data(m/w/x)
Vollzeitmit HomeofficeSeniorFernitz-Mellachab 3.843 / Monat
Data Engineer(m/w/x)
Entwicklung skalierbarer Datenlösungen auf Google Cloud Platform mit Dataflow, Pub/Sub und BigQuery bei Lösungsanbieter für digitale Produkte. 3+ Jahre Erfahrung als Data Engineer mit BigQuery und Dataflow erforderlich. Flexible Arbeitsmodelle.
Anforderungen
- Mindestens 3 Jahre praktische Erfahrung als Data Engineer
- Fundierte Erfahrung mit BigQuery (SQL, Partitionierung, Clustering, Optimierung) und Dataflow (Apache Beam)
- Starke Programmierkenntnisse in Python mit Erfahrung in Datenmanipulationsbibliotheken wie PySpark und pandas
- Starke Kenntnisse in SQL für komplexe Transformationen, Optimierung und Analyse
- Versiert im Umgang mit Dataform für modulare SQL basierte Daten Transformationen und Pipeline-Management
- Solides Verständnis von Data-Warehousing-Prinzipien, ETL-/ELT-Prozessen, dimensionalem Modellieren und Daten Governance
- Erfahrung in der Integration von Daten aus unterschiedlichen APIs und Streaming-Systemen (Pub/Sub)
- Erfahrung mit Cloud Composer zur Orchestrierung von Workflows
- Hervorragende Kommunikations- und Kollaborationsfähigkeiten in Englisch
- Fähigkeit, sowohl selbstständig als auch im agilen Team zu arbeiten
- Google Professional Data Engineer-Zertifizierung
- Kenntnisse in BigLake für den einheitlichen Zugriff auf und die Verwaltung von strukturierten und unstrukturierten Daten
- Erfahrung mit Dataplex zur Verwaltung von Metadaten, Datenherkunft (Lineage) und Daten-Governance
- Vertrautheit mit Infrastructure-as-Code (Terraform) zur Automatisierung der Bereitstellung von GCP-Ressourcen und CI/CD-Pipelines
- Erfahrung mit Datenvisualisierungstools wie Looker, Looker Studio oder Power BI
- Interesse an bzw. Erfahrung mit Machine-Learning-Workflows unter Verwendung von Vertex AI oder ähnlichen Plattformen
Aufgaben
- Moderne, skalierbare Datenlösungen auf der Google Cloud Platform entwickeln
- Effiziente ETL-/ELT-Prozesse zum Einlesen, Transformieren und Laden von Daten aufbauen
- Daten-Ingestion und Echtzeitverarbeitung mit Dataflow und Pub/Sub implementieren
- SQL-Transformations-Workflows mit Dataform entwickeln
- Effiziente BigQuery Abfragen erstellen unter Berücksichtigung von Partitionierung und Clustering
- Komplexe Workflows mit Cloud Composer und Cloud Functions orchestrieren
- Zentrale Daten Governance und Metadatenverwaltung mit Dataplex implementieren
- Datenpipelines hinsichtlich Leistung und Kosten überwachen und optimieren
- Mit Data Scientists und Analysten zur Erfassung von Datenanforderungen zusammenarbeiten
- Kontinuierliche Weiterbildung in GCP-Datenservices und Best Practices im Data Engineering
Berufserfahrung
- 3 Jahre
Ausbildung
- Abgeschlossene BerufsausbildungODER
- Bachelor-AbschlussODER
- Master-Abschluss
Sprachen
- Englisch – verhandlungssicher
Tools & Technologien
- Google Cloud Platform (GCP)
- BigQuery
- Dataflow (Apache Beam)
- Python
- PySpark
- pandas
- SQL
- Dataform
- APIs
- Pub/Sub
- Cloud Composer
- BigLake
- Dataplex
- Terraform
- Looker
- Looker Studio
- Power BI
- Vertex AI
Benefits
Flexibles Arbeiten
- Flexible Arbeitsmodelle
Mentoring & Coaching
- Strukturiertes Onboarding
Weiterbildungsangebote
- Individuelle Schulungsmöglichkeiten
Team Events & Ausflüge
- Jährlicher NETCONOMY Summit
- Social Events
Gratis oder Vergünstigte Mahlzeiten
- Lunch Benefit
Mitarbeiterrabatte
- Rabatte in Partnerrestaurants
Sonstige Vorteile
- Mobility Support
Über das Unternehmen
Netconomy GmbH
Branche
IT
Beschreibung
Das Unternehmen entwickelt einzigartige digitale Lösungen und fördert agile, interdisziplinäre Zusammenarbeit.
Noch nicht perfekt?
- Capgemini
(Senior) Data Engineer (Databricks/Snowflake)(m/w/x)
Vollzeitmit HomeofficeBerufserfahrenWien, Grazab 60.000 / Jahr - TimeTac
Data Engineer(m/w/x)
Vollzeitmit HomeofficeBerufserfahrenGrazab 53.802 / Jahr - Dataciders GmbH
Senior Data Engineer(m/w/x)
Vollzeit/Teilzeitmit HomeofficeSeniorHohenzell, Grazab 3.843 / Monat - Institut AllergoSan Pharmazeutische Produkte Forschungs- und Vertriebs GmbH
Data Engineer (Data Quality & Operations)(m/w/x)
Vollzeitmit HomeofficeBerufserfahrenGrazab 70.000 / Jahr - VusionGroup SA
Senior Data Engineer - Telemetry Data(m/w/x)
Vollzeitmit HomeofficeSeniorFernitz-Mellachab 3.843 / Monat