The AI Job Search Engine
Data Engineer(m/w/x)
Description
In dieser Rolle als Data Engineer gestaltest du moderne Datenlösungen auf der Google Cloud Platform und arbeitest eng mit Data Scientists zusammen, um komplexe Datenherausforderungen zu meistern und wertvolle Insights zu liefern.
Let AI find the perfect jobs for you!
Upload your CV and Nejo AI will find matching job offers for you.
Requirements
- •Mindestens 3 Jahre praktische Erfahrung als Data Engineer
- •Fundierte Erfahrung mit BigQuery (SQL, Partitionierung, Clustering, Optimierung) und Dataflow (Apache Beam)
- •Starke Programmierkenntnisse in Python mit Erfahrung in Datenmanipulationsbibliotheken wie PySpark und pandas
- •Starke Kenntnisse in SQL für komplexe Transformationen, Optimierung und Analyse
- •Versiert im Umgang mit Dataform für modulare SQL basierte Daten Transformationen und Pipeline-Management
- •Solides Verständnis von Data-Warehousing-Prinzipien, ETL-/ELT-Prozessen, dimensionalem Modellieren und Daten Governance
- •Erfahrung in der Integration von Daten aus unterschiedlichen APIs und Streaming-Systemen (Pub/Sub)
- •Erfahrung mit Cloud Composer zur Orchestrierung von Workflows
- •Hervorragende Kommunikations- und Kollaborationsfähigkeiten in Englisch
- •Fähigkeit, sowohl selbstständig als auch im agilen Team zu arbeiten
- •Google Professional Data Engineer-Zertifizierung
- •Kenntnisse in BigLake für den einheitlichen Zugriff auf und die Verwaltung von strukturierten und unstrukturierten Daten
- •Erfahrung mit Dataplex zur Verwaltung von Metadaten, Datenherkunft (Lineage) und Daten-Governance
- •Vertrautheit mit Infrastructure-as-Code (Terraform) zur Automatisierung der Bereitstellung von GCP-Ressourcen und CI/CD-Pipelines
- •Erfahrung mit Datenvisualisierungstools wie Looker, Looker Studio oder Power BI
- •Interesse an bzw. Erfahrung mit Machine-Learning-Workflows unter Verwendung von Vertex AI oder ähnlichen Plattformen
Work Experience
3 years
Tasks
- •Moderne, skalierbare Datenlösungen auf der Google Cloud Platform entwickeln
- •Effiziente ETL-/ELT-Prozesse zum Einlesen, Transformieren und Laden von Daten aufbauen
- •Daten-Ingestion und Echtzeitverarbeitung mit Dataflow und Pub/Sub implementieren
- •SQL-Transformations-Workflows mit Dataform entwickeln
- •Effiziente BigQuery Abfragen erstellen unter Berücksichtigung von Partitionierung und Clustering
- •Komplexe Workflows mit Cloud Composer und Cloud Functions orchestrieren
- •Zentrale Daten Governance und Metadatenverwaltung mit Dataplex implementieren
- •Datenpipelines hinsichtlich Leistung und Kosten überwachen und optimieren
- •Mit Data Scientists und Analysten zur Erfassung von Datenanforderungen zusammenarbeiten
- •Kontinuierliche Weiterbildung in GCP-Datenservices und Best Practices im Data Engineering
Tools & Technologies
Languages
English – Business Fluent
Benefits
Flexible Working
- •Flexible Arbeitsmodelle
Mentorship & Coaching
- •Strukturiertes Onboarding
Learning & Development
- •Individuelle Schulungsmöglichkeiten
Team Events
- •Jährlicher NETCONOMY Summit
- •Social Events
Free or Subsidized Food
- •Lunch Benefit
Corporate Discounts
- •Rabatte in Partnerrestaurants
Other Benefits
- •Mobility Support
- CapgeminiFull-timeWith HomeofficeExperiencedfrom 60,000 / yearWien, Graz
- TimeTac
Data Engineer(m/w/x)
Full-timeWith HomeofficeExperiencedfrom 53,802 / yearGraz - Tietoevry
Senior Data Engineer(m/w/x)
Full-timeWith HomeofficeSeniorfrom 3,843 / monthWien, Linz, Graz, Berlin - Dataciders GmbH
Senior Data Engineer(m/w/x)
Full-time/Part-timeWith HomeofficeSeniorfrom 3,843 / monthHohenzell, Graz - Netconomy GmbH
AI Engineer(m/w/x)
Full-timeWith HomeofficeExperiencedfrom 53,802 / yearGraz, Wien, Pörtschach am Wörther See
Data Engineer(m/w/x)
The AI Job Search Engine
Description
In dieser Rolle als Data Engineer gestaltest du moderne Datenlösungen auf der Google Cloud Platform und arbeitest eng mit Data Scientists zusammen, um komplexe Datenherausforderungen zu meistern und wertvolle Insights zu liefern.
Let AI find the perfect jobs for you!
Upload your CV and Nejo AI will find matching job offers for you.
Requirements
- •Mindestens 3 Jahre praktische Erfahrung als Data Engineer
- •Fundierte Erfahrung mit BigQuery (SQL, Partitionierung, Clustering, Optimierung) und Dataflow (Apache Beam)
- •Starke Programmierkenntnisse in Python mit Erfahrung in Datenmanipulationsbibliotheken wie PySpark und pandas
- •Starke Kenntnisse in SQL für komplexe Transformationen, Optimierung und Analyse
- •Versiert im Umgang mit Dataform für modulare SQL basierte Daten Transformationen und Pipeline-Management
- •Solides Verständnis von Data-Warehousing-Prinzipien, ETL-/ELT-Prozessen, dimensionalem Modellieren und Daten Governance
- •Erfahrung in der Integration von Daten aus unterschiedlichen APIs und Streaming-Systemen (Pub/Sub)
- •Erfahrung mit Cloud Composer zur Orchestrierung von Workflows
- •Hervorragende Kommunikations- und Kollaborationsfähigkeiten in Englisch
- •Fähigkeit, sowohl selbstständig als auch im agilen Team zu arbeiten
- •Google Professional Data Engineer-Zertifizierung
- •Kenntnisse in BigLake für den einheitlichen Zugriff auf und die Verwaltung von strukturierten und unstrukturierten Daten
- •Erfahrung mit Dataplex zur Verwaltung von Metadaten, Datenherkunft (Lineage) und Daten-Governance
- •Vertrautheit mit Infrastructure-as-Code (Terraform) zur Automatisierung der Bereitstellung von GCP-Ressourcen und CI/CD-Pipelines
- •Erfahrung mit Datenvisualisierungstools wie Looker, Looker Studio oder Power BI
- •Interesse an bzw. Erfahrung mit Machine-Learning-Workflows unter Verwendung von Vertex AI oder ähnlichen Plattformen
Work Experience
3 years
Tasks
- •Moderne, skalierbare Datenlösungen auf der Google Cloud Platform entwickeln
- •Effiziente ETL-/ELT-Prozesse zum Einlesen, Transformieren und Laden von Daten aufbauen
- •Daten-Ingestion und Echtzeitverarbeitung mit Dataflow und Pub/Sub implementieren
- •SQL-Transformations-Workflows mit Dataform entwickeln
- •Effiziente BigQuery Abfragen erstellen unter Berücksichtigung von Partitionierung und Clustering
- •Komplexe Workflows mit Cloud Composer und Cloud Functions orchestrieren
- •Zentrale Daten Governance und Metadatenverwaltung mit Dataplex implementieren
- •Datenpipelines hinsichtlich Leistung und Kosten überwachen und optimieren
- •Mit Data Scientists und Analysten zur Erfassung von Datenanforderungen zusammenarbeiten
- •Kontinuierliche Weiterbildung in GCP-Datenservices und Best Practices im Data Engineering
Tools & Technologies
Languages
English – Business Fluent
Benefits
Flexible Working
- •Flexible Arbeitsmodelle
Mentorship & Coaching
- •Strukturiertes Onboarding
Learning & Development
- •Individuelle Schulungsmöglichkeiten
Team Events
- •Jährlicher NETCONOMY Summit
- •Social Events
Free or Subsidized Food
- •Lunch Benefit
Corporate Discounts
- •Rabatte in Partnerrestaurants
Other Benefits
- •Mobility Support
About the Company
Netconomy GmbH
Industry
IT
Description
Das Unternehmen entwickelt einzigartige digitale Lösungen und fördert agile, interdisziplinäre Zusammenarbeit.
- Capgemini
(Senior) Data Engineer (Databricks/Snowflake)(m/w/x)
Full-timeWith HomeofficeExperiencedfrom 60,000 / yearWien, Graz - TimeTac
Data Engineer(m/w/x)
Full-timeWith HomeofficeExperiencedfrom 53,802 / yearGraz - Tietoevry
Senior Data Engineer(m/w/x)
Full-timeWith HomeofficeSeniorfrom 3,843 / monthWien, Linz, Graz, Berlin - Dataciders GmbH
Senior Data Engineer(m/w/x)
Full-time/Part-timeWith HomeofficeSeniorfrom 3,843 / monthHohenzell, Graz - Netconomy GmbH
AI Engineer(m/w/x)
Full-timeWith HomeofficeExperiencedfrom 53,802 / yearGraz, Wien, Pörtschach am Wörther See