The AI Job Search Engine
Data Engineer(m/w/x)
Entwicklung skalierbarer Datenlösungen auf Google Cloud Platform mit Dataflow, Pub/Sub und BigQuery bei Lösungsanbieter für digitale Produkte. 3+ Jahre Erfahrung als Data Engineer mit BigQuery und Dataflow erforderlich. Flexible Arbeitsmodelle.
Requirements
- Mindestens 3 Jahre praktische Erfahrung als Data Engineer
- Fundierte Erfahrung mit BigQuery (SQL, Partitionierung, Clustering, Optimierung) und Dataflow (Apache Beam)
- Starke Programmierkenntnisse in Python mit Erfahrung in Datenmanipulationsbibliotheken wie PySpark und pandas
- Starke Kenntnisse in SQL für komplexe Transformationen, Optimierung und Analyse
- Versiert im Umgang mit Dataform für modulare SQL basierte Daten Transformationen und Pipeline-Management
- Solides Verständnis von Data-Warehousing-Prinzipien, ETL-/ELT-Prozessen, dimensionalem Modellieren und Daten Governance
- Erfahrung in der Integration von Daten aus unterschiedlichen APIs und Streaming-Systemen (Pub/Sub)
- Erfahrung mit Cloud Composer zur Orchestrierung von Workflows
- Hervorragende Kommunikations- und Kollaborationsfähigkeiten in Englisch
- Fähigkeit, sowohl selbstständig als auch im agilen Team zu arbeiten
- Google Professional Data Engineer-Zertifizierung
- Kenntnisse in BigLake für den einheitlichen Zugriff auf und die Verwaltung von strukturierten und unstrukturierten Daten
- Erfahrung mit Dataplex zur Verwaltung von Metadaten, Datenherkunft (Lineage) und Daten-Governance
- Vertrautheit mit Infrastructure-as-Code (Terraform) zur Automatisierung der Bereitstellung von GCP-Ressourcen und CI/CD-Pipelines
- Erfahrung mit Datenvisualisierungstools wie Looker, Looker Studio oder Power BI
- Interesse an bzw. Erfahrung mit Machine-Learning-Workflows unter Verwendung von Vertex AI oder ähnlichen Plattformen
Tasks
- Moderne, skalierbare Datenlösungen auf der Google Cloud Platform entwickeln
- Effiziente ETL-/ELT-Prozesse zum Einlesen, Transformieren und Laden von Daten aufbauen
- Daten-Ingestion und Echtzeitverarbeitung mit Dataflow und Pub/Sub implementieren
- SQL-Transformations-Workflows mit Dataform entwickeln
- Effiziente BigQuery Abfragen erstellen unter Berücksichtigung von Partitionierung und Clustering
- Komplexe Workflows mit Cloud Composer und Cloud Functions orchestrieren
- Zentrale Daten Governance und Metadatenverwaltung mit Dataplex implementieren
- Datenpipelines hinsichtlich Leistung und Kosten überwachen und optimieren
- Mit Data Scientists und Analysten zur Erfassung von Datenanforderungen zusammenarbeiten
- Kontinuierliche Weiterbildung in GCP-Datenservices und Best Practices im Data Engineering
Work Experience
- 3 years
Education
- Vocational certificationOR
- Bachelor's degreeOR
- Master's degree
Languages
- English – Business Fluent
Tools & Technologies
- Google Cloud Platform (GCP)
- BigQuery
- Dataflow (Apache Beam)
- Python
- PySpark
- pandas
- SQL
- Dataform
- APIs
- Pub/Sub
- Cloud Composer
- BigLake
- Dataplex
- Terraform
- Looker
- Looker Studio
- Power BI
- Vertex AI
Benefits
Flexible Working
- Flexible Arbeitsmodelle
Mentorship & Coaching
- Strukturiertes Onboarding
Learning & Development
- Individuelle Schulungsmöglichkeiten
Team Events
- Jährlicher NETCONOMY Summit
- Social Events
Free or Subsidized Food
- Lunch Benefit
Corporate Discounts
- Rabatte in Partnerrestaurants
Other Benefits
- Mobility Support
Not a perfect match?
- CapgeminiFull-timeWith HomeofficeExperiencedWien, Grazfrom 60,000 / year
- TimeTac
Data Engineer(m/w/x)
Full-timeWith HomeofficeExperiencedGrazfrom 53,802 / year - Dataciders GmbH
Senior Data Engineer(m/w/x)
Full-time/Part-timeWith HomeofficeSeniorHohenzell, Grazfrom 3,843 / month - Institut AllergoSan Pharmazeutische Produkte Forschungs- und Vertriebs GmbH
Data Engineer (Data Quality & Operations)(m/w/x)
Full-timeWith HomeofficeExperiencedGrazfrom 70,000 / year - VusionGroup SA
Senior Data Engineer - Telemetry Data(m/w/x)
Full-timeWith HomeofficeSeniorFernitz-Mellachfrom 3,843 / month
Data Engineer(m/w/x)
Entwicklung skalierbarer Datenlösungen auf Google Cloud Platform mit Dataflow, Pub/Sub und BigQuery bei Lösungsanbieter für digitale Produkte. 3+ Jahre Erfahrung als Data Engineer mit BigQuery und Dataflow erforderlich. Flexible Arbeitsmodelle.
Requirements
- Mindestens 3 Jahre praktische Erfahrung als Data Engineer
- Fundierte Erfahrung mit BigQuery (SQL, Partitionierung, Clustering, Optimierung) und Dataflow (Apache Beam)
- Starke Programmierkenntnisse in Python mit Erfahrung in Datenmanipulationsbibliotheken wie PySpark und pandas
- Starke Kenntnisse in SQL für komplexe Transformationen, Optimierung und Analyse
- Versiert im Umgang mit Dataform für modulare SQL basierte Daten Transformationen und Pipeline-Management
- Solides Verständnis von Data-Warehousing-Prinzipien, ETL-/ELT-Prozessen, dimensionalem Modellieren und Daten Governance
- Erfahrung in der Integration von Daten aus unterschiedlichen APIs und Streaming-Systemen (Pub/Sub)
- Erfahrung mit Cloud Composer zur Orchestrierung von Workflows
- Hervorragende Kommunikations- und Kollaborationsfähigkeiten in Englisch
- Fähigkeit, sowohl selbstständig als auch im agilen Team zu arbeiten
- Google Professional Data Engineer-Zertifizierung
- Kenntnisse in BigLake für den einheitlichen Zugriff auf und die Verwaltung von strukturierten und unstrukturierten Daten
- Erfahrung mit Dataplex zur Verwaltung von Metadaten, Datenherkunft (Lineage) und Daten-Governance
- Vertrautheit mit Infrastructure-as-Code (Terraform) zur Automatisierung der Bereitstellung von GCP-Ressourcen und CI/CD-Pipelines
- Erfahrung mit Datenvisualisierungstools wie Looker, Looker Studio oder Power BI
- Interesse an bzw. Erfahrung mit Machine-Learning-Workflows unter Verwendung von Vertex AI oder ähnlichen Plattformen
Tasks
- Moderne, skalierbare Datenlösungen auf der Google Cloud Platform entwickeln
- Effiziente ETL-/ELT-Prozesse zum Einlesen, Transformieren und Laden von Daten aufbauen
- Daten-Ingestion und Echtzeitverarbeitung mit Dataflow und Pub/Sub implementieren
- SQL-Transformations-Workflows mit Dataform entwickeln
- Effiziente BigQuery Abfragen erstellen unter Berücksichtigung von Partitionierung und Clustering
- Komplexe Workflows mit Cloud Composer und Cloud Functions orchestrieren
- Zentrale Daten Governance und Metadatenverwaltung mit Dataplex implementieren
- Datenpipelines hinsichtlich Leistung und Kosten überwachen und optimieren
- Mit Data Scientists und Analysten zur Erfassung von Datenanforderungen zusammenarbeiten
- Kontinuierliche Weiterbildung in GCP-Datenservices und Best Practices im Data Engineering
Work Experience
- 3 years
Education
- Vocational certificationOR
- Bachelor's degreeOR
- Master's degree
Languages
- English – Business Fluent
Tools & Technologies
- Google Cloud Platform (GCP)
- BigQuery
- Dataflow (Apache Beam)
- Python
- PySpark
- pandas
- SQL
- Dataform
- APIs
- Pub/Sub
- Cloud Composer
- BigLake
- Dataplex
- Terraform
- Looker
- Looker Studio
- Power BI
- Vertex AI
Benefits
Flexible Working
- Flexible Arbeitsmodelle
Mentorship & Coaching
- Strukturiertes Onboarding
Learning & Development
- Individuelle Schulungsmöglichkeiten
Team Events
- Jährlicher NETCONOMY Summit
- Social Events
Free or Subsidized Food
- Lunch Benefit
Corporate Discounts
- Rabatte in Partnerrestaurants
Other Benefits
- Mobility Support
About the Company
Netconomy GmbH
Industry
IT
Description
Das Unternehmen entwickelt einzigartige digitale Lösungen und fördert agile, interdisziplinäre Zusammenarbeit.
Not a perfect match?
- Capgemini
(Senior) Data Engineer (Databricks/Snowflake)(m/w/x)
Full-timeWith HomeofficeExperiencedWien, Grazfrom 60,000 / year - TimeTac
Data Engineer(m/w/x)
Full-timeWith HomeofficeExperiencedGrazfrom 53,802 / year - Dataciders GmbH
Senior Data Engineer(m/w/x)
Full-time/Part-timeWith HomeofficeSeniorHohenzell, Grazfrom 3,843 / month - Institut AllergoSan Pharmazeutische Produkte Forschungs- und Vertriebs GmbH
Data Engineer (Data Quality & Operations)(m/w/x)
Full-timeWith HomeofficeExperiencedGrazfrom 70,000 / year - VusionGroup SA
Senior Data Engineer - Telemetry Data(m/w/x)
Full-timeWith HomeofficeSeniorFernitz-Mellachfrom 3,843 / month