NE
Netconomy GmbH1 Monat
Data Engineer(m/w/x)
Vollzeit
mit Homeoffice
Berufserfahren
ab 53.802 / Jahr
Graz, Wien, Pörtschach am Wörther See
Nejo KI-Zusammenfassung
In dieser Rolle als Data Engineer gestaltest du moderne Datenlösungen auf der Google Cloud Platform und arbeitest eng mit Data Scientists zusammen, um komplexe Datenherausforderungen zu meistern und wertvolle Insights zu liefern.
Lass KI die perfekten Jobs für dich finden!
Lade deinen CV hoch und die Nejo-KI findet passende Stellenangebote für dich.
Anforderungen
- •Mindestens 3 Jahre praktische Erfahrung als Data Engineer
- •Fundierte Erfahrung mit BigQuery (SQL, Partitionierung, Clustering, Optimierung) und Dataflow (Apache Beam)
- •Starke Programmierkenntnisse in Python mit Erfahrung in Datenmanipulationsbibliotheken wie PySpark und pandas
- •Starke Kenntnisse in SQL für komplexe Transformationen, Optimierung und Analyse
- •Versiert im Umgang mit Dataform für modulare SQL basierte Daten Transformationen und Pipeline-Management
- •Solides Verständnis von Data-Warehousing-Prinzipien, ETL-/ELT-Prozessen, dimensionalem Modellieren und Daten Governance
- •Erfahrung in der Integration von Daten aus unterschiedlichen APIs und Streaming-Systemen (Pub/Sub)
- •Erfahrung mit Cloud Composer zur Orchestrierung von Workflows
- •Hervorragende Kommunikations- und Kollaborationsfähigkeiten in Englisch
- •Fähigkeit, sowohl selbstständig als auch im agilen Team zu arbeiten
- •Google Professional Data Engineer-Zertifizierung
- •Kenntnisse in BigLake für den einheitlichen Zugriff auf und die Verwaltung von strukturierten und unstrukturierten Daten
- •Erfahrung mit Dataplex zur Verwaltung von Metadaten, Datenherkunft (Lineage) und Daten-Governance
- •Vertrautheit mit Infrastructure-as-Code (Terraform) zur Automatisierung der Bereitstellung von GCP-Ressourcen und CI/CD-Pipelines
- •Erfahrung mit Datenvisualisierungstools wie Looker, Looker Studio oder Power BI
- •Interesse an bzw. Erfahrung mit Machine-Learning-Workflows unter Verwendung von Vertex AI oder ähnlichen Plattformen
Keine Angabe
Berufserfahrung
3 Jahre
Deine Aufgaben
- •Moderne, skalierbare Datenlösungen auf der Google Cloud Platform entwickeln
- •Effiziente ETL-/ELT-Prozesse zum Einlesen, Transformieren und Laden von Daten aufbauen
- •Daten-Ingestion und Echtzeitverarbeitung mit Dataflow und Pub/Sub implementieren
- •SQL-Transformations-Workflows mit Dataform entwickeln
- •Effiziente BigQuery Abfragen erstellen unter Berücksichtigung von Partitionierung und Clustering
- •Komplexe Workflows mit Cloud Composer und Cloud Functions orchestrieren
- •Zentrale Daten Governance und Metadatenverwaltung mit Dataplex implementieren
- •Datenpipelines hinsichtlich Leistung und Kosten überwachen und optimieren
- •Mit Data Scientists und Analysten zur Erfassung von Datenanforderungen zusammenarbeiten
- •Kontinuierliche Weiterbildung in GCP-Datenservices und Best Practices im Data Engineering
Tools & Technologien
Google Cloud Platform (GCP)BigQueryDataflow (Apache Beam)PythonPySparkpandasSQLDataformAPIsPub/SubCloud ComposerBigLakeDataplexTerraformLookerLooker StudioPower BIVertex AI
Sprachen
Englisch – verhandlungssicher
Deine Vorteile
Flexibles Arbeiten
- •Flexible Arbeitsmodelle
Mentoring & Coaching
- •Strukturiertes Onboarding
Weiterbildungsangebote
- •Individuelle Schulungsmöglichkeiten
Team Events & Ausflüge
- •Jährlicher NETCONOMY Summit
- •Social Events
Gratis oder Vergünstigte Mahlzeiten
- •Lunch Benefit
Mitarbeiterrabatte
- •Rabatte in Partnerrestaurants
Sonstige Vorteile
- •Mobility Support
Die Originalanzeige dieses Stellenangebotes in der aktuellsten Version findest du hier. Nejo hat diesen Job automatisch von der Website des Unternehmens Netconomy GmbH erfasst und die Informationen auf Nejo mit Hilfe von KI für dich aufbereitet. Trotz sorgfältiger Analyse können einzelne Informationen unvollständig oder ungenau sein. Bitte prüfe immer alle Angaben in der Originalanzeige! Inhalte und Urheberrechte der Originalanzeige liegen beim ausschreibenden Unternehmen.
Ähnliche Jobs direkt in deine Inbox?