Skip to content
Neuer Job?Nejo!

Die KI-Suchmaschine für Jobs

NENetconomy GmbH

Data Engineer(m/w/x)

Graz, Wien, Pörtschach am Wörther See
ab 53.802 / Jahr
Vollzeitmit HomeofficeBerufserfahren

Entwicklung skalierbarer Datenlösungen auf Google Cloud Platform mit Dataflow, Pub/Sub und BigQuery bei Lösungsanbieter für digitale Produkte. 3+ Jahre Erfahrung als Data Engineer mit BigQuery und Dataflow erforderlich. Flexible Arbeitsmodelle.

Anforderungen

  • Mindestens 3 Jahre praktische Erfahrung als Data Engineer
  • Fundierte Erfahrung mit BigQuery (SQL, Partitionierung, Clustering, Optimierung) und Dataflow (Apache Beam)
  • Starke Programmierkenntnisse in Python mit Erfahrung in Datenmanipulationsbibliotheken wie PySpark und pandas
  • Starke Kenntnisse in SQL für komplexe Transformationen, Optimierung und Analyse
  • Versiert im Umgang mit Dataform für modulare SQL basierte Daten Transformationen und Pipeline-Management
  • Solides Verständnis von Data-Warehousing-Prinzipien, ETL-/ELT-Prozessen, dimensionalem Modellieren und Daten Governance
  • Erfahrung in der Integration von Daten aus unterschiedlichen APIs und Streaming-Systemen (Pub/Sub)
  • Erfahrung mit Cloud Composer zur Orchestrierung von Workflows
  • Hervorragende Kommunikations- und Kollaborationsfähigkeiten in Englisch
  • Fähigkeit, sowohl selbstständig als auch im agilen Team zu arbeiten
  • Google Professional Data Engineer-Zertifizierung
  • Kenntnisse in BigLake für den einheitlichen Zugriff auf und die Verwaltung von strukturierten und unstrukturierten Daten
  • Erfahrung mit Dataplex zur Verwaltung von Metadaten, Datenherkunft (Lineage) und Daten-Governance
  • Vertrautheit mit Infrastructure-as-Code (Terraform) zur Automatisierung der Bereitstellung von GCP-Ressourcen und CI/CD-Pipelines
  • Erfahrung mit Datenvisualisierungstools wie Looker, Looker Studio oder Power BI
  • Interesse an bzw. Erfahrung mit Machine-Learning-Workflows unter Verwendung von Vertex AI oder ähnlichen Plattformen

Aufgaben

  • Moderne, skalierbare Datenlösungen auf der Google Cloud Platform entwickeln
  • Effiziente ETL-/ELT-Prozesse zum Einlesen, Transformieren und Laden von Daten aufbauen
  • Daten-Ingestion und Echtzeitverarbeitung mit Dataflow und Pub/Sub implementieren
  • SQL-Transformations-Workflows mit Dataform entwickeln
  • Effiziente BigQuery Abfragen erstellen unter Berücksichtigung von Partitionierung und Clustering
  • Komplexe Workflows mit Cloud Composer und Cloud Functions orchestrieren
  • Zentrale Daten Governance und Metadatenverwaltung mit Dataplex implementieren
  • Datenpipelines hinsichtlich Leistung und Kosten überwachen und optimieren
  • Mit Data Scientists und Analysten zur Erfassung von Datenanforderungen zusammenarbeiten
  • Kontinuierliche Weiterbildung in GCP-Datenservices und Best Practices im Data Engineering

Berufserfahrung

  • 3 Jahre

Ausbildung

  • Abgeschlossene BerufsausbildungODER
  • Bachelor-AbschlussODER
  • Master-Abschluss

Sprachen

  • Englischverhandlungssicher

Tools & Technologien

  • Google Cloud Platform (GCP)
  • BigQuery
  • Dataflow (Apache Beam)
  • Python
  • PySpark
  • pandas
  • SQL
  • Dataform
  • APIs
  • Pub/Sub
  • Cloud Composer
  • BigLake
  • Dataplex
  • Terraform
  • Looker
  • Looker Studio
  • Power BI
  • Vertex AI

Benefits

Flexibles Arbeiten

  • Flexible Arbeitsmodelle

Mentoring & Coaching

  • Strukturiertes Onboarding

Weiterbildungsangebote

  • Individuelle Schulungsmöglichkeiten

Team Events & Ausflüge

  • Jährlicher NETCONOMY Summit
  • Social Events

Gratis oder Vergünstigte Mahlzeiten

  • Lunch Benefit

Mitarbeiterrabatte

  • Rabatte in Partnerrestaurants

Sonstige Vorteile

  • Mobility Support
Die Originalanzeige dieses Stellenangebotes in der aktuellsten Version findest du hier. Nejo hat diesen Job automatisch von der Website des Unternehmens Netconomy GmbH erfasst und die Informationen auf Nejo mit Hilfe von KI für dich aufbereitet. Trotz sorgfältiger Analyse können einzelne Informationen unvollständig oder ungenau sein. Bitte prüfe immer alle Angaben in der Originalanzeige! Inhalte und Urheberrechte der Originalanzeige liegen beim ausschreibenden Unternehmen.

  • Capgemini

    (Senior) Data Engineer (Databricks/Snowflake)(m/w/x)

    Vollzeitmit HomeofficeBerufserfahren
    Wien, Graz
    ab 60.000 / Jahr
  • TimeTac

    Data Engineer(m/w/x)

    Vollzeitmit HomeofficeBerufserfahren
    Graz
    ab 53.802 / Jahr
  • Dataciders GmbH

    Senior Data Engineer(m/w/x)

    Vollzeit/Teilzeitmit HomeofficeSenior
    Hohenzell, Graz
    ab 3.843 / Monat
  • Institut AllergoSan Pharmazeutische Produkte Forschungs- und Vertriebs GmbH

    Data Engineer (Data Quality & Operations)(m/w/x)

    Vollzeitmit HomeofficeBerufserfahren
    Graz
    ab 70.000 / Jahr
  • VusionGroup SA

    Senior Data Engineer - Telemetry Data(m/w/x)

    Vollzeitmit HomeofficeSenior
    Fernitz-Mellach
    ab 3.843 / Monat
Alle 100+ ähnlichen Jobs ansehen

Nejo ist eine KI – Ergebnisse können unvollständig sein oder Fehler enthalten