The AI Job Search Engine
Aufbau automatisierter Datenpipelines für AI-Anwendungen auf skalierbarer Plattform bei digitaler Gesundheitsplattform. 5+ Jahre hands-on Erfahrung in Data/Analytics-Engineering und Cloud-Datenpipelines erforderlich. 6 Wochen Ferien.
Requirements
- Masterabschluss in Data Science, Informatik, Naturwissenschaften, (Wirtschafts-)Ingenieurwesen, Volkswirtschaft oder vergleichbar
- Mehrjährige, hands-on Berufserfahrung in Data/Analytics-Engineering oder vergleichbar, idealerweise 5+ Jahre
- Fundierte Erfahrung im Aufbau und Betrieb robuster Datenpipelines in der Cloud, GCP von Vorteil
- Kenntnisse in App-/Webtracking und Erfahrung in Journey-/Funnel-basierten Analysen
- Sichere Programmierkenntnisse in SQL, Python und Erfahrung mit einem Tool wie dbt, dataform, Kestra, Airbyte
- Klare Kommunikation mit Stakeholdern und pragmatisches, qualitätsorientiertes Vorgehen
- Präzise, strukturierte und analytische Arbeitsweise
- Verantwortungsbewusstsein und Proaktivität im Team, fließende Deutsch- und Englischkenntnisse
- Agiles Machermindset und Affinität für technische und gesundheitsrelevante Themen
- Unternehmerische und strategische Mentalität, flexibles Denken und Handeln
Tasks
- Heterogene Datenquellen konsolidieren
- Robuste, automatisierte Datenpipelines aufbauen
- Datenversorgung auf einer skalierbaren Analytics-/Data-Plattform betreiben
- Verlässliche Datengrundlage für AI-Anwendungen schaffen
- Daten als Self-Service für das Team verfügbar machen
- Standards für Datenqualität etablieren
- Monitoring-Prozesse für Pipeline-Health und SLAs einrichten
- Zuverlässiges Reporting-Setup sicherstellen
- Tracking-Anforderungen mit Engineering und Produktentwicklung definieren
- Tracking sauber umsetzen und kontinuierlich verbessern
- Journey- und funnel-basierte Analysen entwickeln
- Optimierungs-Insights und Handlungsempfehlungen ableiten
- Business- und Produktfragen mit passenden Methoden beantworten
- Erkenntnisse zielgruppengerecht an Stakeholder präsentieren
Work Experience
- 5 years
Education
- Master's degree
Languages
- German – Business Fluent
- English – Business Fluent
Tools & Technologies
- SQL
- Python
- GCP
- dbt
- dataform
- Kestra
- Airbyte
- Looker
- Power BI
- Tableau
Benefits
More Vacation Days
- 6 Wochen Ferien
Modern Office
- Modernes Arbeitsumfeld
Other Benefits
- Fortschrittliche Anstellungsbedingungen
Flexible Working
- Hohes Mass an Flexibilität
Not a perfect match?
- EraneosFull-timeOn-siteManagementZürich
- Capco
Data Engineer/Consultant (Databricks)(m/w/x)
Full-timeOn-siteNot specifiedZürich - infoscore AG
Tech Business Analyst(m/w/x)
Full-timeOn-siteExperiencedSchlieren - CH10 - BJB Bank Julius Baer & Co. Ltd.
Senior Data Requirement Engineer(m/w/x)
Full-timeOn-siteSeniorZürich - Capco
Data Engineer - Snowflake(m/w/x)
Full-timeOn-siteSeniorZürich
Aufbau automatisierter Datenpipelines für AI-Anwendungen auf skalierbarer Plattform bei digitaler Gesundheitsplattform. 5+ Jahre hands-on Erfahrung in Data/Analytics-Engineering und Cloud-Datenpipelines erforderlich. 6 Wochen Ferien.
Requirements
- Masterabschluss in Data Science, Informatik, Naturwissenschaften, (Wirtschafts-)Ingenieurwesen, Volkswirtschaft oder vergleichbar
- Mehrjährige, hands-on Berufserfahrung in Data/Analytics-Engineering oder vergleichbar, idealerweise 5+ Jahre
- Fundierte Erfahrung im Aufbau und Betrieb robuster Datenpipelines in der Cloud, GCP von Vorteil
- Kenntnisse in App-/Webtracking und Erfahrung in Journey-/Funnel-basierten Analysen
- Sichere Programmierkenntnisse in SQL, Python und Erfahrung mit einem Tool wie dbt, dataform, Kestra, Airbyte
- Klare Kommunikation mit Stakeholdern und pragmatisches, qualitätsorientiertes Vorgehen
- Präzise, strukturierte und analytische Arbeitsweise
- Verantwortungsbewusstsein und Proaktivität im Team, fließende Deutsch- und Englischkenntnisse
- Agiles Machermindset und Affinität für technische und gesundheitsrelevante Themen
- Unternehmerische und strategische Mentalität, flexibles Denken und Handeln
Tasks
- Heterogene Datenquellen konsolidieren
- Robuste, automatisierte Datenpipelines aufbauen
- Datenversorgung auf einer skalierbaren Analytics-/Data-Plattform betreiben
- Verlässliche Datengrundlage für AI-Anwendungen schaffen
- Daten als Self-Service für das Team verfügbar machen
- Standards für Datenqualität etablieren
- Monitoring-Prozesse für Pipeline-Health und SLAs einrichten
- Zuverlässiges Reporting-Setup sicherstellen
- Tracking-Anforderungen mit Engineering und Produktentwicklung definieren
- Tracking sauber umsetzen und kontinuierlich verbessern
- Journey- und funnel-basierte Analysen entwickeln
- Optimierungs-Insights und Handlungsempfehlungen ableiten
- Business- und Produktfragen mit passenden Methoden beantworten
- Erkenntnisse zielgruppengerecht an Stakeholder präsentieren
Work Experience
- 5 years
Education
- Master's degree
Languages
- German – Business Fluent
- English – Business Fluent
Tools & Technologies
- SQL
- Python
- GCP
- dbt
- dataform
- Kestra
- Airbyte
- Looker
- Power BI
- Tableau
Benefits
More Vacation Days
- 6 Wochen Ferien
Modern Office
- Modernes Arbeitsumfeld
Other Benefits
- Fortschrittliche Anstellungsbedingungen
Flexible Working
- Hohes Mass an Flexibilität
About the Company
Well
Industry
Healthcare
Description
Die Gesundheitsplattform Well steht für die Digitalisierung und Vereinfachung des Schweizer Gesundheitswesens.
Not a perfect match?
- Eraneos
Data Platform- & Data Engineering-Consultant(m/w/x)
Full-timeOn-siteManagementZürich - Capco
Data Engineer/Consultant (Databricks)(m/w/x)
Full-timeOn-siteNot specifiedZürich - infoscore AG
Tech Business Analyst(m/w/x)
Full-timeOn-siteExperiencedSchlieren - CH10 - BJB Bank Julius Baer & Co. Ltd.
Senior Data Requirement Engineer(m/w/x)
Full-timeOn-siteSeniorZürich - Capco
Data Engineer - Snowflake(m/w/x)
Full-timeOn-siteSeniorZürich