Die KI-Suchmaschine für Jobs
Principal Data Platform Architect(m/w/x)
Beschreibung
In dieser Rolle als Principal Data Platform Architect gestaltest du anspruchsvolle Kundenprojekte und entwickelst innovative Datenplattformen weiter. Dein Alltag umfasst die technische Leitung von Projekten, die Sicherstellung von Qualität und Kosten sowie das Coaching von Engineers.
Lass KI die perfekten Jobs für dich finden!
Lade deinen CV hoch und die Nejo-KI findet passende Stellenangebote für dich.
Anforderungen
- •Mindestens 3 Jahre Databricks-Praxis
- •Mindestens 7 Jahre Erfahrung mit relevanten Technologien im Daten-/Cloud-Umfeld
- •Tiefe Kenntnisse in Azure, idealerweise auch AWS/GCP
- •Stark in Datenarchitektur: Lakehouse/DWH, Datenmodellierung, Data Quality & Governance
- •Praktische Erfahrung mit Spark/Delta Lake, SQL/Python, Kafka/Streaming, Airflow/ADF/Fabric Pipelines, dbt, Snowflake/Synapse
- •CI/CD & IaC (Git, Terraform, Pipelines), MLOps/DataOps (z. B. MLflow), Monitoring/Alerting/Cost Observability
- •Sehr gute Deutsch- und Englischkenntnisse in Wort und Schrift
- •Freude an Verantwortung, klarer Entscheidungsfähigkeit und am Aufbau wiederverwendbarer Standards
Berufserfahrung
3 Jahre
Aufgaben
- •Technisch anspruchsvolle Kundenprojekte erfolgreich führen
- •Angebotsportfolio inhaltlich weiterentwickeln
- •Architekturverantwortung für Enterprise-Scale Datenplattformen übernehmen
- •Discovery und High-Level-Design durchführen
- •Betrieb und Optimierung der Plattform sicherstellen
- •Technische Leitung in Projekten übernehmen
- •Engineers leiten und Architektur-/Designentscheidungen treffen
- •Qualität, Kosten und Zeit sichern
- •Plattform-Blueprints und Standards erstellen
- •Referenzarchitekturen und Guardrails definieren
- •Sicherheits- und Governance-Standards implementieren
- •Cost Management durchführen
- •Databricks-Schwerpunktthemen bearbeiten
- •Delta Lake, Spark und Unity Catalog nutzen
- •Workflows und Jobs verwalten
- •MLflow und MLOps anwenden
- •Quellsysteme anbinden
- •Echtzeit- und Batch-Pipelines orchestrieren
- •Observability sicherstellen
- •Angebotsausbau und Pre-Sales unterstützen
- •Value Propositions und Scopings erstellen
- •Aufwandsabschätzungen durchführen
- •Demos und PoCs entwickeln
- •Thought Leadership fördern
- •Coaching für Engineers und Consultants anbieten
- •Communities of Practice aufbauen
- •Designs und Code reviewen
Tools & Technologien
Sprachen
Deutsch – verhandlungssicher
Englisch – verhandlungssicher
Benefits
Flexibles Arbeiten
- •Flexible Arbeitszeiten
- •Homeoffice
Weiterbildungsangebote
- •Weiterbildung & Zertifizierungen
Sonstige Vorteile
- •Standortbezogene Extras
- CofinproVollzeitmit HomeofficeSeniorFrankfurt am Main, München, Berlin, Karlsruhe, Hannover, Köln, Stuttgart
- prenode
Data Engineer / Cloud-Engineer für Data, AI & MLOps(m/w/x)
Vollzeitmit HomeofficeBerufserfahrenKarlsruhe - prenode GmbH
Cloud Data & MLOps Senior Engineer(m/w/x)
Vollzeitmit HomeofficeSeniorKarlsruhe - Objektkultur Software GmbH
Senior Data Product Owner(m/w/x)
Vollzeitmit HomeofficeSeniorKarlsruhe - Capgemini
Data Architect DataBricks(m/w/x)
Vollzeitmit HomeofficeBerufserfahrenBerlin, Karlsruhe, Hamburg, Hannover, Frankfurt am Main, Stuttgart, Ratingen, Nürnberg, Dortmund, Erfurt
Principal Data Platform Architect(m/w/x)
Die KI-Suchmaschine für Jobs
Beschreibung
In dieser Rolle als Principal Data Platform Architect gestaltest du anspruchsvolle Kundenprojekte und entwickelst innovative Datenplattformen weiter. Dein Alltag umfasst die technische Leitung von Projekten, die Sicherstellung von Qualität und Kosten sowie das Coaching von Engineers.
Lass KI die perfekten Jobs für dich finden!
Lade deinen CV hoch und die Nejo-KI findet passende Stellenangebote für dich.
Anforderungen
- •Mindestens 3 Jahre Databricks-Praxis
- •Mindestens 7 Jahre Erfahrung mit relevanten Technologien im Daten-/Cloud-Umfeld
- •Tiefe Kenntnisse in Azure, idealerweise auch AWS/GCP
- •Stark in Datenarchitektur: Lakehouse/DWH, Datenmodellierung, Data Quality & Governance
- •Praktische Erfahrung mit Spark/Delta Lake, SQL/Python, Kafka/Streaming, Airflow/ADF/Fabric Pipelines, dbt, Snowflake/Synapse
- •CI/CD & IaC (Git, Terraform, Pipelines), MLOps/DataOps (z. B. MLflow), Monitoring/Alerting/Cost Observability
- •Sehr gute Deutsch- und Englischkenntnisse in Wort und Schrift
- •Freude an Verantwortung, klarer Entscheidungsfähigkeit und am Aufbau wiederverwendbarer Standards
Berufserfahrung
3 Jahre
Aufgaben
- •Technisch anspruchsvolle Kundenprojekte erfolgreich führen
- •Angebotsportfolio inhaltlich weiterentwickeln
- •Architekturverantwortung für Enterprise-Scale Datenplattformen übernehmen
- •Discovery und High-Level-Design durchführen
- •Betrieb und Optimierung der Plattform sicherstellen
- •Technische Leitung in Projekten übernehmen
- •Engineers leiten und Architektur-/Designentscheidungen treffen
- •Qualität, Kosten und Zeit sichern
- •Plattform-Blueprints und Standards erstellen
- •Referenzarchitekturen und Guardrails definieren
- •Sicherheits- und Governance-Standards implementieren
- •Cost Management durchführen
- •Databricks-Schwerpunktthemen bearbeiten
- •Delta Lake, Spark und Unity Catalog nutzen
- •Workflows und Jobs verwalten
- •MLflow und MLOps anwenden
- •Quellsysteme anbinden
- •Echtzeit- und Batch-Pipelines orchestrieren
- •Observability sicherstellen
- •Angebotsausbau und Pre-Sales unterstützen
- •Value Propositions und Scopings erstellen
- •Aufwandsabschätzungen durchführen
- •Demos und PoCs entwickeln
- •Thought Leadership fördern
- •Coaching für Engineers und Consultants anbieten
- •Communities of Practice aufbauen
- •Designs und Code reviewen
Tools & Technologien
Sprachen
Deutsch – verhandlungssicher
Englisch – verhandlungssicher
Benefits
Flexibles Arbeiten
- •Flexible Arbeitszeiten
- •Homeoffice
Weiterbildungsangebote
- •Weiterbildung & Zertifizierungen
Sonstige Vorteile
- •Standortbezogene Extras
Über das Unternehmen
GFT Technologies SE
Branche
IT
Beschreibung
Das Unternehmen ist ein verantwortungsvolles, KI-zentriertes globales Unternehmen im Bereich der digitalen Transformation.
- Cofinpro
Senior Data Platform Architect(m/w/x)
Vollzeitmit HomeofficeSeniorFrankfurt am Main, München, Berlin, Karlsruhe, Hannover, Köln, Stuttgart - prenode
Data Engineer / Cloud-Engineer für Data, AI & MLOps(m/w/x)
Vollzeitmit HomeofficeBerufserfahrenKarlsruhe - prenode GmbH
Cloud Data & MLOps Senior Engineer(m/w/x)
Vollzeitmit HomeofficeSeniorKarlsruhe - Objektkultur Software GmbH
Senior Data Product Owner(m/w/x)
Vollzeitmit HomeofficeSeniorKarlsruhe - Capgemini
Data Architect DataBricks(m/w/x)
Vollzeitmit HomeofficeBerufserfahrenBerlin, Karlsruhe, Hamburg, Hannover, Frankfurt am Main, Stuttgart, Ratingen, Nürnberg, Dortmund, Erfurt