GF
GFT Technologies SE2 Monate
Principal Data Platform Architect(m/w/x)
Vollzeit
mit Homeoffice
Berufserfahren
AI/ML Job
Keine Angabe
Karlsruhe, Eschborn, Bonn, Stuttgart, St. Georgen im Schwarzwald
Nejo KI-Zusammenfassung
In dieser Rolle als Principal Data Platform Architect gestaltest du anspruchsvolle Kundenprojekte und entwickelst innovative Datenplattformen weiter. Dein Alltag umfasst die technische Leitung von Projekten, die Sicherstellung von Qualität und Kosten sowie das Coaching von Engineers.
Lass KI die perfekten Jobs für dich finden!
Lade deinen CV hoch und die Nejo-KI findet passende Stellenangebote für dich.
Anforderungen
- •Mindestens 3 Jahre Databricks-Praxis
- •Mindestens 7 Jahre Erfahrung mit relevanten Technologien im Daten-/Cloud-Umfeld
- •Tiefe Kenntnisse in Azure, idealerweise auch AWS/GCP
- •Stark in Datenarchitektur: Lakehouse/DWH, Datenmodellierung, Data Quality & Governance
- •Praktische Erfahrung mit Spark/Delta Lake, SQL/Python, Kafka/Streaming, Airflow/ADF/Fabric Pipelines, dbt, Snowflake/Synapse
- •CI/CD & IaC (Git, Terraform, Pipelines), MLOps/DataOps (z. B. MLflow), Monitoring/Alerting/Cost Observability
- •Sehr gute Deutsch- und Englischkenntnisse in Wort und Schrift
- •Freude an Verantwortung, klarer Entscheidungsfähigkeit und am Aufbau wiederverwendbarer Standards
Keine Angabe
Berufserfahrung
3 Jahre
Deine Aufgaben
- •Technisch anspruchsvolle Kundenprojekte erfolgreich führen
- •Angebotsportfolio inhaltlich weiterentwickeln
- •Architekturverantwortung für Enterprise-Scale Datenplattformen übernehmen
- •Discovery und High-Level-Design durchführen
- •Betrieb und Optimierung der Plattform sicherstellen
- •Technische Leitung in Projekten übernehmen
- •Engineers leiten und Architektur-/Designentscheidungen treffen
- •Qualität, Kosten und Zeit sichern
- •Plattform-Blueprints und Standards erstellen
- •Referenzarchitekturen und Guardrails definieren
- •Sicherheits- und Governance-Standards implementieren
- •Cost Management durchführen
- •Databricks-Schwerpunktthemen bearbeiten
- •Delta Lake, Spark und Unity Catalog nutzen
- •Workflows und Jobs verwalten
- •MLflow und MLOps anwenden
- •Quellsysteme anbinden
- •Echtzeit- und Batch-Pipelines orchestrieren
- •Observability sicherstellen
- •Angebotsausbau und Pre-Sales unterstützen
- •Value Propositions und Scopings erstellen
- •Aufwandsabschätzungen durchführen
- •Demos und PoCs entwickeln
- •Thought Leadership fördern
- •Coaching für Engineers und Consultants anbieten
- •Communities of Practice aufbauen
- •Designs und Code reviewen
Tools & Technologien
DatabricksAzureAWSGCPSparkDelta LakeSQLPythonKafkaAirflowADFFabric PipelinesdbtSnowflakeSynapseGitTerraformMLflow
Sprachen
Deutsch – verhandlungssicher
Englisch – verhandlungssicher
Deine Vorteile
Flexibles Arbeiten
- •Flexible Arbeitszeiten
- •Homeoffice
Weiterbildungsangebote
- •Weiterbildung & Zertifizierungen
Sonstige Vorteile
- •Standortbezogene Extras
Die Originalanzeige dieses Stellenangebotes in der aktuellsten Version findest du hier. Nejo hat diesen Job automatisch von der Website des Unternehmens GFT Technologies SE erfasst und die Informationen auf Nejo mit Hilfe von KI für dich aufbereitet. Trotz sorgfältiger Analyse können einzelne Informationen unvollständig oder ungenau sein. Bitte prüfe immer alle Angaben in der Originalanzeige! Inhalte und Urheberrechte der Originalanzeige liegen beim ausschreibenden Unternehmen.
Ähnliche Jobs direkt in deine Inbox?