Du konzipierst und pflegst den Housing-Konfigurator und betreibst sowie entwickelst ein RAG-System weiter. Zudem integrierst du LlamaIndex und optimierst die LLM-Antworten mit Langfuse. Dein Alltag umfasst auch das Performance-Tuning und das Management des Deployments auf Azure.
Anforderungen
- •Erfahrung mit TypeScript
- •Erfahrung mit LLM-APIs oder Admin-UIs
- •Mehrjährige Erfahrung mit Python, idealerweise im AI-/ML-Umfeld
- •Fundierte Kenntnisse in LlamaIndex
- •Erfahrung mit Retrieval-Augmented Generation und Vektordatenbanken
- •Vertrautheit mit Langfuse oder ähnlichen Tools ist ein Plus
- •Gute Kenntnisse im Prompt Engineering und Tool-Integration
- •Erfahrung mit Azure, Deployment und Containerization ist ein Plus
- •Hohe Eigeninitiative und Teamfähigkeit
- •Gute Deutsch- und Englischkenntnisse, Deutschkenntnisse mindestens B2
Deine Aufgaben
- •Housing-Konfigurator konzipieren und pflegen
- •RAG-System betreiben und weiterentwickeln
- •LlamaIndex integrieren und verwalten
- •Langfuse zur Optimierung von LLM-Responses nutzen
- •Pipelines für Datenaufnahme und Indexierung aufbauen
- •Performance-Tuning durchführen
- •Deployment und Betrieb auf Azure managen
- •Neue Modelle und Technologien evaluieren
Deine Vorteile
Spannendes Aufgabenfeld
Zusammenarbeit im professionellen Team
Flache Hierarchien
Schnelle Entscheidungswege
Weiterentwicklungsmöglichkeiten durch Schulungen
Flexible Arbeitszeiten
Homeoffice-Option
Angemessene Vergütung
Original Beschreibung
Backend AI Developer (m/w/d) für den Standort Hamburg bei Bien-Zenker GmbH | softgarden
Ihr Einsatz ist in unserem neu gegründeten Digital Hub in der schönen Altstadt Hamburgs, alternativ an unseren Unternehmensstandorten im hessischen Schlüchtern oder im bayerischen Oberleichtersbach möglich.
* Konzeption, Entwicklung und Pflege unseres Housing Konfigurators in enger Abstimmung mit der Frontend-Entwicklung und unserem Product Team
* Betrieb und Weiterentwicklung eines produktiven RAG-Systems (LLM + Vektorsuche + Monitoring)
* Integration und Pflege von LlamaIndex, inklusive Indexverwaltung, Retriever-Strategien und Query-Pipelines
* Nutzung und Erweiterung von Langfuse zur Überwachung und Optimierung von LLM-Responses und Prompt-Performance
* Aufbau und Optimierung von Pipelines für Datenaufnahme, -vorverarbeitung und Indexierung
* Performance-Tuning (z. B. Caching, Asynchronität, Azure-spezifische Optimierungen)
* Deployment & Betrieb auf Azure, inklusive Nutzung von Azure Functions, Container Services oder ML Ops Komponenten
* Evaluierung neuer Modelle und Technologien im LLM/RAG-Umfeld
* Erfahrung im Umgang mit TypeScript
* Erfahrung mit LLM-APIs, Prompt-Interfaces oder Admin-UIs
* Mehrjährige Erfahrung mit Python, idealerweise im AI-/ML-Umfeld
* Fundierte Kenntnisse in der Anwendung und Anpassung von LlamaIndex (vormals GPT Index)
* Erfahrung mit Retrieval-Augmented Generation (RAG) und Vektordatenbanken (z. B. FAISS, Qdrant, Weaviate)
* Vertrautheit mit Langfuse oder ähnlichen Observability-/Eval-Tools für LLMs sind ein Plus
* Gute Kenntnisse im Prompt Engineering, Chain Design, Tool-Integration etc.
* Erfahrung mit Azure sind ein Plus: Deployment, Functions, Containerization, Storage, Key Vault etc.
* Hohe Eigeninitiative, Qualitätsanspruch und Teamfähigkeit
* Gute Deutsch- und Englischkenntnisse, Deutschkenntnisse auf mindestens B2-Niveau sind Voraussetzung
* Ein spannendes Aufgabenfeld
* Zusammenarbeit in einem professionellen Team aus KI-Experten, Front- und Backend-Entwicklern, Data Analysten und 3D-Artists
* Flache Hierarchien und schnelle Entscheidungswege
* Weiterentwicklungsmöglichkeiten durch Schulungen und Trainings
* Flexible Arbeitszeiten und Homeoffice-Option
* Eine angemessene Vergütung
### Ansprechpartner
Rebecca Grothe