Wir bei Nortal unterstützen den öffentlichen Sektor und Unternehmen dabei, KI nicht nur zu diskutieren, sondern produktiv und verantwortungsvoll einzusetzen. Wenn Du bei Themen wie LLMs, RAG-Architekturen und On-Prem-Deployments nicht an Spielerei, sondern an robuste, auditierbare Systeme denkst, passt Du gut zu uns.
Wir suchen eine:n Senior AI / Machine Learning Engineer – Enterprise & On-Prem Systems (m/w/d) mit starkem Fokus auf Enterprise-AI-Systeme.
In dieser Rolle entwickelst Du keine Demo-Chatbots, sondern produktionsreife KI-Lösungen für regulierte Umgebungen. Du konzipierst, baust und deployest AI-Systeme, die unter realen Bedingungen funktionieren – mit klaren Workflows, reproduzierbaren Ergebnissen und hoher technischer Qualität.
Du arbeitest eng mit unseren lokalen Teams in Deutschland zusammen und – wenn es das Projekt erfordert – auch standortübergreifend mit internationalen Kolleg:innen. Gemeinsam entwickelt Ihr skalierbare, sichere und nachvollziehbare AI-Architekturen für anspruchsvolle Kundenumgebungen.
Deine Aufgaben
Design von End-to-End AI-Systemarchitekturen (LLM-basiert und klassische ML-Ansätze)
Aufbau produktionsreifer RAG-Pipelines
Definition von Modell- und Inferenzstrategien für On-Prem-GPU-Umgebungen
Konzeption strukturierter, auditierbarer AI-Workflows (keine generischen Chatbots)
Sicherstellung von Reproduzierbarkeit, Observability und Traceability von AI-Outputs
Dein Profil (Must-have)
Mehrjährige praktische Erfahrung in der Entwicklung produktionsreifer AI-/LLM-Systeme
Fundierte Kenntnisse im Bereich LLM- und NLP-Engineering
Sehr gute Python-Kenntnisse
Erfahrung mit Containerisierung (Docker) und Kubernetes
Praxis in der Implementierung von RAG-Architekturen und Retrieval-Systemen
Erfahrung mit Vektordatenbanken
Verständnis für On-Prem-Architekturen und regulatorische Anforderungen
Fähigkeit, Architekturentscheidungen eigenständig zu treffen
Sehr gute Deutschkenntnisse (C1/C2, verhandlungssicher)
Nice-to-have
Erfahrung in der Arbeit mit regulierten Branchen (z. B. Public Sector, Finance, Healthcare)
Erfahrung in der Optimierung von LLM-Inferenz auf GPU-Hardware
Know-how in Observability- und Monitoring-Setups für AI-Systeme
Erfahrung in der Zusammenarbeit mit Frontend-, DevOps- und IT-Teams auf Kundenseite
Fähigkeit, technische Konzepte adressatengerecht zu vermitteln
Persönlich passt Du gut zu uns, wenn Du:
AI-Use-Cases eigenständig von der Idee bis zur produktiven Lösung treibst
Unklare Business-Anforderungen in belastbare technische Konzepte übersetzen kannst
Unter Zeitdruck MVPs lieferst, ohne die Architekturqualität zu kompromittieren
Verantwortung übernimmst und strukturiert arbeitest