Entwerfen, implementieren und warten Sie eine sichere, skalierbare KI-Infrastruktur. Überwachen Sie CI/CD-, Kubernetes- und Cloud-Vorgänge, um die zuverlässige und effiziente Bereitstellung produktionsreifer Machine-Learning-Systeme zu gewährleisten.
Jetzt BewerbenDepartment
Tech
Location
Schweiz/Europa
Hours
Vollzeit/Flexibel

Als AI MLOps Engineer baust und betreibst du die Infrastruktur, die unsere KI-Modelle zuverlässig in Produktion laufen lässt. Du entwickelst und automatisierst Pipelines für Training, Inferenz, Monitoring und Modell-Iterationen. Du optimierst Inferenz-Workflows, darunter Batching, parallele Segmentierung und koordinierte Tool-Calls, um Skalierbarkeit und Stabilität im produktiven Einsatz sicherzustellen.
• Aufbau, Automatisierung und Betrieb von End-to-End-ML-Pipelines (Training,Fine-Tuning, Inferenz, Drift-Monitoring)
• Optimierung von Inferenz- und Dokumentverarbeitungspipelines (Batching, parallele Segmentierung, orchestrierte Tool-Aufrufe)
• Deployment und Skalierung von LLM- und multimodalen Modellen auf Kubernetes /OpenShift mit GPU-Unterstützung
• Automatisierung von Deployments in Cloud- und On-Prem-Umgebungen
• Pflege von CI/CD-Pipelines und Infrastructure-as-Code (Terraform, GitHub Actions)
• Aufbau von Monitoring- und Observability-Stacks (Prometheus, Grafana, ELK)
• Enge Zusammenarbeit mit AI- und MLOps-Teams zur effizienten Bereitstellung von GPU-Workloads
• Verwaltung von Netzwerk, VPN und Konnektivität (VPC/VNet, Firewalls, API Gateways)
• Sicherstellung von Infrastruktur-Sicherheit und Compliance(Zugriffskontrolle, Zertifikate, Audits)
• Governance und Sicherheit von Modellartefakten, Embeddings und Daten
• Unterstützung bei Troubleshooting, Release-Management und Rollback-Strategien
• Dokumentation von Architekturen, Konfigurationen und Betriebsprozessen
• Erfahrung in MLOps, ML Engineering oder Platform Engineering in produktiven Umgebungen
• Sehr gute Kenntnisse in Kubernetes, Docker und Linux-Administration
• Praktische Erfahrung mit IaC-Werkzeugen (Terraform) und CI/CD-Systemen
• Vertraut mit Azure oder Schweizer Private-Cloud-Providern
• Erfahrung mit OpenShift und GPU-Workloads On-Prem (VMs, Storage, Networking)
• Gute Scripting-Skills (Bash, Python) und solides Verständnis von Netzwerkgrundlagen
• Verständnis von KI-Workloads und GPU-Deployments von Vorteil
• Kenntnisse in Monitoring- und Observability-Konzepten
• Verständnis von Netzwerk-, VPN-, ZTNA- und Sicherheits-Standards
• Sicherheitsorientierte Arbeitsweise, Erfahrung in regulierten Branchen von Vorteil
Bei Coorpix gestaltest du mit, wie KI in einigen der wichtigsten Branchen der Schweiz entwickelt, ausgerollt und verantwortungsvoll genutzt wird.
• Arbeit an Infrastruktur für KI-Systeme der nächsten Generation
• Direkte Zusammenarbeit mit AI- und Plattform-Verantwortlichen
• Kultur mit Fokus auf Eigenverantwortung, Klarheit und Wirkung
• Flache Strukturen und kurze Entscheidungswege
• Flexibles Pensum (60–100%) und hybrides Arbeiten (Schweiz / Europa)
• Langfristige Entwicklungsmöglichkeiten im wachsenden Plattform- und Produktumfeld
• Ein Arbeitsumfeld, in dem Technologie Sinn stiftet und deine Arbeit sichtbar Wirkung zeigt
Fill in the form below and upload your resumè to get started with us today!