Seminarprofil
Betrieb, Konfiguration und Zusammenspiel der zentralen Inferenz- und Routing-Komponenten in SUSE AI.
Zielsetzung
Das Seminar zeigt, wie Modelle in SUSE AI performant und kontrolliert bereitgestellt werden. Es erklärt die jeweiligen Rollen von Ollama, vLLM und LiteLLM, deren Stärken im Betrieb und die Integration in konsistente API- und Benutzerzugriffe.
Zielgruppe
Angesprochen sind technische Teams, die eine produktionsfähige Inferenzschicht aufbauen oder bestehende SUSE-AI-Umgebungen hinsichtlich Performance, Standardisierung und Modellzugriff weiterentwickeln wollen.
Inhalte
- Rollenverteilung von Ollama, vLLM und LiteLLM innerhalb einer SUSE-AI-Plattform
- Bereitstellung und Verwaltung von Basismodellen sowie OpenAI-kompatiblen Endpunkten
- GPU-Zuordnung, Kapazitätsplanung, Performance und Latenzbetrachtung
- Integration der Inferenzdienste in Open WebUI und weitere Anwendungen
- Routing, Modellabstraktion und Zugriffskonsolidierung mit LiteLLM
- Skalierungsstrategien, Betriebsgrenzen, Validierung und Fehlersuche
- Entscheidungskriterien für Laufzeitwahl in unterschiedlichen Workload-Szenarien
Praxis
Die praktischen Übungen umfassen die Bereitstellung mehrerer Modellpfade, die Anbindung an Open WebUI sowie den Vergleich unterschiedlicher Betriebsmodelle hinsichtlich Durchsatz, Latenz und administrativem Aufwand.
Seminar und Anbieter vergleichen
Öffentliche Schulung
Diese Seminarform ist auch als Präsenzseminar bekannt und bedeutet, dass Sie in unseren Räumlichkeiten von einem Trainer vor Ort geschult werden. Jeder Teilnehmer hat einen Arbeitsplatz mit virtueller Schulungsumgebung. Öffentliche Seminare werden in deutscher Sprache durchgeführt, die Unterlagen sind teilweise in Englisch.
Inhausschulung
Diese Seminarform bietet sich für Unternehmen an, welche gleiche mehrere Teilnehmer gleichzeitig schulen möchten. Der Trainer kommt zu Ihnen ins Haus und unterrichtet in Ihren Räumlichkeiten. Diese Seminare können in Deutsch - bei Firmenseminaren ist auch Englisch möglich gebucht werden.
Webinar
Diese Art der Schulung ist geeignet, wenn Sie die Präsenz eines Trainers nicht benötigen, nicht Reisen können und über das Internet an einer Schulung teilnehmen möchten.
Fachbereichsleiter / Leiter der Trainer / Ihre Ansprechpartner
-

Michael Adler
Telefon: + 41 (800) 225127
E-Mail: michael.adler@seminar-experts.ch -

Stefano Conti
Telefon: + 41 (800) 225127
E-Mail: stefano.conti@seminar-experts.ch
Seminardetails
| Dauer: | 2 Tage ca. 6 h/Tag, Beginn 1. Tag: 10:00 Uhr, weiterer Tag 09:00 Uhr |
| Preis: |
Öffentlich und Webinar: CHF 1.198 zzgl. MwSt. Inhaus: CHF 3.400 zzgl. MwSt. |
| Teilnehmeranzahl: | min. 2 - max. 8 |
| Teilnehmer: | Plattformingenieure, MLOps-Teams, DevOps-Verantwortliche, KI-Plattformbetreiber |
| Voraussetzungen: | Grundkenntnisse zu SUSE AI und Kubernetes; Erfahrung mit Containern und GPU-basierten Workloads ist hilfreich |
| Standorte: | Basel, Bern, Luzern, Sankt Gallen, Winterthur, Zürich |
| Methoden: | Vortrag, Demonstrationen, praktische Übungen am System, Architektur- und Betriebsworkshops |
| Seminararten: | Öffentlich, Webinar, Inhouse, Workshop - Alle Seminare mit Trainer vor Ort, Webinar nur wenn ausdrücklich gewünscht |
| Durchführungsgarantie: | ja, ab 2 Teilnehmern |
| Sprache: | Deutsch - bei Firmenseminaren ist auch Englisch möglich |
| Seminarunterlage: | Dokumentation auf Datenträger oder als Download |
| Teilnahmezertifikat: | ja, selbstverständlich |
| Verpflegung: | Kalt- / Warmgetränke, Mittagessen (wahlweise vegetarisch) |
| Support: | 3 Anrufe im Seminarpreis enthalten |
| Barrierefreier Zugang: | an den meisten Standorten verfügbar |
| Weitere Informationen unter +41 (800) 225127 |
Seminartermine
Die Ergebnissliste kann durch Anklicken der Überschrift neu sortiert werden.
