Überblick
Das Seminar fokussiert die Erweiterung von Eclipse-Theia-basierten Werkzeugen um AI-native Funktionen. Im Mittelpunkt stehen robuste Architekturen für Assistenzsysteme, die fachliche Kontexte aufnehmen, über Werkzeuge interagieren und kontrolliert in Entwicklungs- oder Engineering-Workflows eingebettet werden. Der Zuschnitt richtet sich an Teams, die AI nicht als isolierte Chatfunktion, sondern als integralen Bestandteil eines eigenen Produkts gestalten möchten.
Zielgruppe
Adressiert werden erfahrene Entwicklerinnen und Entwickler, Softwarearchitekturen, UX-verantwortliche Teams sowie Produktverantwortliche, die Theia-basierte Werkzeuge um AI-Funktionen erweitern oder entsprechende Produktlinien vorbereiten.
Voraussetzungen
Vorausgesetzt werden belastbare Kenntnisse in TypeScript, Node.js und der grundlegenden Theia-Architektur. Erfahrung mit APIs, asynchroner Kommunikation und der Struktur eigener Tooling-Produkte erleichtert die praktische Arbeit erheblich.
Lernschwerpunkte
Theia AI einordnen und Lösungsarchitekturen ableiten
Behandelt werden die Rolle von Theia AI innerhalb der Theia-Plattform, typische Einsatzmuster für AI-native Entwicklungswerkzeuge sowie die Abgrenzung zwischen allgemeiner Chat-Unterstützung und produktintegrierten Assistenzfunktionen. Daraus werden Architekturentscheidungen für fachliche Werkzeuge, IDEs und domänenspezifische Benutzeroberflächen abgeleitet.
Agenten, Chat-Agents und Moduskonzepte entwerfen
Erarbeitet wird, wie Agenten strukturiert, registriert und voneinander abgegrenzt werden. Zusätzlich werden Chat-Agents, Modusumschaltungen, Prompt-Fragmente und die Aufteilung komplexer Use Cases in wiederverwendbare AI-Komponenten behandelt.
Variablen, Tool Functions und Slash Commands nutzen
Im Fokus steht die kontrollierte Einbindung von Laufzeitkontexten. Vermittelt werden Strategien zur Bereitstellung von globalen und agentenspezifischen Variablen, zur Kapselung produktnaher Aktionen als Tool Functions und zum Entwurf belastbarer Interaktionsmuster über Slash Commands.
Interaktive AI-Oberflächen in das Produkt integrieren
Gezeigt wird, wie Antwortteile renderbar gemacht, UI-Elemente aus LLM-Ergebnissen erzeugt und mehrstufige Interaktionen mit Rückfragen, Auswahl- oder Bestätigungsschritten umgesetzt werden. Damit wird die AI-Funktion von einem Textdialog zu einem steuerbaren Produktbestandteil weiterentwickelt.
LLM-Anbindung, Governance und Produktreife sichern
Besprochen werden Provider-Strategien, die Einbindung kompatibler Modelle, Datenschutz- und Governance-Fragen, Logging, Fallback-Konzepte sowie Kriterien für eine produktionsfähige Integration in regulierte oder sensible Umgebungen.
Praxis
Im praktischen Teil entsteht ein prototypischer AI-Assistent für ein Theia-basiertes Werkzeug. Er umfasst die Modellierung eines Agenten, die Anbindung produktrelevanter Kontexte, die Definition von Werkzeugfunktionen sowie die Einbettung in eine nachvollziehbare Benutzerinteraktion mit klaren Kontrollpunkten.
