In den letzten Jahren hat sich die Künstliche Intelligenz in einer Geschwindigkeit entwickelt, die selbst erfahrene Strategen überrascht hat. Was einst als spielerisches Experimentieren mit Textfenstern begann, hat sich im Jahr 2026 durch Modelle von GPT, Gemini oder Claude zu einem präzisen Hochleistungswerkzeug transformiert. Doch während der Markt von immer neuen Versionen geflutet wird, stellt sich für uns eine strategisch entscheidende Frage: Was unterscheidet eine bloß „kluge“ Antwort von einer KI-Lösung, die in der komplexen Unternehmensarchitektur echten Mehrwert stiftet? Der KI-Workshop bei setis diente als Navigator durch diesen technologischen Nebel. Es geht heute nicht mehr nur darum, dass die Maschine reagiert, sondern darum, wie wir ihre internen Mechanismen beherrschen, um sie vom digitalen Spielzeug zum verlässlichen Business-Partner zu entwickeln.
Ein professioneller Umgang mit Large Language Models (LLMs) beginnt mit der Entmystifizierung: Ein LLM ist darauf trainiert, menschliche Sprache zu antizipieren, doch es agiert ohne jedes Bewusstsein oder echtes „Verständnis“ für die Welt. Die Leistungsfähigkeit dieser Modelle beruht auf statistischer Wahrscheinlichkeit, nicht auf kognitiver Einsicht.
Für professionelle Anwender ist dieses Wissen essenziell, um das Risiko von Halluzinationen zu managen. Wenn Modelle keine Fakten finden, erfinden sie diese oft mit bestechender Eloquenz. Strategisch betrachtet ist die Abwesenheit von Bewusstsein jedoch ein massiver Vorteil: Die KI arbeitet rein logisch-strukturell auf Basis der Trainingsdaten, frei von menschlichen Emotionen oder Voreingenommenheit. Diese Objektivität erlaubt es uns, KI als hocheffiziente Sortiermaschine für Informationen zu nutzen, solange wir die Grenzen der statistischen Wahrheit kennen.
„KI ist ein Bereich der Informatik, der sich mit der Entwicklung intelligenter Maschinen befasst… für die normalerweise menschliche Intelligenz erforderlich ist.“
Wir sind heute weit davon entfernt, LLMs als Blackbox zu betrachten. Vielmehr nutzen wir präzise „Einstellschrauben“ Modell-Parameter, die als interne Werte während des Trainings gelernt werden, um zu entscheiden, wie das System auf Prompts reagieren soll.
- Temperatur: Steuert das Maß an Zufall. Eine niedrige Temperatur liefert sachlich-logische Ergebnisse für technische Dokumentationen, während eine hohe Temperatur den Raum für kreative, fantasievolle Ansätze öffnet.
- Top-p & Top-k: Diese Parameter limitieren die Wortauswahl (Tokens) basierend auf kumulativen Wahrscheinlichkeiten. Niedrige Werte führen zu präzisen, kompakten Antworten, hohe Werte zu einer abwechslungsreichen, umfangreichen Variabilität.
Diese Feinjustierung der „Halluzinations-Wahrscheinlichkeit“ ist es, was KI-Anwendungen im Jahr 2026 für den Unternehmenseinsatz erst revisionssicher macht. Wir steuern die Kreativität der Maschine exakt nach dem Bedarf des Use Case.
Standard-Modelle leiden unter dem „Wissens-Cut-off“. Sie wissen nichts über die Zeit nach ihrem Training oder über interne Firmengeheimnisse. Hier ist RAG (Retrieval-Augmented Generation) der entscheidende Gamechanger. Es verbindet das allgemeine Sprachverständnis mit exklusiven Daten, wie wir sie z.B. im setis Wiki pflegen.
Der Prozess ist dreistufig:
- Retrieve: Gezielte Suche in internen PDFs, Wikis oder Datenbanken.
- Augment: Diese Fakten werden dem User-Prompt als Kontext beigefügt.
- Generate: Die Antworterzeugung basiert nun auf exklusiven Fakten statt auf bloßer Vermutung.
RAG minimiert die Fehlerquote drastisch und macht die KI zum Experten für unser eigenes, privates Firmenwissen.
Der radikalste Sprung im Jahr 2026 ist der Übergang von der reinen Textausgabe zur echten Handlungsfähigkeit. Das Model Context Protocol (MCP) fungiert dabei als das „Bindegewebe“ zwischen dem Sprachmodell und externen Software-Tools oder Datenquellen.
Während ein Chatbot nur Lösungen vorschlagen kann, führen autonome KI-Agenten Aufgaben eigenständig aus. Sie nutzen das MCP, um ohne ständige Prompts für jeden Zwischenschritt direkt mit Systemen zu interagieren. Der Prozess folgt einer klaren Logik:
- Tool registrieren: Die Fähigkeiten der Software-Schnittstellen werden dem Modell bekannt gemacht.
- Tool aufrufen: Das LLM entscheidet autonom, welches Werkzeug für die Problemlösung nötig ist.
- Ergebnis nutzen: Die Rückmeldung des Tools wird direkt in den Arbeitskontext integriert.
Die Ära von LLaMA 4 (in den Varianten Scout & Maverick) und Gemini 3 markiert den endgültigen Wendepunkt: Wir verlassen das Zeitalter des einfachen Prompt-Engineerings und treten in die Phase der agentenbasierten Orchestrierung ein. Mit Frameworks wie spring-ai können setis-Entwickler diese Agenten direkt in die Java-Infrastruktur einbetten und so Handlungsfähigkeit skalieren. Es geht 2026 nicht mehr nur um kluge Antworten, sondern um die automatisierte Ausführung komplexer Workflows.
Über den Autor
Sirko Weise ist Senior Consultant bei setis und beschäftigt sich neben seiner Arbeit in der Entwicklung komplexer, Java-basierter Enterprise-Plattformen mit der Integration generativer KI in bestehende IT-Landschaften. Dabei untersucht er insbesondere, wie sich Large Language Models mit vorhandenen Anwendungen, Datenquellen und Automatisierungsplattformen verbinden lassen.

