Koog: JetBrains' Enterprise AI Agent Framework fuer Java
Wer AI-Agenten in ein bestehendes Java-Backend integrieren will, stand bisher vor einer unbequemen Wahl: Entweder einen Python-Sidecar aufbauen oder sich mit den noch jungen Java-Bindings verschiedener Frameworks herumschlagen. JetBrains hat am 17. Maerz 2026 mit Koog ein Open-Source-Framework veroeffentlicht, das dieses Problem direkt adressiert. Koog ist JVM-nativ, in Kotlin geschrieben und bietet eine vollstaendige Java-API ohne Kotlin-spezifische Reibung.
Was Koog bietet
Koog ist ein Framework fuer fehlertolerante, enterprise-taugliche AI-Agenten auf der JVM. Die zentrale Idee: LLM-Orchestrierung gehoert in die gleiche Architektur wie der Rest des Backends -- nicht in einen separaten Service.
Drei Workflow-Strategien
Koog bietet drei Architekturmuster fuer Agenten:
| Strategie | Ansatz | Einsatz |
|---|---|---|
| Funktional | Sequentielle Schritte mit kontrollierten Tool-Zugriffen | Einfache, lineare Ablaeufe |
| Graph-basiert | Finite State Machines mit bedingten Kanten | Komplexe Workflows mit Verzweigungen |
| Planungsbasiert (GOAP) | Zielorientierte Aktionsplanung mit Vorbedingungen | Dynamische Anforderungen |
Tool-Definition per Annotation
Bestehende Java-Methoden werden per @Tool und @LLMDescription fuer Agenten zugaenglich gemacht:
public class BankingTools {
@Tool
@LLMDescription("Sends money to a recipient")
public Boolean sendMoney(String recipientId, Integer amount) { ... }
}
Die Agenten-Konfiguration erfolgt ueber einen Builder:
AIAgent.builder()
.promptExecutor(promptExecutor)
.llmModel(OpenAIModels.Chat.GPT5_2)
.systemPrompt("You are a banking assistant.")
.toolRegistry(ToolRegistry.builder().tools(new BankingTools()).build())
.build();
Persistenz und Fehlertoleranz
Graph-basierte Agenten speichern ihren Zustand nach jedem Schritt -- in Postgres, S3 oder lokal. Faellt ein Agent aus, setzt er exakt am letzten Checkpoint fort, nicht am Anfang. Session-IDs ermoeglichen parallele Agenten-Instanzen pro Nutzer.
Unterstuetzte LLM-Provider
OpenAI, Anthropic, Google, DeepSeek, OpenRouter, Ollama und AWS Bedrock. Die History-Compression-Strategien (WholeHistory, FromLastNMessages, Chunked) reduzieren den Token-Verbrauch in langen Konversationen.
Framework-Integration
Koog liefert fertige Starter fuer die gaengigen JVM-Frameworks:
- Spring Boot:
koog-spring-boot-starter - Ktor:
koog-ktor - Spring AI:
koog-spring-aiKompatibilitaetsschicht
Observability laeuft ueber OpenTelemetry mit Exportern fuer Langfuse und W&B Weave.
Multiplatform-Faehigkeit
Durch Kotlin Multiplatform laeuft Koog nicht nur auf der JVM, sondern auch auf JavaScript, WebAssembly, Android und iOS. Das ist fuer reine Java-Backend-Teams weniger relevant, oeffnet aber Szenarien fuer mobile und Browser-basierte Agenten.
Helidon 4.4.0: Agentic AI im Oracle-Oekosystem
Parallel zu Koog hat Oracle mit Helidon 4.4.0 agentic AI Support angekuendigt -- ueber die LangChain4j-Integration. Helidon unterstuetzt zwei Ausfuehrungsmuster:
- Workflows: LLMs und Tools werden ueber vordefinierte Code-Pfade orchestriert
- Dynamische Agenten: Das LLM entscheidet selbst ueber den naechsten Schritt, einschliesslich Tool-Nutzung
Agenten koennen deklarativ definiert, als Singletons registriert und ueber Helidon Config konfiguriert werden. Die Integration basiert auf LangChain4j 1.11.0 (Preview-Status) und unterstuetzt Build-Time Code-Generierung fuer GraalVM Native Images. Zusaetzlich bringt Helidon 4.4.0 MCP 1.1 Support mit.
Einordnung
Die JVM-Welt holt bei AI-Agenten auf. Koog und Helidon 4.4.0 stehen neben LangChain4j und Spring AI als weitere Optionen fuer Java-Teams, die LLM-Orchestrierung ohne Sprachwechsel umsetzen wollen.
Koog unterscheidet sich durch den Fokus auf Fehlertoleranz und strukturierte Workflows. Die Checkpoint-basierte Persistenz ist fuer Enterprise-Szenarien relevant, in denen Agenten nicht einfach von vorne beginnen koennen. Die Apache-2.0-Lizenz und der JetBrains-Hintergrund senken die Einstiegshuerde.
Helidon geht einen anderen Weg: Statt eines eigenen Frameworks setzt Oracle auf die Integration von LangChain4j in die bestehende Helidon-Architektur. Fuer Teams, die bereits auf Helidon setzen, ist das der natuerlichere Pfad.
Beide Ansaetze bestaetigen den Trend: AI-Agenten werden Teil der bestehenden Backend-Architektur, nicht ein separater Stack.
Quellen
- Koog Comes to Java: The Enterprise AI Agent Framework From JetBrains | JetBrains AI Blog (Maerz 2026)
- Koog GitHub Repository | JetBrains (Apache 2.0)
- Koog Dokumentation | JetBrains
- Koog Produktseite | JetBrains
- Helidon 4.4.0 Release | Helidon Blog (Maerz 2026)
- Helidon 4.4.0 Changelog | GitHub