2. April 2026

Koog: JetBrains' Enterprise AI Agent Framework fuer Java

Wer AI-Agenten in ein bestehendes Java-Backend integrieren will, stand bisher vor einer unbequemen Wahl: Entweder einen Python-Sidecar aufbauen oder sich mit den noch jungen Java-Bindings verschiedener Frameworks herumschlagen. JetBrains hat am 17. Maerz 2026 mit Koog ein Open-Source-Framework veroeffentlicht, das dieses Problem direkt adressiert. Koog ist JVM-nativ, in Kotlin geschrieben und bietet eine vollstaendige Java-API ohne Kotlin-spezifische Reibung.

Was Koog bietet

Koog ist ein Framework fuer fehlertolerante, enterprise-taugliche AI-Agenten auf der JVM. Die zentrale Idee: LLM-Orchestrierung gehoert in die gleiche Architektur wie der Rest des Backends -- nicht in einen separaten Service.

Drei Workflow-Strategien

Koog bietet drei Architekturmuster fuer Agenten:

Strategie Ansatz Einsatz
Funktional Sequentielle Schritte mit kontrollierten Tool-Zugriffen Einfache, lineare Ablaeufe
Graph-basiert Finite State Machines mit bedingten Kanten Komplexe Workflows mit Verzweigungen
Planungsbasiert (GOAP) Zielorientierte Aktionsplanung mit Vorbedingungen Dynamische Anforderungen

Tool-Definition per Annotation

Bestehende Java-Methoden werden per @Tool und @LLMDescription fuer Agenten zugaenglich gemacht:

public class BankingTools {
    @Tool
    @LLMDescription("Sends money to a recipient")
    public Boolean sendMoney(String recipientId, Integer amount) { ... }
}

Die Agenten-Konfiguration erfolgt ueber einen Builder:

AIAgent.builder()
    .promptExecutor(promptExecutor)
    .llmModel(OpenAIModels.Chat.GPT5_2)
    .systemPrompt("You are a banking assistant.")
    .toolRegistry(ToolRegistry.builder().tools(new BankingTools()).build())
    .build();

Persistenz und Fehlertoleranz

Graph-basierte Agenten speichern ihren Zustand nach jedem Schritt -- in Postgres, S3 oder lokal. Faellt ein Agent aus, setzt er exakt am letzten Checkpoint fort, nicht am Anfang. Session-IDs ermoeglichen parallele Agenten-Instanzen pro Nutzer.

Unterstuetzte LLM-Provider

OpenAI, Anthropic, Google, DeepSeek, OpenRouter, Ollama und AWS Bedrock. Die History-Compression-Strategien (WholeHistory, FromLastNMessages, Chunked) reduzieren den Token-Verbrauch in langen Konversationen.

Framework-Integration

Koog liefert fertige Starter fuer die gaengigen JVM-Frameworks:

Observability laeuft ueber OpenTelemetry mit Exportern fuer Langfuse und W&B Weave.

Multiplatform-Faehigkeit

Durch Kotlin Multiplatform laeuft Koog nicht nur auf der JVM, sondern auch auf JavaScript, WebAssembly, Android und iOS. Das ist fuer reine Java-Backend-Teams weniger relevant, oeffnet aber Szenarien fuer mobile und Browser-basierte Agenten.

Helidon 4.4.0: Agentic AI im Oracle-Oekosystem

Parallel zu Koog hat Oracle mit Helidon 4.4.0 agentic AI Support angekuendigt -- ueber die LangChain4j-Integration. Helidon unterstuetzt zwei Ausfuehrungsmuster:

Agenten koennen deklarativ definiert, als Singletons registriert und ueber Helidon Config konfiguriert werden. Die Integration basiert auf LangChain4j 1.11.0 (Preview-Status) und unterstuetzt Build-Time Code-Generierung fuer GraalVM Native Images. Zusaetzlich bringt Helidon 4.4.0 MCP 1.1 Support mit.

Einordnung

Die JVM-Welt holt bei AI-Agenten auf. Koog und Helidon 4.4.0 stehen neben LangChain4j und Spring AI als weitere Optionen fuer Java-Teams, die LLM-Orchestrierung ohne Sprachwechsel umsetzen wollen.

Koog unterscheidet sich durch den Fokus auf Fehlertoleranz und strukturierte Workflows. Die Checkpoint-basierte Persistenz ist fuer Enterprise-Szenarien relevant, in denen Agenten nicht einfach von vorne beginnen koennen. Die Apache-2.0-Lizenz und der JetBrains-Hintergrund senken die Einstiegshuerde.

Helidon geht einen anderen Weg: Statt eines eigenen Frameworks setzt Oracle auf die Integration von LangChain4j in die bestehende Helidon-Architektur. Fuer Teams, die bereits auf Helidon setzen, ist das der natuerlichere Pfad.

Beide Ansaetze bestaetigen den Trend: AI-Agenten werden Teil der bestehenden Backend-Architektur, nicht ein separater Stack.

Quellen

Nach oben