3. April 2026

Merlin Stein hat in der bisher groessten empirischen Studie zum tatsaechlichen Einsatz von AI-Agenten 177.436 Agent-Tools aus oeffentlichen MCP-Server-Repositories analysiert -- gesammelt zwischen November 2024 und Februar 2026.

Kernaussagen

Methodik

Die Studie nutzt das Model Context Protocol (MCP) als Datenquelle, da es sich zum de-facto-Standard fuer Agent-Tools entwickelt hat. Tools wurden nach drei Wirkungstypen klassifiziert:

  1. Perception Tools -- Daten lesen und abrufen
  2. Reasoning Tools -- Daten und Konzepte analysieren
  3. Action Tools -- externe Umgebung veraendern

Zusaetzlich wurde ueber O*NET-Mapping ermittelt, welche beruflichen Taetigkeitsdomaenen die Tools abdecken und wie wichtig diese Taetigkeiten eingeschaetzt werden.

Relevanz fuer die Praxis

Fuer alle, die MCP-Server bauen oder AI-Agenten in Produktion betreiben, liefert die Studie drei konkrete Erkenntnisse:

  1. Tool-Design priorisieren: Wenn 67% der Nutzung auf Software-Engineering entfaellt, sollten MCP-Server-Entwickler diesen Use Case als primaeres Design-Ziel behandeln -- nicht als einen von vielen.
  2. Action-Tools brauchen Guardrails: Der Anstieg von 27% auf 65% bedeutet, dass Agenten zunehmend schreibend agieren. Wer MCP-Tools ohne Bestaetigung, Audit-Log oder Rollback-Mechanismus deployed, baut technische Schulden auf.
  3. Regulierer koennen auf Tool-Ebene ansetzen: Die Studie zeigt, dass die Tool-Schicht der richtige Ort ist, um Agent-Risiken zu monitoren -- nicht das Modell selbst, sondern was es tun darf.

Quellen

Nach oben