Sieben Jahre lang hat das kalifornische Startup Kintsugi eine KI entwickelt, die Anzeichen von Depression und Angst aus der Stimme eines Menschen erkennen soll. Nicht aus dem Inhalt des Gesagten, sondern aus der Art, wie es gesagt wird -- Pausen, Satzstruktur, Sprechgeschwindigkeit, subtile Veraenderungen im Stimmklang. Das Unternehmen ist jetzt geschlossen. Nicht weil die Technologie nicht funktioniert haette, sondern weil die FDA-Zulassung zu lange dauerte und das Geld ausging.
Das Problem mit der Diagnostik
Psychische Gesundheitsbewertungen basieren bis heute auf Frageboegen und klinischen Interviews. Es gibt keinen Bluttest fuer Depression, keinen Scan fuer Angststoerungen. Standard-Screening-Tools wie der PHQ-9 sind zwar weit verbreitet und validiert, aber abhaengig davon, dass Patienten ihre Symptome akkurat beschreiben. Die Screening-Raten sind oft niedrig, und nicht alle Symptome werden erfasst.
Kintsugi wollte eine objektivere Ergaenzung liefern: kurze Sprachproben, automatisch analysiert, einsetzbar in Arztpraxen, bei Versicherungen, in Unternehmensprogrammen. In begutachteten Studien meldete das Unternehmen Ergebnisse, die mit etablierten Screening-Tools vergleichbar waren.
Die regulatorische Mauer
Fuer den Einsatz als medizinisches Produkt brauchte Kintsugi eine FDA-Zulassung. Das Unternehmen waehlte den "De Novo"-Pfad, gedacht fuer neuartige Produkte mit niedrigem Risiko, fuer die es kein bestehendes Vergleichsprodukt gibt. Eigentlich ein vereinfachter Weg -- aber einer, der trotzdem Jahre an Datenerhebung und regulatorischer Pruefung erfordern kann.
Das grundsaetzliche Problem: Der regulatorische Rahmen der FDA ist fuer Hueftimplantate und Herzschrittmacher gemacht, nicht fuer KI-Systeme. Einmal zugelassene Produkte bleiben weitgehend unveraendert. KI-Modelle dagegen werden laufend optimiert und aktualisiert. Die Zulassung friert ein System ein, das eigentlich in Bewegung bleiben muesste.
Gruenderin und CEO Grace Chang berichtete, dass ein erheblicher Teil der Zeit darauf verwendet wurde, der Behoerde KI ueberhaupt erst zu erklaeren. Trotz der erklaerten Absicht der Trump-Administration, Buerokratie abzubauen und KI-Produkte schneller auf den Markt zu bringen, aenderte sich am eigentlichen Prozess wenig. Regulierungsexperten sagten Chang, es gebe "nichts, was ihnen dabei hilft, ausser lautem Geschrei von oben." Government Shutdowns verlangsamten den Prozess zusaetzlich.
Das Ende und der Open-Source-Weg
Das Startup ging das Geld aus, waehrend es auf die finale Einreichung wartete. Versuche, neues Kapital aufzutreiben, scheiterten an den schrumpfenden Reserven. Chang lehnte kurzfristige Angebote ab, die sie als "raeuberisch" bezeichnete -- ein Vorschlag sah rund 50.000 Dollar pro Woche im Austausch gegen eine Million Dollar in Anteilen vor.
Stattdessen entschied sich das Team, den Grossteil der Technologie als Open Source zu veroeffentlichen, damit andere die Arbeit fortsetzen koennen. Die Investoren waren nicht erfreut.
Risiken der Veroeffentlichung
Open Source fuer ein psychisches Gesundheits-Screening ist nicht ohne Bedenken. Ein Tool, das auf Depression und Angst prueft, koennte theoretisch ausserhalb klinischer Kontexte eingesetzt werden -- von Arbeitgebern oder Versicherungen, ohne die ueblichen Schutzvorrichtungen des Gesundheitswesens. Chang raeumt die Bedenken ein, haelt das Risiko in der Praxis aber fuer gering: Organisationen mit den groessten Anreizen zum Missbrauch haetten auch die hoechsten Huerden beim tatsaechlichen Einsatz. "Das realistischere Risiko ist Unternutzung, nicht Missbrauch", so Chang.
Nicholas Cummins vom King's College London weist auf ein weiteres Problem hin: Open-Source-Veroeffentlichungen fehle oft die detaillierte Dokumentation, die Regulierungsbehoerden erwarten -- wie ein Modell trainiert, validiert und auf Sicherheit getestet wurde. Ohne diese Papierspur werde es schwierig, ein darauf aufbauendes Produkt durch die FDA zu bringen.
Was bleibt
Nicht alle Technologie wurde veroeffentlicht. Zurueckgehalten wurde unter anderem ein System zur Erkennung synthetischer oder manipulierter Stimmen. Die Faehigkeit entstand als Nebenprodukt: Als das Team KI-generierte Sprache nutzte, um die Gesundheitsmodelle zu staerken, fehlten dem synthetischen Audio die Stimmsignale, auf die das Modell trainiert war. Es konnte also zwischen menschlicher und KI-generierter Sprache unterscheiden -- ein wachsendes Problem angesichts von Deepfakes und KI-generiertem Audio. Dieser Bereich unterliegt nicht der FDA-Aufsicht und koennte ein zweites Leben bekommen.
Einordnung
Kintsugi ist kein Einzelfall, sondern ein Symptom. Die regulatorischen Strukturen fuer Medizinprodukte sind nicht auf KI ausgelegt. Der Zulassungsprozess ist lang, die Kosten hoch, und fuer Startups mit begrenztem Kapital kann die Wartezeit toedlich sein. Technisch funktionierend reicht nicht -- die regulatorische Huerde entscheidet, ob ein Produkt den Markt erreicht. Solange sich daran nichts aendert, werden weitere Startups in derselben Luecke zwischen Innovation und Regulierung steckenbleiben.
Quellen
- It's not easy to get depression-detecting AI through the FDA - The Verge, 2026-04-01