Ein Sicherheitsforscher hat detailliert dokumentiert, wie ChatGPTs Bot-Schutz funktioniert -- und dabei aufgedeckt, dass die Eingabe blockiert wird, bis ein Cloudflare-Skript den internen React-Zustand der Anwendung ausgelesen hat.
Was passiert technisch
Der Forscher hat das verschleierte JavaScript auf ChatGPTs Webseite entschluesselt. Das Ergebnis: Bevor Nutzer die erste Nachricht eingeben koennen, fuehrt ein Cloudflare-Skript eine Reihe von Pruefungen durch. Dazu gehoert das Auslesen des internen React-Komponentenzustands -- also Daten, die normalerweise nur innerhalb der Anwendung existieren und nicht fuer externe Systeme bestimmt sind.
Die gesammelten Daten werden an Cloudflare gesendet, vermutlich als Teil der Bot-Erkennung. Erst nach erfolgreicher Pruefung wird die Eingabe freigeschaltet.
Warum das relevant ist
Die Analyse hat auf Hacker News eine breite Diskussion ausgeloest (457 Punkte, 325 Kommentare). Die Kritikpunkte:
- Intransparenz. Nutzer erfahren nicht, welche Daten erhoben werden oder warum die Eingabe verzoegert ist.
- Scope Creep. Bot-Schutz, der internen Anwendungszustand ausliest, geht ueber das hinaus, was technisch notwendig waere. Einfachere Methoden wie CAPTCHAs oder Rate Limiting wuerden den gleichen Zweck erfuellen -- mit weniger Datenerhebung.
- Praezedenzfall. Wenn Cloudflare den React-State auslesen kann, koennte dieselbe Technik fuer weitreichendere Telemetrie eingesetzt werden -- ohne dass Nutzer es bemerken.
Einordnung
Der Vorfall liegt an der Schnittstelle von Security und Privacy. Bot-Schutz ist fuer eine Plattform wie ChatGPT zweifellos notwendig. Aber die Methode -- intransparentes Auslesen von internem Anwendungszustand -- wirft berechtigte Fragen auf. Fuer Entwickler, die Cloudflare einsetzen, ist es ein Anlass, die eigenen Integrationen auf aehnliche Muster zu pruefen.
Quellen
- ChatGPT won't let you type until Cloudflare reads your React state - buchodi.com, 2026-03-29