26. März 2026

GitHub ändert zum 24. April 2026 seine Datenrichtlinie für Copilot. Interaktionsdaten von Nutzern der Free-, Pro- und Pro+-Pläne werden dann standardmäßig für das Training von AI-Modellen herangezogen. Betroffen sind Code-Snippets, Prompts und Interaktionsmuster, die bei der täglichen Arbeit mit Copilot anfallen.

Die Änderung greift automatisch -- wer seine Daten nicht für Training freigeben will, muss vor dem Stichtag aktiv in den GitHub Settings einen Opt-out vornehmen. Enterprise- und Business-Pläne sind ausgenommen und unterliegen weiterhin separaten Datenrichtlinien.

Einordnung

GitHub folgt damit einem Muster, das bei AI-Tool-Anbietern zunehmend verbreitet ist: Nutzungsdaten werden als Trainingsdaten behandelt, die Zustimmung läuft über Opt-out statt Opt-in. Das verschiebt die Handlungslast auf den einzelnen Entwickler. Wer die Änderung nicht mitbekommt oder die Einstellung übersieht, liefert seine Arbeitsdaten automatisch ab.

Für Entwickler in Unternehmen, die Copilot über individuelle Pro-Pläne statt über Enterprise-Lizenzen nutzen, entsteht hier ein konkretes Compliance-Risiko. Proprietärer Code und interne Prompt-Muster könnten in Trainingsdatensätze einfließen.

Die Reaktion auf Hacker News, wo der Artikel bereits am 25. März die Frontpage erreichte, fiel entsprechend scharf aus. Die Kritik richtet sich weniger gegen die Nutzung von Daten an sich als gegen die Opt-out-Mechanik und den kurzen Vorlauf.

Handlungsempfehlung

Wer Copilot im Free-, Pro- oder Pro+-Plan nutzt: Vor dem 24. April 2026 in den GitHub Settings unter den Copilot-Einstellungen die Datennutzung für Training deaktivieren.

Community-Reaktion: Opt-Out-Deadline 24. April 2026

Auf Hacker News erreichte die Nachricht 710 Punkte und 308 Kommentare. Die Community kritisiert das Opt-in-Default scharf -- Nutzer muessen aktiv unter github.com/settings/copilot/features abmelden. Auch private Repositories sind betroffen.

Quellen

Nach oben