Datenschutz & Sicherheit
Nur mit Opt-out: GitHub trainiert künftig Copilot-Modelle mit Nutzerdaten
GitHub ändert seine Nutzungsbedingungen und wird ab dem 24. April 2026 Interaktionen der Anwenderinnen und Anwender mit dem Copilot für das Modelltraining der eigenen KI verwenden. Wer das nicht möchte, kann dem bereits jetzt per Opt-out widersprechen.
Weiterlesen nach der Anzeige
Die Änderung betrifft die Tarife Free, Pro und Pro+, nicht aber Business und Enterprise. Auch Studenten und Lehrkräfte, die den Pro-Tarif kostenlos nutzen, sowie Anwender, die bereits dem öffentlichen Code-Matching widersprochen hatten, sind nicht betroffen.
Als Begründung nennt GitHub, dass die Datenerhebung dazu dient, Entwicklungsworkflows besser zu verstehen sowie bessere und sicherere Code-Beispiele zu liefern. So sollen weniger Bugs in die Produktion gelangen. Entsprechende Versuche innerhalb des Unternehmens haben laut Ankündigung die erhofften Verbesserungen der Modelle bewiesen.
Außerdem verweist GitHub auf ähnliche Bedingungen bei der Mutter Microsoft, bei Anthropic und bei JetBrains.
Der Opt-out findet sich in den Einstellungen unter „Copilot/Features“
Im Einzelnen verwendet GitHub folgende Daten:
- Private Repositories während der Nutzung
- Akzeptierte oder geänderte Ausgaben von Copilot
- An Copilot gesendete Eingaben, einschließlich Code-Snippets
- Code-Kontext um die Cursorposition herum
- Kommentare und Dokumentation
- Dateinamen und Repository-Strukturen
- Navigationsmuster
- Interaktionen mit Copilot-Funktionen wie Chat oder Inline-Vorschläge
- Feedback zu Vorschlägen (Daumen rauf/runter)
Ausgenommen sind:
Weiterlesen nach der Anzeige
- Inhalte aus Issues und Diskussionen
- Private Repositories, wenn sie gerade nicht benutzt werden („at rest“)
- Business- und Enterprise-Tarife
- Studenten und Lehrkräfte, die den Pro-Tarif kostenlos nutzen
Der Widerspruch ist über die Einstellungsseite in GitHub unter „Copilot/Features“ möglich.
Sicherheit und Datenschutz
Microsoft will die gesammelten Daten innerhalb der eigenen Unternehmensgruppe verwenden, aber nicht an fremde Modellbetreiber oder Hoster weitergeben. Zugang zu den Daten hat nur „autorisiertes Personal, das direkt an der Modellverbesserung oder Sicherheit arbeitet“ oder für Log- und Audit-Zwecke. Laut GitHub gibt es mehrere Sicherheitsebenen, unter anderem um API-Keys, Passwörter, Tokens und Personendaten zu filtern.
In der Diskussion bei den zugehörigen FAQs kritisieren Anwenderinnen und Anwender insbesondere, dass sich der Opt-out nicht auf bestimmte Repositories einschränken lässt, sondern nur ein globales Ja oder Nein pro Konto erlaubt. Andere fordern auch: „Bietet zumindest einen Discount an, wenn wir zustimmen, dass die von euch verkauften Modelle davon profitieren.“
Lesen Sie auch
(who)