EU-Gesetzgebung
KI-Anbieter müssen auf Transparenz achten
Ab dem 2. August 2025 gelten auf Ebene der Europäischen Union (EU) zentrale Vorgaben für große Sprachmodelle auf Basis Künstlicher Intelligenz (KI) wie ChatGPT und Gemini. Die EU-Kommission hat daher am Freitag Leitlinien zur Umsetzung der neuen Regeln vorgestellt. Sie sollen Anbietern sogenannter General-Purpose-KI-Modelle helfen, ihre Transparenzpflichten unter dem EU-KI-Gesetz (AI Act) zu erfüllen. Das Papier erklärt etwa genauer, welche Modelle und Anbieter von den Neuregelungen betroffen sind und was diese dokumentieren müssen.
Anbieter müssen künftig offenlegen, wie ihre Modelle funktionieren, mit welchen Daten sie trainiert wurden und wie sie mit möglichen Risiken umgehen. Die Regelungen beziehen sich auf Modelle, die mit erheblichem Rechenaufwand trainiert wurden. Für besonders leistungsfähige Modelle mit potenziellen systemischen Risiken, etwa für Grundrechte oder Sicherheit, gelten zusätzliche Pflichten zur Risikoabschätzung und -minderung.
Die Kommission betont, sie wolle mit den Leitlinien rechtliche Klarheit schaffen und so Innovation ermöglichen. Neue Modelle sollen ab 2026 vom neuen EU-KI-Amt geprüft werden, ab 2027 sollen dann auch bereits bestehende Modelle kontrolliert werden.
DeepSeek bald aus App-Stores entfernt?
Die Bundesdatenschutzbeauftragte Louisa Specht-Riemenschneider sorgt sich derweil um Datenabflüsse nach China durch die Nutzung des Chatbots DeepSeek: Die chinesische KI-Anwendung sollte nach Specht-Riemenschneider in Deutschland wegen Verstößen gegen europäisches Recht aus den App-Stores entfernt werden. "China hat kein Datenschutzniveau, das unserer Datenschutz-Grundverordnung entspricht", sagte sie gegenüber den Zeitungen der Funke Mediengruppe.
"Problematisch ist unter anderem, dass die Daten der Nutzerinnen und Nutzer von der KI weiterverwendet werden, ohne dass dafür eine gültige Einwilligung vorliegt", erläuterte Professorin Indra Spieker genannt Döhmann gegenüber dem Science Media Center (SMC). Die Daten würden unkontrolliert nach China ausgeleitet und dort weiterverarbeitet, ohne dass dafür eine Rechtsgrundlage existiere.
"Eine Nutzung von DeepSeek ist nicht zu empfehlen. Bereits ein kurzer Blick in die Datenschutzerklärung von DeepSeek macht deutlich, wie weitreichend die Befugnisse sind", sagte auch Professorin Hanna Ruschemeier von der FernUniversität Hagen zu SMC.
Zuvor hatte bereits die Berliner Datenschutzbeauftragte Meike Kamp die Apps bei Google und Apple als "rechtswidrigen Inhalt" gemeldet. Die beiden US-Unternehmen müssen die Meldung nun prüfen und über eine Sperrung entscheiden. Kamp darf in diesem Fall tätig werden, weil DeepSeek keine Niederlassung in Europa hat, für die dann wiederum nur die lokale Datenschutzbehörde zuständig wäre. Specht-Riemenschneider sagte nun, sie unterstütze den Vorstoß der Berliner Datenschutzbeauftragten.
Auch andere Länder gehen gegen Deep Seek vor
Behörden in Südkorea, Italien, Taiwan und Australien sind bereits gegen DeepSeek vorgegangen. In den USA gibt es kein landesweites Verbot, jedoch haben mehrere Bundesbehörden wie die Nasa und das Verteidigungsministerium ihren Mitarbeitenden die Nutzung der App untersagt.
Der auf quelloffenen Sprachmodellen basierende Chatbot aus China hat die KI-Branche aufgerüttelt, da die App vergleichbare oder sogar bessere Ergebnisse als etablierte Programme von Anbietern wie OpenAI, Google oder Meta erzielt. Zugleich hat die Entwicklung des Programms nach Angaben von DeepSeek nur einen Bruchteil dessen gekostet, was etwa OpenAI in ChatGPT investiert hat.
dpa/cpy