

Recherche und Textarbeit
KI-Tools sind riskant und nicht neutral
Behörden und Cybersicherheits-Fachleute haben gravierende Sicherheitsbedenken gegen die chinesische KI DeepSeek, meldet die Deutsche Presseagentur (dpa) am 12. Februar. Dabei geht es um mehrere Punkte: die offenkundig sehr weitreichende Speicherung von Daten der Nutzerinnen und Nutzer, die mögliche Manipulierbarkeit der Anwendung für kriminelle Zwecke und die Frage, inwieweit der chinesische Spionage- und Überwachungsapparat Zugriff auf Daten von Nutzerinnen und Nutzern hat. DeepSeek hat sich seit der Veröffentlichung zu einer der beliebtesten KI-Anwendungen auch in den deutschen App Stores von Apple und Google entwickelt.
Ein wesentlicher Kritikpunkt ist demnach die Speicherung der Tastatureingaben. DeepSeek informiert in seinen Datenschutzhinweisen darüber, dass "Tastatureingabemuster oder Eingaberhythmen" (keystroke patterns or rhythms) erfasst werden – ein Verfahren, das zur Identifizierung von Nutzerinnen und Nutzern eingesetzt werden kann. "Auch Tastatureingaben innerhalb der App können womöglich mitgelesen werden, bevor sie abgeschickt werden", sagt eine Sprecherin des Bundesamts für Sicherheit in der Informationstechnik (BSI) auf dpa-Anfrage.
BSI: für sicherheitskritische Bereiche bedenklich
"Daneben wird die Art und Weise, wie Tastatureingaben vorgenommen werden, gespeichert." Mit solchen Mustern könnten mit Hilfe Künstlicher Intelligenz Nutzungsprofile erstellt und wiedererkannt werden. Fazit: "Das BSI hält diese Möglichkeit mindestens für sicherheitskritische Bereiche für bedenklich."
Die etablierte US-Konkurrenz Open AI hingegen sichert in den Datenschutzhinweisen zu, nicht aktiv nach persönlichen Daten zu suchen und keine öffentlichen Daten im Internet zum Aufbau persönlicher Profile zu verwenden. Allerdings gibt es auch ein US-Gesetz – den Cloud Act – das amerikanische Firmen verpflichtet, den Behörden Zugriff auf im Ausland gespeicherte Daten zu gewähren.
Ein "Keylogger", wie ihn kriminelle Hacker und Geheimdienste zum Ausspionieren von Passwörtern und Zugangs-Daten verwenden, ist die Speicherung von Eingabemustern oder Eingaberhythmen durch DeepSeek nach Einschätzung des Cybersecurity-Experten Rüdiger Trost zwar nicht. „Hier muss man unterscheiden: Ein Keylogger schneidet alles mit, was über die Tastatur eingegeben wird“, sagt der Fachmann, der für den Sicherheitsdienstleister WithSecure arbeitet. "Das ist etwas anderes als ein Prompt in einem GenAI Tool oder im Allgemeinen eine Sucheingabe in einem Browser."
Künstliche Intelligenz
Künstliche Intelligenz greift zunehmend in das alltägliche Leben ein. Welche Chancen und Risiken birgt dies? Woran arbeitet die KI-Forschung und welche Folgen hat KI in der Lehre? Ausgewählte Artikel zum Thema finden Sie in unserem Themenschwerpunkt "Künstliche Intelligenz".
DeepSeek als hilfreiches Instrument für kriminielle Zwecke
In einer Untersuchung des großen US-Cybersicherheits-Dienstleisters Palo Alto Networks ließ sich DeepSeek leicht für kriminelle Zwecke manipulieren. Das berichtet Sam Rubin, Leiter der Bedrohungsanalyse und -beratung des Unternehmens. So brachten die Cyberfachleute DeepSeek mit Hilfe der "richtigen Prompts" – also Anweisungen und Fragestellungen – dazu, ein Skript zur Auslese von Daten aus Mails und Word-Dateien zu erzeugen. Derartige Skripts werden von Hackern genutzt, um Daten zu stehlen. Mit zusätzlichen Prompts habe DeepSeek außerdem tatsächlich "Keylogger Code" produziert, wie Rubin auf dpa-Anfrage sagte.
Das erfolgreiche Aushebeln von Sicherheitsvorkehrungen heißt in der Software-Branche "Jailbreaking" – Gefängnisausbruch. Laut Palo Alto Networks fehlen DeepSeek die Schutzplanken anderer KI-Modelle. "Unsere Forscher waren in der Lage, die schwachen Sicherheitsvorkehrungen zu umgehen, um bösartige Inhalte zu produzieren, was wenig bis kein Spezialwissen oder Expertise erforderte", sagt Rubin.
Freier Zugriff für chinesische Spionage?
Ganz abgesehen davon ist DeepSeek nach chinesischem Recht verpflichtet, sämtliche Daten in der Volksrepublik zu speichern. Das chinesische Geheimdienstgesetz wiederum verpflichtet Bevölkerung und Organisationen zur Kooperation mit den Sicherheitsbehörden. Der Gummiparagraf wird von etlichen China-Fachleuten als Zugriffsrecht des Spionageapparats auf sämtliche in der Volksrepublik gespeicherten Daten interpretiert. Die italienische Datenschutzbehörde GDDP hat die chinesische KI bereits Ende Januar auf den Index gesetzt. DeepSeek ließ eine dpa-Anfrage zu den verschiedenen Kritikpunkten zunächst unbeantwortet.
Derzeit bereitet der Datenschutzbeauftragte von Rheinland-Pfalz ein Prüfverfahren gegen DeepSeek vor. "Mehrere deutsche Datenschutzaufsichtsbehörden gehen voraussichtlich parallel vor", sagte eine Sprecherin auf dpa-Anfrage. Laut EU-Datenschutzgrundverordnung muss ein Unternehmen ohne Niederlassung in der EU zumindest einen gesetzlichen Vertreter benennen, was DeepSeek bislang offenbar nicht getan hat. "Das Fehlen eines gesetzlichen Vertreters stellt an sich schon einen Verstoß gegen die Datenschutz-Grundverordnung dar und kann mit Bußgeld geahndet werden", sagt die Sprecherin.
Deutsche Ministerien, Bundesbehörden und große Unternehmen treffen massive Sicherheitsvorkehrungen gegen Cyberattacken. Das schließt Künstliche Intelligenz mit ein und trifft nicht nur DeepSeek. So hat das Bundesinnenministerium die Nutzung externer Cloud-Dienste grundsätzlich verboten. Andere Bundesministerien haben ähnliche Vorschriften erlassen: Das Finanzministerium hat die Nutzung "textgenerativer Künstlicher Intelligenz im Internet zu dienstlichen Zwecken grundsätzlich untersagt". Das Wirtschaftsministerium hat festgelegt, welche Anwendungen erlaubt sind, DeepSeek und andere KI-Anwendungen gehören nicht dazu.
Auch das Deutsche Patent- und Markenamt in München – ebenfalls ein potenzielles Spionageziel – setzt DeepSeek nicht ein. Im bayerischen Innenministerium sind DeepSeek und andere KI-Anwendungen auf dienstlichen Geräten nicht erlaubt und private Geräte dürfen nicht dienstlich genutzt werden. Nach diesem Prozedere verfahren auch große Unternehmen, die ihre Technologie schützen wollen. Mehrere Dax-Konzerne ermöglichen den Zugriff auf KI-Anwendungen nur über die Sicherheitsschleusen eigener Systeme. "Dort ist neben vielen anderen Modellen auch Deep Seek verfügbar – innerhalb eines sicheren Umfelds, das garantiert, dass Siemensdaten bei Siemens bleiben", sagt ein Sprecher.
ChatGPT laut internationaler Studie ideologisch voreingenommen
Eine Studie der University of East Anglia zeigt, dass ChatGPT sowohl in der Ausgabe von Text als auch von Bildern Verzerrungen in Richtung linker politischer Werte aufweist. Die Studie "Die Bewertung politischer Voreingenommenheit und von Werteabweichungen bei generativer Künstlicher Intelligenz" ist in Zusammenarbeit mit Forschenden der Getulio Vargas Foundation (FGV) und der Forschungsinstitution Insper (Instituto de Ensino e Pesquisa) aus Brasilien entstanden und stellt im Fazit beispielsweise Fragen zur Transparenz und Rechenschaftspflicht bei der Gestaltung von KI-Tools.
Die Studie ergab, dass ChatGPT sich oft weigerte, sich mit konservativen Mainstream-Standpunkten auseinanderzusetzen, während das Tool bereitwillig linksgerichtete Inhalte produzierte, heißt es in einer Nachricht der Universität anlässlich der Veröffentlichung am 4. Februar im Journal of Economic Behavior and Organization.
Einer der leitenden Autoren, Dr. Fabio Y.S. Motoki, sagt laut Universität dazu: "Unsere Ergebnisse deuten darauf hin, dass generative KI-Tools alles andere als neutral sind. Sie spiegeln Vorurteile wider, die Wahrnehmungen und politisches Handeln auf unbeabsichtigte Weise prägen könnten." Co-Autor Pinho Neto, Professor für Volkswirtschaftslehre an der Brazilian School of Economics and Finance (EPGE), ergänzt: "Unkontrollierte Vorurteile in der generativen KI könnten bestehende gesellschaftliche Gräben vertiefen und das Vertrauen in Institutionen und demokratische Prozesse untergraben."
Generative KI-Systeme wie ChatGPT würden die Art und Weise verändern, wie Informationen erstellt, konsumiert, interpretiert und verteilt werden. Da KI zu einem integralen Bestandteil des Journalismus, der Bildung und der Politikgestaltung werde, fordert die Studie Transparenz und regulatorische Schutzmaßnahmen, um die Übereinstimmung mit gesellschaftlichen Werten und Prinzipien der Demokratie zu gewährleisten.
Online-Umfrage
Wie kann Ihnen "Forschung & Lehre" begleitend noch passender zur Seite stehen?
Das Redaktions-Team freut sich über
Ihre Teilnahme an unserer Umfrage!
dpa/cva