Eine androidenähnliche Frauenfigur wird in einer Illustration durch eine Brille näher betrachtet.
CISPA
Beliebt

KI-Forschung
Menschen erkennen KI-generierte Medien kaum

Eine Studie zeigt, dass Menschen Probleme damit haben, KI-generierte Medieninhalte als solche zu erkennen. Sie halten diese für menschengemacht.

14.06.2024

KI-generierte Bilder, Texte und Audiodateien sind so überzeugend, dass Menschen diese nicht mehr von menschengemachten Inhalten unterscheiden können. Dies ist das Ergebnis einer Online-Befragung mit etwa 3.000 Teilnehmenden aus Deutschland, China und den USA. 

Es ist das erste Mal, dass eine große länderübergreifende Studie diese Form der Medienkompetenz überprüft hat. Dr. Lea Schönherr und Professor Thorsten Holz, Mitarbeitende des Helmholtz-Zentrums für Informationssicherheit (CISPA), präsentierten die Ergebnisse diese Woche auf dem 45. "Symposiums über Sicherheit und Datenschutz" in San Francisco. Die Studie entstand in Kooperation mit der Ruhr-Universität Bochum, der Leibniz Universität Hannover sowie der TU Berlin. 

Wenige Klicks bis zum KI-generierten Medium 

Die rasanten Entwicklungen der letzten Jahre im Bereich der Künstlichen Intelligenz hätten zur Folge, dass mit nur wenigen Klicks massenhaft Bilder, Texte und Audiodateien generiert werden könnten. Thorsten Holz erläutert, welche Risiken aus seiner Sicht damit verbunden sind: "Künstlich erzeugter Content kann vielfältig missbraucht werden. Wir haben in diesem Jahr wichtige Wahlen, wie die Wahlen zum EU-Parlament oder die Präsidentschaftswahl in den USA: Da können KI-generierte Medien sehr einfach für politische Meinungsmache genutzt werden. Ich sehe darin eine große Gefahr für unsere Demokratie". 

"Künstlich erzeugter Content kann vielfältig missbraucht werden."
Professor Thorsten Holz, Mitarbeiter von CISPA

Vor diesem Hintergrund sei eine wichtige Forschungsherausforderung die automatisierte Erkennung von KI-generierten Medien: "Das ist allerdings ein Wettlauf mit der Zeit", erklärt CISPA-Mitarbeiterin Lea Schönherr. "Medien, die mit neu entwickelten Methoden mit KI erstellt sind, werden immer schwieriger mit automatischen Methoden erkannt. Deswegen kommt es im Endeffekt darauf an, ob ein Mensch das entsprechend einschätzen kann." Dies sei der Ausgangspunkt gewesen um zu untersuchen, ob Menschen überhaupt in der Lage seien, KI-generierte Medien zu identifizieren. 

KI-generierte Medien werden als menschengemacht klassifiziert 

Die Ergebnisse der medien- und länderübergreifenden Studie seien erstaunlich: "Wir sind jetzt schon an dem Punkt, an dem es für Menschen schwierig ist – wenn auch noch nicht unmöglich – zu unterscheiden, ob etwas echt oder KI-generiert ist. Und das gilt eben für alle Arten von Medien: Text, Audio und Bild", erklärt Holz. 

Die Studienteilnehmenden hätten KI-generierte Medien über alle Medienarten und Länder hinweg mehrheitlich als menschengemacht klassifiziert. "Überrascht hat uns, dass es sehr wenige Faktoren gibt, anhand derer man erklären kann, ob Menschen besser im Erkennen von KI-generierten Medien sind oder nicht. Selbst über verschiedene Altersgruppen hinweg und bei Faktoren wie Bildungshintergrund, politischer Einstellung oder Medienkompetenz, sind die Unterschiede nicht sehr signifikant", so Holz weiter. 

Medien-Erkennung kombiniert mit soziobiografischen Daten 

Die quantitative Studie sei als Online-Befragung zwischen Juni 2022 und September 2022 in China, Deutschland und den USA durchgeführt worden. Per Zufallsprinzip seien die Befragten einer der drei Mediengruppen "Text", "Bild" oder "Audio" zugeordnet worden. 50 Prozent hätten reale und 50 Prozent KI-generierte Medien gesehen. Darüber hinaus seien sozio-biografische Daten, das Wissen zu KI-generierten Medien sowie Faktoren wie Medienkompetenz, holistisches Denken, generelles Vertrauen, kognitive Reflexion und politische Orientierung erhoben worden. 

Nach der Datenbereinigung seien 2.609 Datensätze übrig geblieben (822 USA, 875 Deutschland, 922 China), die in die Auswertung einflossen seien. Die in der Studie verwendeten KI-generierten Audio- und Text-Dateien hätten die Forschenden selbst generiert, die KI-generierten Bilder hätten sie aus einer existierenden Studie übernommen. Die Bilder seien fotorealistische Porträts gewesen, als Texte hätten sie Nachrichten gewählt und die Audio-Dateien seien Ausschnitte aus literarischen Werken gewesen. 

Ausgangspunkte für weitere Forschung 

Das Ergebnis der Studie liefere wichtige Take-Aways für die Cybersicherheitsforschung: "Es besteht das Risiko, dass vor allem KI-generierte Texte und Audio-Dateien für Social Engineering-Angriffe genutzt werden. Denkbar ist, dass die nächste Generation von Phishing-Emails auf mich personalisiert ist und der Text perfekt zu mir passt", erläutert Schönherr. Abwehrmechanismen für genau solche Angriffsszenarien zu entwickeln, darin sieht sie eine wichtige Aufgabe für die Zukunft. 

"Denkbar ist, dass die nächste Generation von Phishing-Emails auf mich personalisiert ist und der Text perfekt zu mir passt."
Dr. Lea Schönherr, Mitarbeiterin von CISPA

Aus der Studie würden sich auch weitere Forschungsdesiderata ergeben: "Zum einen müssen wir besser verstehen, wie Menschen überhaupt noch KI-generierte Medien unterscheiden können. Wir planen eine Laborstudie, wo Teilnehmende uns erklären sollen, woran sie erkennen, ob etwas KI-generiert ist oder nicht. Zum anderen müssen wir überlegen, wie wir das technisch unterstützen können, etwa durch Verfahren zum automatisierten Fakt-Checking", so Schönherr abschließend.

Echte Stimme oder Fake? Das Gehirn erkennt es! 

Ob gerade ein echter Mensch oder eine von KI generierte Stimme spricht, ist für Zuhörende häufig kaum noch zu unterscheiden. Zumindest nicht bewusst: Das Gehirn reagiere auf Deepfake-Stimmen durchaus anders als auf natürliche, berichtet ein weiteres Forschungsteam im Fachjournal "Communications Biology" (11.6.). Gefälschte Stimmen scheinen demnach unter anderem zu weniger Vergnügen beim Hören zu führen. 

Algorithmen zur Stimmsynthese seien inzwischen so leistungsfähig, dass die Identitätsmerkmale künstlicher Stimmklone denen natürlichen Sprechens sehr nahekommen. Solche mit Deepfake-Technologien imitierten Stimmen würden zum Beispiel für Betrugsversuche am Telefon genutzt oder dafür, Sprachassistenten die Stimme der Lieblingsschauspielerin zu geben. 

Das Team um Dr. Claudia Roswandowitz von der Universität Zürich analysierte, wie gut die menschliche Identität in Stimmklonen erhalten bleibt. Die Forschenden nahmen im Jahr 2020 die Stimmen vier deutschsprachiger Männer auf, woraufhin mithilfe von Computeralgorithmen jeweils Deepfake-Stimmen dieser Sprecher generiert wurden. 

Deepfake-Stimmen schon ziemlich perfekt 

Geprüft wurde dann, wie gut die Nachahmung war, also wie überzeugend die Identität geklont wurde. Dafür sollten 25 Probandinnen und Probanden entscheiden, ob die Identität zweier vorgespielter Stimmen identisch war oder nicht. In etwa zwei Drittel der Versuche wurden die Deepfake-Stimmen korrekt dem jeweiligen Sprecher zugeordnet. "Dies verdeutlicht, dass aktuelle Deepfake-Stimmen zwar nicht perfekt die Identität imitieren, aber das Potenzial haben, die Wahrnehmung von Menschen zu täuschen", sagte Roswandowitz. 

"Dies verdeutlicht, dass aktuelle Deepfake-Stimmen das Potenzial haben, die Wahrnehmung von Menschen zu täuschen."
Dr. Claudia Roswandowitz, Universität Zürich

Mit funktioneller Magnetresonanztomographie (fMRT) untersuchten die Forschenden dann, wie einzelne Gehirnareale auf gefälschte und echte Stimmen reagieren. Demnach gab es in zwei zentralen Arealen Unterschiede: im sogenannten Nucleus Accumbens und dem auditorischen Cortex. Es liege dem Team zufolge nahe, dass beide Bereiche eine wichtige Rolle dabei spielen, ob ein Mensch eine Deepfake-Stimme als Fälschung erkennt oder nicht. 

"Der Nucleus Accumbens ist ein wichtiger Bestandteil des Belohnungssystems im Gehirn", erklärte Roswandowitz. Er sei weniger aktiv gewesen, wenn eine Deepfake- und eine natürliche Stimme verglichen wurden, als bei zwei echten Stimmen. Einer gefälschten Stimme zu lauschen, aktiviere das Belohnungssystem weniger. 

Das Gehirn versucht fehlende Signale auszubessern 

Einen Aktivitätsunterschied gab es der Analyse zufolge auch im auditorischen Cortex, der zuständig für die Analyse von Geräuschen ist. Der Bereich war mehr involviert, wenn es darum ging, die Identität von Deepfake-Stimmen zu erkennen. "Wir vermuten, dass dieses Areal auf die noch nicht perfekte akustische Imitation der Deepfake-Stimmen reagiert und versucht, das fehlende akustische Signal auszugleichen", sagte Roswandowitz. Der Cortex kompensierte dabei wohl weitgehend heimlich vor sich hin. "Irgendwas signalisiert dem Bewusstsein dann schon, dass etwas anders und schwieriger ist, aber das bleibt häufig unter der Wahrnehmungsschwelle." 

"Irgendwas signalisiert dem Bewusstsein dann schon, dass etwas anders und schwieriger ist, aber das bleibt häufig unter der Wahrnehmungsschwelle."
Dr. Claudia Roswandowitz, Universität Zürich 

Mit der rasanten Entwicklung von Technologien der Künstlichen Intelligenz habe die Erstellung und Verbreitung von Deepfakes massiv zugenommen, heißt es von den Forschenden in der Studie. Würden also heutige, vier Jahre später erstellte Deepfakes, die Zuhörenden komplett austricksen? Oder wären die Ergebnisse ähnlich? "Das ist eine sehr spannende Frage", meint Roswandowitz. Neuere KI-generierte Stimmen hätten wahrscheinlich eine etwas bessere Klangqualität. 

Roswandowitz geht davon aus, dass die Aktivitätsunterschiede im auditorischen Cortex geringer wären also zu der Zeit, als die Studie durchgeführt wurde. Denn diese Region reagiere auf die unterschiedliche Klangqualität. Im Nucleus Accumbens hingegen erwartet sie möglicherweise ähnliche Ergebnisse. "Es wäre sehr interessant, dies experimentell zu untersuchen."

Dieser Artikel wurde am 14.6. um weitere Studienergebnisse ergänzt und am 22.5. erstmals veröffentlicht. 

cva/dpa