Eine  junge Frau hat Markierungen in ihrem Gesicht für Erkennungsmerkmale, daneben steht in großen Buchstaben "FAKE".
mauritius images / Alfonso Fabio Iozzino / Alamy / Alamy Stock Photos

Künstliche Intelligenz
Wie Forschende Deepfakes ergründen und erleiden

Deepfakes sind täuschende Fälschungen von Bild-, Audio- und Videomaterial. Forschende untersuchen sie und sind selbst betroffen.

Von Christine Vallbracht 28.08.2024

Bei manchen Wissenschaftlerinnen und Wissenschaftlern leuchten die Augen, wenn sie über Deepfakes sprechen. Sie sind fasziniert davon, mit welcher Genauigkeit Software, die auf Künstlicher Intelligenz (KI) basiert, Stimmen, Fotos oder Videos erzeugen, manipulieren, nachahmen und fälschen kann. Sie sehen vor allem Chancen – auch für Forschung und Lehre. 

Andere haben vielleicht im Rahmen ihrer Arbeit oder bezogen auf ihre wissenschaftliche Reputation bereits schlechte Erfahrungen mit KI-Technologien dieser Art gemacht: Sie wurden beispielsweise mit manipulierten wissenschaftlichen Arbeiten konfrontiert oder haben sich selbst als Subjekt eines gefälschten Fotos beziehungsweise Videos entdecken müssen. Sie sehen vor allem die Risiken – auch für Forschung und Lehre. 

Das Phänomen Deepfakes 

Ob positive oder negative Erfahrungen: Es wird so sein, dass dieses recht junge Phänomen – KI-generierte Bilder und Videos werden circa seit 2017 regelmäßig als Deepfakes bezeichnet – die Kommunikationswelt nicht mehr verlassen wird. Nach Angaben des Fraunhofer-Instituts für Angewandte und Integrierte Sicherheit (AISEC) war das Anfertigen hochwertiger Manipulationen von Video- oder Audiomaterial in der Vergangenheit aufgrund tausender Datenpunkte, die es zu verfälschen gilt, nahezu unmöglich. Für KI-Software stelle das inzwischen kein Problem mehr da. In einer aktuellen Studie des Fraunhofer-Instituts für System- und Innovationsforschung (ISI) zu Chancen und Risiken von Deepfakes ist von "veränderten medialen Realitäten" die Rede. 

Das Bundesamt für Sicherheit in der Informationstechnik weist auf seiner Website darauf hin, dass es zum Fälschen von Gesichtern derzeit vor allem drei Verfahren geben würde: Gesichter in einem Video zu tauschen ("Face Swapping"), die Mimik und Kopfbewegungen einer Person in einem Video nach Wunsch zu kontrollieren ("Face Reenactment") und neue (Pseudo-)Identitäten zu synthetisieren. Für die Erstellung von manipulierten Stimmen seien insbesondere "Text-to-Speech (TTS)"-Verfahren zur Umwandlung eines beliebigen Textes in eine nachgeahmte Stimme und die sogenannte "Voice Conversion (VC)", bei welcher ein Audiosignal zu einer Zielstimme konvertiert werde, von großer Bedeutung. 

Welche Forschungsdisziplinen Deepfakes ergründen 

"Bei der Differenzierung der disziplinären Ansätze zu diesem Phänomen stellen wir fest, dass sich Studien aus der Informatik weitgehend auf die Erkennung von Deepfakes konzentrieren, während Studien aus dem Rechtsbereich die rechtlichen Rahmenbedingungen fokussieren, die erforderlich sind, um potenzielle Risiken im Zusammenhang mit der Technologie zu mindern," wird die Gewichtung der Fachdisziplinen mittels systematischer Literaturrecherche zur Deepfake-Forschung in einer Übersichtsstudie (2021) von Professor Alexander Godulla, Professor Christian Hoffmann und Daniel Seibert beschrieben. 

Informatik und Recht würden den Forschungsbereich deutlich dominieren, während nur sieben der ausgewählten Studien aus geistes- oder sozialwissenschaftlicher Perspektive zum Diskurs beitrügen. Eine Reihe von Studien würde sich auf die potenzielle Verwendung von Deepfakes für politische Desinformation fokussieren, während sich nur wenige Arbeiten mit deren Auswirkungen auf die Mediennutzenden befassten. Weitere zentrale Forschungsschwerpunkte stellten außerdem die Herausforderungen für journalistische Praktiken und die pornografischen Verwendungen von Deepfakes dar. 

Forschungslücken sehen die drei Autoren beispielsweise im Bereich Datenschutz, bezüglich der Untersuchung der formalen Eigenschaften von Deepfakes und deren Popularität, im Bereich Verbreitung von Deepfakes sowie in Bezug auf Auswirkungen auf den Mediensektor. 

Forschung zur Erkennbarkeit von Deepfakes 

Um Deepfakes als solche erkennen zu können, ist das Verständnis für deren Entstehungsweise essenziell. Das Fraunhofer-Institut AISEC erklärt es auf seiner Website so: "Bei der Deepfake-Erstellung werden Systeme wie bei vergleichbaren Machine-Learning-Modellen mit Trainingsdaten aus dem Netz angelernt." Dabei würden neuronale Netze so konstruiert, dass sie jeden beliebigen Satz einer Zielperson mit dem passenden Gesichtsausdruck und der typischen Sprachmelodie verbinden könnten. Quasi jede Person laufe theoretisch Gefahr, dass online in ihrem Namen mittels gefälschter Stimme oder Videos Überweisungen getätigt oder Verträge abgeschlossen würden – vorausgesetzt, es sei ausreichend Audio- und Videomaterial verfügbar. Dies sei insbesondere bei Personen des öffentlichen Lebens der Fall. 

"Bei der Deepfake-Erstellung werden Systeme wie bei vergleichbaren Machine-Learning-Modellen mit Trainingsdaten aus dem Netz angelernt."
Fraunhofer-Institut AISEC

Dem Bundesamt für Sicherheit in der Informationstechnik (BSI) zufolge arbeiten neueste Forschungsansätze an Verfahren, welche lediglich wenige Sekunden Audiomaterial der Zielperson und keinen erneuten Trainingsprozess benötigen. Das Amt geht davon aus, dass selbst technisch versierte Laien qualitativ hochwertige Fälschungen herstellen können. 

Das BSI weist auf seiner Website bezüglich der Herausforderungen des Erkennens darauf hin, dass es mittels Methoden aus der Medienforensik möglich ist, Artefakte zu detektieren, welche bei der Verwendung von Manipulationsmethoden auftreten. Hiermit sei es für Expertinnen und Experten möglich, Fälschungen nachvollziehbar zu erkennen. Allerdings hätten die Erkennungsmöglichkeiten noch wenig schützende Wirkung im alltäglichen Leben und könnten beispielsweise Desinformationen lediglich verlangsamen, berichtet das US-amerikanische Amt für Rechenschaftslegung der Regierung ("The Government Accountability Office", GAO) in einer aktuellen Einschätzung aus diesem Jahr. 

Ein weiterer Lösungsweg zum Umgang mit dieser Fälschungs-Technologie bestehe laut AISEC darin, dass neuronale Netze zur Erkennung von gefälschtem Material trainiert würden. "Die Deepfake-Erkennung erfolgt durch den Einsatz von Supervised Machine Learning-Techniken: Dabei lernt die KI anhand zahlreicher Beispiele von echten und KI-generierten Inhalten, was echt ist und was nicht", erläutert Dr. Nicolas Müller vom "Department Cognitive Security Technologies" am Fraunhofer-Institut gegenüber "Forschung & Lehre". Die Erkennung von Deepfakes stelle einen ständigen Wettlauf zwischen denjenigen dar, die sie erstellten, und denjenigen, die sie erkennen wollten. 

Die am Fraunhofer-Institut entwickelten Lösungen unterstützten Unternehmen und Einrichtungen der öffentlichen Hand bei der Erkennung von Video- und Audio-Deepfakes. Öffentlich zugänglich ist beispielsweise die Plattform "Deepfake Total", mit welcher Videos und Audiodateien überprüft werden können. 

"Die Reflexionen in den Augäpfeln sind bei der echten Person konsistent, aber bei der gefälschten Person inkonsistent."
 Kevin Pimbblet, Professor für Astrophysik, University of Hull

Laut Forschungsergebnissen, die im Juli auf dem Nationalen Astronomie-Treffen der britischen "Royal Astronomical Society" vorgestellt wurden, können KI-generierte Bild-Fälschungen durch die Analyse der Reflexionen im menschlichen Auges entdeckt werden. Das Vorgehen sei dabei das gleiche wie bei der Untersuchung astronomischer Bilder von Galaxien, habe ein Team unter der Leitung von Adejumoke Owolabi, Masterstudent an der University of Hull, herausgefunden. "Die Reflexionen in den Augäpfeln sind bei der echten Person konsistent, aber bei der gefälschten Person inkonsistent", sagte Kevin Pimbblet, Professor für Astrophysik an der University of Hull, in einer Erklärung. Laut Pimbblet sei dies zumindest ein neuer Ansatzpunkt für die zukünftige Erkennung von Bild- und Video-Deepfakes. 

Desinformationskampagnen mittels Deepfakes 

Insbesondere seit der Corona-Pandemie sind digitale Werkzeuge und Kommunikationskanäle aus der Forschung und Lehre nicht mehr wegzudenken. Die Zugänglichkeit von Lehrmaterialien wurde mit der Verbreitung über das Internet demokratisiert – gleichzeitig ist das Risiko für Lernende und Lehrende gestiegen, absichtlich irreführenden Bildungsinhalten ausgesetzt zu sein. 

Professor Siwei Lyu, Spezialist für maschinelles Lernen und digitale Medien an der University at Buffalo in New York, sagte gegenüber "Nature", dass Wissenschaftlerinnen und Wissenschaftler vorsichtig sein sollten, wenn sie Medien auf sozialen Plattformen teilten. Sie sollten sich zumindest angewöhnen, die Originale aufzubewahren, falls es im Nachhinein darum gehen würde, eine Fälschung zu entlarven. 

Wie können Wissenschaftlerinnen und Wissenschaftler selbst zum Subjekt – zur gefälschten Person – innerhalb solcher Deepfakes werden? Die Manipulations-Technologien kommen im Bereich Desinformation besonders oft zum Zug: "Aufgrund der Unmittelbarkeit der audiovisuellen Kommunikation scheint manipuliertes Video- oder Audiomaterial besonders geeignet, Desinformationen zu verbreiten", heißt es in der Übersichtsstudie von Godulla, Hoffmann und Seibert. Von besonderer Relevanz für die potenzielle Wirksamkeit von Deepfakes sei deren (virale) Verbreitung über soziale Netzwerke. 

"Desinformationskampagnen basieren oft darauf, den Konsens zu untergraben, Unsicherheiten hervorzuheben, die Glaubwürdigkeit führender Persönlichkeiten und Institutionen zu untergraben und pseudowissenschaftliche Alternativen zu verbreiten", heißt es in der Studie "Deepfakes and scientific knowledge dissemination" des Forschungsteams um Dr. Christopher Joseph Doss. "Wenn man Überlegungen anstellt, wie man Fehlinformationen verbreiten kann, will man am ehesten jene Informationsquellen manipulieren, welche die Leute für vertrauenswürdig halten", sagt Doss gegenüber "Nature" über die Anwendung von Deepfakes mit Wissenschaftlerinnen und Wissenschaftlern. Desinformationen zu MINT-Themen wie Klimawandel oder Impfstoffen hätten beispielsweise erhebliche Auswirkungen auf die öffentliche Politik gehabt. 

Ein in Deutschland weit verbreitetes Beispiel aus diesem Bereich sind Audio-Deepfakes der tagesschau, in welchen der Eindruck erweckt wird, die Sendungsverantwortlichen entschuldigten sich für falsche Berichterstattung unter anderem bezüglich Corona und Covid-19-Impfungen. 

Forschende und ihr Bildnis als Gegenstand von Deepfakes 

"Auch Forschende sind durch Deepfakes bedroht. Dies trifft zum einen dann zu, wenn sie eine gewisse Prominenz erreicht haben. Ihr guter Name und ihre Glaubwürdigkeit können dann beispielsweise missbraucht werden, um Menschen zu betrügen und ihnen so das Geld aus der Tasche zu ziehen. Das andere Szenario sehe ich immer dann, wenn Forschende an kontroversen gesellschaftlichen Debatten beteiligt sind", fasst Alexander Godulla, Professor of Empirical Communication and Media Research an der Universität Leipzig, im Austausch mit "Forschung & Lehre" die Gefahrenlage für in der Wissenschaft Tätige zusammen. 

"Auf diese Weise kann der Versuch unternommen werden, sie zu diskreditieren und so aus dem Diskurs zu drängen."
Alexander Godulla, Professor of Empirical Communication and Media Research, Universität Leipzig

In diesem Fall könnten Deepfakes gezielt genutzt werden, um diesen Wissenschaftlerinnen und Wissenschaftlern Dinge in den Mund zu legen, die sie so nie gesagt hätten. "Auf diese Weise kann der Versuch unternommen werden, sie zu diskreditieren und so aus dem Diskurs zu drängen", so Godulla. 

Da ist beispielsweise die renommierte Urologin, die sich selbst als Testimonial in einer Facebook-Werbung für ein Mittel zur Behandlung erektiler Dysfunktion wiederfindet; oder der Diabetes-Forscher, der in mehreren Deepfake-Videos in einer Sprache für gefälschte Medikamente wirbt, die er nicht einmal spricht, – von diesen Fällen berichtete "Nature" Anfang August. Es sei nicht nur ein großer Reputationsschaden für die beiden Forschenden entstanden, sondern es seien auch Personen nachweislich (finanziell) geschädigt worden. 

Claudia Otte, Beraterin bei der gemeinnützigen Organisation "HateAid", die sich für Menschenrechte im digitalen Raum einsetzt und Betroffene unterstützt, berichtet auf Anfrage von "Forschung & Lehre" über die Folgen von Desinformationskampagnen mittels Deepfakes für die Personen, deren Abbild missbraucht wurde: "Desinformationskampagnen und Verleumdungen durch Deepfakes können bei Betroffenen einen immensen Schaden anrichten. Sie machen es einerseits noch einfacher, Aussagen, Handlungen und wissenschaftliche Inhalte zu verzerren oder vollkommen falsch darzustellen. Andererseits können insbesondere auch sexualisierte Deepfakes dazu genutzt werden, Betroffene zu diskreditieren oder unter Druck zu setzen."

Auswirkungen von Deepfakes auf Kriminalität und Strafverfolgung 

Wie oft werden Menschen in Deutschland Opfer eines Deepfakes – entweder als Subjekt oder Zielperson einer Straftat unter Verwendung der Technik? Was weiß man über die Täterinnen, Täter und Opfer? "Zahlen über Straftaten im Bereich Deepfakes – beispielsweise im Bereich des Urheberrechts oder beim Verstoß gegen das Recht am eigenen Bild – liegen auf Basis der Polizeilichen Kriminalstatistik (PKS) hier leider nicht vor", erläutert eine Sprecherin des Bundeskriminalamtes (BKA) gegenüber "Forschung & Lehre". In der PKS würden die Fälle in der Regel unter dem jeweiligen verwirklichten Straftatbestand erfasst. "Weitergehende Informationen dazu, ob bei den jeweiligen Fällen eine Medienmanipulation vorlag, ist nicht Gegenstand der Erfassung", so die BKA-Sprecherin weiter. 
Bei Betrachtung dieser unzufriedenstellenden Auskunft scheint es erwägenswert, aus dem Phänomen "Deepfake" zukünftig eventuell eine Art "Tat-Instrument-Kategorie" oder Filter-Schlagwort für die PKS-Datenbank zu generieren. 

"Fotos und Videos sind wichtige Informationen für die Polizeiarbeit und Beweismittel vor Gericht. Doch was wäre, wenn diese Medien künstlich erzeugt und so angepasst werden könnten, dass sie Ereignisse zeigen, die nie stattgefunden haben, Ereignisse falsch darstellen oder die Wahrheit verdrehen?", heißt es warnend im Beobachtungsbericht des Europol Innovation Lab "Rechtsdurchsetzung und die Herausforderung von Deepfakes", der Anfang des Jahres veröffentlicht wurde. Mit der zunehmenden Zahl von Deepfakes werde laut Europol das Vertrauen in Behörden und offizielle Fakten untergraben. Expertinnen und Experten würden befürchten, dass dies zu einer Situation führen könnte, in der die Bevölkerung keine gemeinsame Realität mehr habe oder gesellschaftliche Verwirrung darüber entstehe, welche Informationsquellen zuverlässig seien – dies werde manchmal als "Informationsapokalypse" oder "Realitätsapathie" bezeichnet. Der Einschätzung von Europol folgend, ist das neue KI-Gesetz der EU ein wichtiger Regulierungsrahmen, um auch dem Phänomen Deepfakes zu begegnen. 

Dr. Murat Karaboga, Autor der Deepfake-Studie am Fraunhofer ISI, leitet als eine von vier Handlungsempfehlungen aus den Studienergebnissen ab, dass der Staat dringend die Bestrebungen nach Plattformregulierungen, die auch eine Löschung oder Sperrung gemeldeter Deepfakes sowie ein Meldesystem rechtswidriger Inhalte inklusive entsprechender Transparenzvorgaben umfassen, vorantreiben müsse – der Digital Services Act (DSA) der Europäischen Union sei ein erster Schritt in diese Richtung. Das Bundesministerium für Bildung und Forschung (BMBF) zitiert in einer Broschüre zu Fake News Torben Klausa als Forscher zu Plattformregulierung an der Universität Bielefeld mit der Aussage, dass mit dem DSA europaweit eine gute Balance gefunden worden sei zwischen Meinungsfreiheit und der Regulierung von Desinformation. 

Deutsche Gerichte seien bezüglich digitaler Beweismittel sehr nachlässig in der Echtheitsprüfung und müssten sensibler für Manipulationsversuche werden, so Rechtswissenschaftler und Cybercrime-Experte Dr. Christian Rückert im Gespräch mit Legal Tribune Online (LTO). Es gebe laut LTO bereits Fälle, in welchen beschuldigte Personen vorgaben, dass Bild- und Videobeweismittel Deepfakes seien – so geschehen vergangenes Jahr in einer Klage gegen Tesla-Chef Elon Musk vor einem Gericht in Kalifornien. 

"Viel zu oft werden Verfahren eingestellt und Betroffene auf die Privatklage oder das Zivilrecht verwiesen."
Claudia Otte, Beraterin bei "HateAid"

Dass die Strafverfolgung noch lückenhaft ist, ist auch die Einschätzung der Expertin von HateAid. Gründe seien beispielsweise die Anonymität der Nutzerinnen und Nutzer. Zwar habe der Gesetzgeber in einigen Bereichen wie Vergewaltigungsandrohungen, Feindeslisten und bei der Nachstellung mit Fake-Profilen nachgebessert. Dennoch gebe es weiterhin Schutzlücken, etwa bei sexualisierten Deepfakes: "Diese sind in Deutschland rechtlich nicht explizit geregelt. In vielen Fällen gehen sie zwar mit anderen Straftaten wie etwa Erpressung, Nötigung oder Verleumdung einher. Das Problem wird aber immer nur in Teilaspekten erfasst", erläutert Claudia Otte. HateAid setze sich dafür ein, dass Strafanzeigen bei digitaler Gewalt konsequenter verfolgt würden. "Viel zu oft werden Verfahren eingestellt und Betroffene auf die Privatklage oder das Zivilrecht verwiesen. Dabei ist digitale Gewalt im öffentlichen Raum Internet keine Privatsache und muss auch strafrechtlich konsequent verfolgt werden!", so Otte. 

Immerhin hat sich bereits das Bundesverfassungsgericht mit dem Phänomen Deepfakes beschäftigt. Laut einer aktuellen Kurzinformation des Wissenschaftlichen Dienstes des Bundestages zur rechtlichen Regulierung von Deepfakes gehe es dabei um die Abwägung von Grundrechten, beispielsweise das allgemeine Persönlichkeitsrecht, die Informationsfreiheit oder die Freiheit von Kunst und Wissenschaft. Als Abwägungskriterium habe die Gerichtsentscheidung angeführt, dass der Schutz des allgemeinen Persönlichkeitsrechts umso geringer sei, je leichter sich die Manipulation erkennen lasse. Je weniger offensichtlich sich die Manipulation hingegen darstelle, desto schwerer wiege das allgemeine Persönlichkeitsrecht des Betroffenen und desto weniger könne sich der Verbreitende auf eine schutzwürdige Rechtsposition wie beispielsweise Meinungs- oder Kunstfreiheit berufen. Neben zivilrechtlichen Ansprüchen gegen den Verbreiter eines Deepfakes könne laut Wissenschaftlichem Dienst eine Strafbarkeit vor allem nach dem Strafgesetzbuch vorliegen, etwa bei Beleidigungsdelikten – insbesondere Verleumdung. 

In einer weiteren Publikation des Wissenschaftlichen Dienstes zum Sachstand bezüglich der straf- und zivilrechtlichen Implikationen von Deepfakes wird darüber hinaus als Delikt "üble Nachrede" aufgeführt, "insoweit mit dem Deepfake in Beziehung auf einen anderen eine Tatsache behauptet oder verbreitet wird, welche denselben verächtlich zu machen oder ihn in der öffentlichen Meinung herabzuwürdigen geeignet ist." Ein Delikt, von welchem auch manche Forschende bereits betroffen waren und sind. Das Fazit des Sachstandberichts ist ernüchternd: "(…) wird jedoch mit Blick auf die Rechtsanwendungspraxis nicht nur vereinzelt betont, dass dieser geltende Rechtsrahmen nicht vollauf geeignet sei, um dem digitalen Phänomen missbräuchlicher Deepfakes in praxi hinreichend zu begegnen". Es würden zwar bereits verschiedene Reformvorschläge gemacht, doch es sei auch Skepsis spürbar, ob mit jenen eine spürbare Verbesserung in der Behandlung von Deepfakes erreicht werden könne.

Themen-Schwerpunkt "Künstliche Intelligenz"

Künstliche Intelligenz greift zunehmend in das alltägliche Leben ein. Welche Chancen und Risiken birgt dies? Woran arbeitet die KI-Forschung? Welche Folgen hat KI in der Lehre? Ausgewählte Artikel zum Thema finden Sie im Schwerpunkt "Künstliche Intelligenz".

Sich schützen und im Schadensfall Unterstützung bekommen 

"Sobald Fotos, Stimmaufnahmen oder gar Videos von einer Person verfügbar sind, lassen sich auch sehr einfach Deepfakes von ihr herstellen. Einen echten Schutz würde im Prinzip nur völlige digitale Abstinenz bieten", fasst Deepfake-Experte Godulla ernüchtert die Optionen zusammen, sich selbst davor zu schützen, selbst zum "Subjekt" eines Deepfakes zu werden. "Die Vorteile einer aktiven Kommunikation wiegen gerade auch für Forschende jedoch deutlich höher als die möglichen Nachteile durch Deepfakes", schlussfolgert er. 

"Die Vorteile einer aktiven Kommunikation wiegen gerade auch für Forschende jedoch deutlich höher als die möglichen Nachteile durch Deepfakes."
Alexander Godulla, Professor of Empirical Communication and Media Research, Universität Leipzig

Nach Einschätzung von Betroffenen-Beraterin Claudia Otte ist es tatsächlich so dass, sobald es Bilder einer Person im Internet gibt, ein wirklich effektiver Schutz vor Deepfakes nicht möglich ist. Hilflos sei man aber nicht: "HateAid kann zum Beispiel mit psychosozialer Beratung unterstützen. Man kann solche Vorfälle auch bei der Plattform melden oder mit anwaltlicher Unterstützung rechtlich dagegen vorgehen." Präventiv sehe sie gesellschaftliche Resilienz und Medienkompetenz als wirksame Mittel. "Wir müssen Desinformation und Deepfakes benennen und erkennen, um effektiv dagegen vorgehen zu können." 

Die Polizei NRW rät in ihren Deepfake-Präventionshinweisen zu einer gesteigerten kritischen Bewertung von digitalen Inhalten. Sei man selbst betroffen, so gelte es, nicht übereilt zu reagieren – beispielsweise mit Geldzahlungen. Es wird zur Beweismittelsicherung geraten: "Erstellen Sie im Falle einer Sie betreffenden Veröffentlichung von den Inhalten einen oder mehrere aussagekräfte Bildschirmdrucke ('Screenshots'). Achten Sie darauf, dass Datum und Uhrzeit erkennbar sind." Gebe es einen Nutzer- oder Account-Namen einer tatverdächtigen Person, so solle man auch dies dokumentieren. Der nächste Schritt sei die Meldung beim Internetportal, wo der Deepfake verbreitet worden sei. Bei einer strafbaren Handlung sollte auch direkt die Polizei informiert werden. Auf dem "Opferschutzportal NRW" seien zudem Hilfsangebote der Beratungsstellen aufgeführt. 

Chancen und positiver Einsatz von Deepfake-Technologien 

Dass Deepfakes mehr als nur Risiko und Desinformation sein können, zeigt die Fraunhofer ISI-Studie in ihren Analysen und Einschätzungen zu den potenziellen positiven Aspekten: "Chancen von Deepfakes ergeben sich auf Basis dieser Analyse vor allem in den Bereichen Unterhaltung, Bildung sowie Werbung und kommerzielle Nutzung", heißt es zusammenfassend. Der Rückgriff auf Deepfake-Technologien in diesen Bereichen könne neue Unterhaltungsangebote schaffen, Fankultur unterstützen und damit auch die Kundenbindung stärken, Kosten- und Zeiteinsparungen bewirken, neue satirische Unterhaltungsangebote schaffen, Schutz von Minderheiten und Identitäten ermöglichen, zur Verbesserung von Bildungsangeboten genutzt werden und zur Steigerung der Lernmotivation führen oder zur Stärkung der Medienkompetenz beitragen. 

Deepfake-Experte Godulla führt auf Anfrage von "Forschung & Lehre" ganz konkrete positive Anwendungsfälle für Forschende auf: "Die Chancen durch legale Deepfakes sind für Forschende groß. Beispielsweise kann man schon jetzt ohne großen Aufwand Deepfakes von sich selbst herstellen, in denen man mit der eigenen Stimme Sprachen spricht, die man eigentlich gar nicht beherrscht. Dies eröffnet neue Möglichkeiten in der interkulturellen Kommunikation und wird in absehbarer Zeit auch für Vorträge in Echtzeit möglich sein." Auch in der Lehre ließen sich Deepfakes einsetzen, etwa in Lehrvideos, in denen man selbst als Avatar digital auftreten könne: "Dieser Avatar kann dann von mir geschriebene Texte vortragen, die ich sonst mühsam vor einer Kamera hätte einsprechen müssen."