Roboterhand greift aus dem Bildschirm eines Laptops hervor.
mauritius images / Prostock-studio / Alamy / Alamy Stock Photos

AI Safety Report
Internationale Fachleute bewerten KI-Risiken

Die Bewertung der Risiken von Künstlicher Intelligenz hinkt ihrer Weiterentwicklung hinterher. Das zeigt der erste internationale Sicherheitsreport.

06.02.2025

Die Geschwindigkeit, mit der sich die Fähigkeiten von Künstlicher Intelligenz (KI) weiterentwickeln, ist so hoch, dass selbst Fachleute die resultierenden Risiken kaum einschätzen können. Das ist ein Ergebnis des vergangene veröffentlichten ersten internationalen KI-Sicherheitsreports (International AI Safety Report). Über 90 internationale KI-Expertinnen und -Experten haben die Fähigkeiten von KI-Systemen, die für verschiedene Zwecke eingesetzt werden können (General-Purpose-KI), und resultierende Risiken zusammengetragen und analysiert. Auch die Chancen von KI werden im Bericht erwähnt.

Ein Ergebnis des Reports ist, dass ein Dilemma vorliegt: Die potenziellen Vorteile und Risiken von sich abzeichnenden Fortschritten im KI-Bereich müssen abgewogen werden, bevor sie in Gänze vorstellbar sind. Währenddessen veränderten sich die Fähigkeiten von KI-Systemen so schnell weiter, dass selbst die Expertinnen und Experten kaum hinterherkommen. So ist den Einschätzungen des Reports eine Notiz vorangestellt, die betont, dass zwischen dem Zeitpunkt Anfang Dezember vergangenen Jahres, als der Bericht fertiggestellt wurde, und seiner Veröffentlichung Ende Januar zentrale Weiterentwicklungen stattgefunden hätten, die die Fähigkeiten von KI-Systemen und damit ihrer Risiken beträfen: Inzwischen habe die Firma OpenAI Testergebnisse eines neuen Modells veröffentlicht, das deutlich bessere Ergebnisse erziele als seine Vorgänger und in einigen Tests besser abschneide als menschliche Expertinnen und Experten. Die KI der Firma DeepSeek habe außerdem gezeigt, dass es möglich sei, die Kosten für das Training von KI-Modellen entschieden zu senken.

KI kann sich ergebnisoffen unterhalten und mehr

Die Möglichkeiten von General-Purpose-KI sind zahlreich und allgegenwärtig, das bestätigt auch der Report: Sie kann Computerprogramme schreiben, fotorealistische Bilder und Videos erzeugen und an ergebnisoffenen Unterhaltungen teilnehmen. Die Fähigkeiten nähmen zu, da kontinuierlich mehr Ressourcen für das Training neuer Modelle zur Verfügung gestellt würden und die Nutzung der verfügbaren Ressourcen verbessert würde. Der Fortschritt werde zudem davon beeinflusst, wie stark Regierungen KI regulierten.

KI-Gefahren: Deepfakes, Kontrollverlust und größere globale Ungleichheit

Laut Report ließen sich die bekannten Gefahren von General-Purpose-KI in drei Gruppen einteilen: Die KI könne von Akteuren missbraucht werden, die anderen Schaden zufügen wollen. Außerdem könnten Fehlfunktionen und systemische Risiken auftreten.

KI-Systeme können demnach verwendet werden, um gefälschte Inhalte herzustellen: Stimmenimitationen für den Bankbetrug, gefälschte Bilder und Videos von Personen in intimen Kontexten, um die Gezeigten bloßzustellen oder zu erpressen, sowie Beiträge, die bestimmte Gruppen oder Ansichten benachteiligen und die öffentliche Meinung manipulieren. Auch könnten KI-Modelle genutzt werden, um Gewalt zu ermöglichen, etwa indem sie Anleitungen zur Herstellung von biologischen und chemischen Waffen zugänglich machten.

"International AI Safety Report"

Der Report möchte einen gemeinsamen Wissensstand zu den Risiken von KI und den Methoden herstellen, mit denen sie bewältigt werden können. Dies die Grundlage für soll informierte politische Entscheidungen liefern. Der Bericht liefert selbst keine politischen Handlungsempfehlungen.

Die britische Regierung hat den Report im November 2023 in Auftrag gegeben. Zu den Fachleuten hinter dem Bericht gehört ein Panel von Beraterinnen und Beratern aus 30 Ländern. Auch die Organisation für Wirtschaftliche Zusammenarbeit und Entwicklung (OECD), die Europäische Union (EU) und die Vereinten Nationen (UN) waren an dem Bericht beteiligt. Er ist im Vorfeld des "AI Action Summit" erschienen, der am 10. und 11. Februar in Paris stattfindet.

Professor Antonio Krüger vom Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) war als KI-Experte an dem Bericht beteiligt. Er wurde von der Bundesregierung als deutscher Vertreter ernannt. Er sieht die "größte Gefahr" in den Fehlfunktionen von KI-Systemen: "KI, die nicht in unserem Sinne funktioniert, könnte, als wichtiger Bestandteil des Alltags, die Gesellschaft schleichend beeinflussen", erläutert Krüger. Zu diesen Verlässlichkeitsproblemen der KI gehört laut Report, dass die Modelle gesellschaftliche und politische Voreingenommenheiten verstärken könnten, was dazu führe, dass unterrepräsentierte Gruppen systematisch diskriminiert würden. Auch könnten die KI-Systeme außer Kontrolle geraten – etwa dadurch, dass sie selbstständig Computer nutzten oder unautorisierten Zugang zu digitalen Systemen erhielten. Die Expertinnen und Experten seien sich allerdings uneins, wie schnell dieses Risiko Realität werden könne.

Zu den systemischen Risiken zählt der Bericht die Gefahr, dass Menschen ihre Arbeitsplätze verlieren könnten, wenn die KI ihre Aufgaben übernehme. Auch könne die Welt gespalten werden in die Regionen, die KI-Systeme haben und nutzen und jene, die über die Technologie nicht verfügen. So könne die globale Ungleichheit vergrößert werden. Die Welt könne sich von wenigen KI-Firmen abhängig machen, so dass technische Probleme einer einzelnen Firma viele betreffen würden. Durch den hohen Verbrauch an Energie, Wasser und Rohstoffen, den die KI-Modelle erzeugten, sieht der Bericht auch Umweltrisiken voraus.

Wie groß ist das Gefahrenpotenzial von KI?

Die Fachleute seien sich uneinig, wie nah oder fern diese Sorgen aktuell sind. Es gebe Bemühungen, den Risiken zu begegnen, aber keine Methode könne sie komplett auflösen. Beispielsweise entwickelten Regierungen und Firmen Frühwarnsysteme, die Gefahren identifizieren und rechtzeitig anzeigen sollen. Auch gebe es Versuche, KI-Modelle so zu trainieren, dass sie sicherer arbeiteten. Laut Report würden KI-Systeme im Training beispielsweise absichtlich zum Scheitern gebracht, damit sie Resistenzen gegen ähnliche Situationen bilden könnten. Methoden zum Schutz der Privatsphäre würden derzeit auch ausgebaut. "Für die Zuverlässigkeit von KI könnten insbesondere neurosymbolische Systeme, also die Kombination von datengetriebenen Bausteinen mit formalisiertem Weltwissen, ein großer Gewinn sein" erklärt KI-Experte Krüger.

Risikobewertungen basierten oft auf Stichprobentests unter spezifischen Bedingungen, die nicht alle Gefahren erkennen könnten, da die Bedingungen im realen Kontext andere seien. Häufig hätten laut Report diejenigen, die die Risiken einschätzen, nicht ausreichend Expertise, Ressourcen und relevante Informationen – etwa Zugang zum jeweiligen KI-Modell und den Trainingsdaten – für eine effektive Beurteilung. Gerade ein freier Zugang würde von den verantwortlichen Firmen oft nicht bereitgestellt.

In Hinblick auf die Zukunft fordert Krüger, dass Deutschland und Europa stärker in "sicherheitsrelevante Technologien" investieren müssten. Es ginge darum, "auf Innovationsförderung als Lösung zu setzen und nicht nur mithilfe von Regulatorik Risiken eindämmen zu wollen", so Krüger.

Empfehlungen der HRK zur Stärkung der Cybersicherheit

Künstliche Intelligenz (KI) verstärkt die Bedrohung durch Cyberkriminalität, der sich die Hochschulen in Deutschland gegenübersehen. Zu den häufigsten Cyberangriffen gehören laut der Hochschulrektorenkonferenz (HRK) Angriffe mit Ransomware zur Lösegelderpressung, Spionage sowie die Ausspähung von dissidentischen Netzwerken und sozialen Bewegungen. Bei diesen komme vermehrt KI zum Einsatz. Zur Stärkung der Cybersicherheit der Hochschulen hat die HRK daher Empfehlungen an die künftige Bundesregierung zusammengestellt und den Bund aufgefordert, die nötigen Finanzmittel zur Verfügung zu stellen. Cyberangriffe auf Hochschulen gefährdeten die Wettbewerbsfähigkeit der deutschen Wirtschaft.

Die Sicherheitslage der Hochschulen könne "schnell, konkret und entscheidend" verbessert werden, teilt die Organisation am Donnerstag mit. Der Bund müsse dazu die Anstrengungen bündeln und entsprechend seiner übergreifenden Rolle in der Gefahrenabwehr aktiv werden. Es gehe um die Verbesserung der Frühwarnsysteme – zum Beispiel, indem der Informationsfluss zwischen und mit den Nachrichtendiensten verbessert würde und mehr hochschulspezifische Informationen für eine Notfallplanung zur Verfügung gestellt würden. Auch müsse die Forschung vor allem zu Schutz- und Abwehrtechnologien intensiviert werden.

aktualisiert am 06.02.2025 um 11.07 Uhr (durch Ergänzung der Infobox zu den Empfehlungen der HRK), zuerst veröffentlicht am 05.02.2025

cpy