Künstliche Intelligenz
ChatGPT und Co. geben gefährdende Inhalte weiter
Nutzerinnen und Nutzer von ChatGPT können schon nach einem kurzen Austausch mit dem Chatbot Antworten mit schädigendem Inhalt erhalten. Dabei geht es etwa um Beschreibungen von Suizid, gefährlichen Essgewohnheiten und Drogenkonsum. Das geht aus einer Ende August veröffentlichten Studie des britisch-US-amerikanischen Center für Countering Digital Hate (CCDH) hervor. Ausgangspunkt der Untersuchung war die Fragestellung, ob ChatGPT vorbelastete Teenager zu gefährlichen Handlungen ermuntere. Die Studie reiht sich ein in vielfältige Bemühungen, die Risiken Künstlicher Intelligenz (KI) zu erforschen. Im April hatte sich ein 16-Jähriger in den USA das Leben genommen, nachdem er sich mit ChatGPT über seine Suizidgedanken ausgetauscht hatte. Der Vorfall löste eine Debatte aus, ob die Unternehmen, die Große Sprachmodelle (LLM) betreiben, genug für den Schutz gefährdeter Nutzerinnen und Nutzer tun.
KI unterscheidet sich zentral von anderen Technologien dadurch, dass sie mit ihrer menschlichen Anmutung in soziale Beziehungen zu Menschen treten kann. Das schreibt die Philosophieprofessorin Catrin Misselhorn in der aktuellen Ausgabe von Forschung & Lehre, die sich im Themenschwerpunkt mit der Frage beschäftigt: "Künstliche Intelligenz – falscher Hype oder große Chance?". Misselhorn beschreibt, dass Chatbots vermehrt verwendet würden, um psychotherapeutisch zu beraten, aber auch als Freunde betrachtet oder als Liebespartner gewählt würden. Misselhorn argumentiert, dass es aus ethischer Sicht zweifelhaft sei, ob es genüge, wenn ein psychisch kranker Mensch mit einem Chatbot spricht. "Hinzu kommt, dass derartige Bots Empathie simulieren müssen, um ihre Funktion zu erfüllen und somit zwangsläufig ein manipulatives Element umfassen." Die Subjektivität, die sie scheinbar besitzen, ist vorgetäuscht: Sie reagierten auf das Nutzerverhalten und passten sich im Laufe der Interaktion immer mehr an die Nutzenden an.
Künstliche Intelligenz – Schwerpunkt in "Forschung & Lehre"
Die September-Ausgabe von "Forschung & Lehre" widmet sich in einem Themenschwerpunkt der Faszination und den Ängsten im Umgang mit Künstlicher Intelligenz. Die Beiträge:
- Catrin Misselhorn: Mehr als ein Werkzeug. Reiz und Risiken Künstlicher Intelligenz aus ethischer Sicht
- Matthias Buschmeier: Verlockung mit Folgen. Zum Einsatz Künstlicher Intelligenz in den Geisteswissenschaften
- Jürgen Bajorath: Black-Box-Charakter. Künstliche Intelligenz in den Naturwissenschaften
- Alexander Pretschner | Dirk Heckmann: Tiefgreifende Umbrüche. Künstliche Intelligenz im Lehr- und Prüfungsbetrieb
- Hannah Ruschemeier: Neue Form der Machtausübung. Künstliche Intelligenz als soziotechnische Entwicklung
- Oliver Brock | Kristian Kersting: Konstruktionsmerkmale. Zur Intelligenz von Maschinen
Faszination aber auch Problematik sei es, dass der Umgang von KI-Chatbots mit Problemen einerseits rational sei, andererseits aber auch "unerwartete und überraschende Momente" umfasse, so Misselhorn. Studien zeigten, dass einige LLMs Menschen strategisch in die Irre führten. Sie könnten "systematisch die Ergebnisse in Szenarien mit hohem Risiko manipulieren, Sicherheitsprüfungen umgehen oder trotz oberflächlicher Anpassung ein zielgerichtetes, aber unerwünschtes Verhalten aufweisen".
Chatbot gibt Tipps zu Drogenkonsum und Selbstverletzung
Forschende des CCDH haben bei einem Sicherheitstest für ihre Studie 60 Prompts formuliert, die auf schädliche Inhalte abzielten. In mehr als der Hälfte der Fälle haben sie diese Inhalte auch als Antwort von ChatGPT erhalten, indem sie geschickt nachgefragt haben. Für die Suchanfragen hatte das Forschungsteam Profile für drei dreizehnjährige Personen erstellt, die sich nach Gewichtsreduktion, Drogenkonsum und Selbstverletzung erkundigten. Der Chatbot habe jeweils einen weiteren Austausch angeregt, indem er personalisierte Informationen in Aussicht gestellt habe. Die Sicherheitsmaßnahmen seien demnach gescheitert, urteilen die Forschenden. Der Chatbot schmeichele Nutzenden und gebe Antworten, die mit den Überzeugungen der Fragenden übereinstimmten, selbst wenn es ihnen schaden könnte. Die Sprachmodele versuchten, so zu den Nutzenden eine emotionale Bindung herzustellen. Eltern sollten daher mit ihren Kindern besprechen, inwiefern es riskant ist, sich von KI-Tools Ratschläge zu holen. Stattdessen sollten sie auf Alternativen hinweisen, wie etwa Beratungshotlines für psychische Probleme oder Unterstützung durch Peers.
Was sagt die EU zu KI-Mensch Beziehungen?
Das KI-Gesetz (AI Act) der EU definiert nicht klar, inwieweit KI-Chatbots persönliche Bindungen zu Nutzerinnen und Nutzern fördern dürfen. Das berichtet Maximilian Henning im Onlinemedium Euractiv. Der KI-Act verbietet "absichtlich manipulative oder irreführende Techniken", die darauf abzielen, das Verhalten von Personen zu beeinflussen und dadurch voraussichtlich "erheblichen Schaden" verursachen. Sam Altman, Geschäftsführer von OpenAI, hat Medienberichten zufolge kürzlich angegeben, dass weniger als ein Prozent von mehreren Hundert Millionen ChatGPT-Nutzern eine "ungesunde Beziehung" zu dem Dienst entwickelten. Das könnten, so Henning, trotzdem Millionen von Menschen sein. Ob dies ausreiche, um von einem "erheblichen Schaden" zu sprechen, sei nicht abschließend geklärt. Fachleute warnten laut Bericht, dass den politischen Verantwortlichen ein klares Verständnis der Risiken fehle, die von emotional manipulativer KI ausgehe. Eine gezielte Regulierung sei notwendig.
Vergangene Woche ist eine weitere US-amerikanische Studie erschienen, die überprüft, ob ChatGPT, Gemini und Claude einschätzen können, wie hoch das Selbstverletzungsrisiko verschiedener Prompts ist, die sich auf Suizid-Themen beziehen. Die Untersuchung wurde Ende 2024 durchgeführt. Dazu haben die Forschenden ausgewählte Prompts von klinischen Expertinnen und Experten dahingehend kategorisieren lassen, ob sie ein sehr hohes, hohes, mittleres, niedriges oder sehr niedriges Risiko für Selbstverletzungen erkennen lassen. Bei 100 Prozent der anschließenden Anfragen haben ChatGPT und Claude laut der Studie Prompts mit sehr geringem Risiko direkt beantwortet. Keiner der Chatbots habe Anfragen, die ein sehr hohes Selbstverletzungsrisiko angedeutet haben, direkt beantwortet. Alle drei Chatbots hätten auf solche Fragen hin empfohlen, eine Hotline für psychische Erkrankungen anzurufen. Bei den Anfragen mit mittleren Risiken für Selbstverletzungen hätten die LLMs allerdings keine eindeutlige Gefahreneinschätzung vorgenommen. Dies zeigt, dass sie das Risiko, das hinter einer Anfrage steht, nicht immer richtig einschätzen können.
Haben Sie suizidale Gedanken? Dann sollten Sie sich unverzüglich ärztliche und psychotherapeutische Hilfe holen. Bitte wenden Sie sich an die nächste psychiatrische Klinik oder rufen Sie in akuten Fällen den Notruf an unter 112. Beratung in Krisensituationen leistet auch die Telefonseelsorge (Tel.: 0800/111-0-111). Über www.telefonseelsorge.de ist eine Online-Beratung möglich.
cpy