

Digitale Werkzeuge
Weitere Fehlerquelle von KI entdeckt
Modelle Künstlicher Intelligenz (KI), die durch unüberwachtes Lernen trainiert wurden, erzeugen falsche Annahmen. Das geschieht, weil sie eigenständig ungeeignete Merkmale als relevant klassifizieren. Zu diesem Ergebnis kommt ein Forschungsteam der Technischen Universität (TU) Berlin. Bei unüberwachtem Lernen findet KI vorher unbekannte Muster in den Eingabedaten. Das kann etwa für die Anomalie-Erkennung relevant sein. Die Forschenden haben in ihrer Studie, die in der Fachzeitschrift "Nature Machine Intelligence" erschienenen ist, eine mögliche Fehlerquelle dieser KI-Modelle untersucht: den sogenannten Kluger-Hans-Effekt.
Bei diesem Effekt scheinen die Modelle zwar zuverlässig zu richtigen Ergebnissen zu kommen, sie tun dies aber aufgrund falscher Annahmen. Das bleibe in klassischen Evaluationsmethoden unbemerkt, könne aber zu schwerwiegenden Fehlern in nachgelagerten Anwendungen führen, etwa in der industriellen Qualitätskontrolle oder der medizinischen Diagnostik.
Kluger Hans
Der Name "Kluger-Hans-Effekt" geht auf ein angeblich rechnendes Pferd zurück, das die richtigen Lösungen für ihm gestellte Aufgaben nur deshalb mit klopfenden Hufen anzeigen konnte, weil er die Körpersprache und Mimik des menschlichen Gegenübers entsprechend interpretierte. Aus den richtigen Antworten wird ihm unterstellt, dass es rechnen kann. Tatsächlich ist dem aber nicht der Fall.
Anomalien anhand fehlleitender Merkmale erkannt
Um das benannte Problem zu adressieren, schlagen Jacob Kauffmann und seine Co-Autoren den Einsatz erklärbarer KI (Explainable AI) vor, um die Entscheidungsfindung der selbstlernenden KI-Modelle nachvollziehen zu können. Insbesondere mit Methoden der schichtweisen Relevanzverteilung (Layer-Wise Relevance Propagation, LRP) könne man identifizieren, welche Merkmale ein KI-Modell nutzt – oder fehlerhaft gewichtet. Als visualisiertes Ergebnis entstehe eine Hitmap, die zeige, welche Eingabebereiche oder Features ausschlaggebend gewesen seien.
Es habe sich herausgestellt, dass das KI-Modell in der Anomalieerkennung nicht nur die relevanten Unregelmäßigkeiten berücksichtige, sondern auch irrelevante Bildbereiche, die mit hoher Frequenz auftreten. Zum Beispiel habe die KI zur Erkennung von Covid-19 infizierten Lungen nicht nur das spezifische Krankheitsbild der Lunge selbst berücksichtigt, sondern auch Notizen am Bildrand. Seien diese beseitigt worden, hätten sich die Detektionsergebnisse drastisch verschlechtert.
Zur Behebung des Problems schlagen die Forschenden beispielsweise vor, im Bereich der Anomalieerkennung eine Art Weichzeichnerschicht einzufügen, um hochfrequente Artefakte zu eliminieren, die sonst von der KI als bedeutsames Merkmal interpretiert werden könnten. Diese Maßnahmen könnten nach Vorstellung der Autoren die Modellrobustheit erheblich verbessern und die Performanceverluste in veränderten Datenumgebungen reduzieren. Sie plädieren in ihren Schlussfolgerungen dafür, das selbstlernende Modell zu optimieren und nicht die nachgelagerten Modelle. Die Optimierung des Ausgangsmodells sei zwar rechenaufwändig, aber deutlich effektiver, da es die Robustheit für alle nachgelagerten Modelle gleichzeitig verbessere.
Reaktionen aus der Wissenschaft auf die Studienergebnisse
"Ganz wichtig ist zu betonen, dass – wie generell beim maschinellen Lernen – keine Methode zur Fehlerbehebung zu 100 Prozent funktioniert", betont Professor Marcus Liwicki, Vizerektor für künstliche Intelligenz und Leiter der Forschungsgruppe maschinelles Lernen an der schwedischen Luleå University of Technology gegenüber "Science Media Center" (SCM). Die vorgeschlagenen Korrekturansätze zeigten, dass die Resultate nur ein bis drei Prozent besser würden und dann je nach Experiment bei 83 beziehungsweise 92 Prozent landeten. Die vorliegende Studie sei aber ein wichtiger Schritt zur Problemlösung. "Der Fokus dieser Arbeit und der Vergleichsarbeiten ist jedoch auf vollautomatischen Ansätzen. In der Praxis ist die wichtigste Methode 'Human-centered' oder 'Human-in-the-loop'; was heißt, dass der Mensch im Zentrum ist und bei der Auswertung und Analyse einbezogen wird", führt Liwicki weiter aus. Man verwende erklärbare KI-Modelle und schaue sich alles mit Expertenwissen genauer an.
Nach Meinung von Professor Björn Ommer, Leiter der Computer Vision & Learning Group an der Ludwig-Maximilians-Universität München (LMU), können die in der Studie dargestellten Ansätze zur Entdeckung von Scheinkorrelationen dazu beitragen, potentiell instabile Merkmale in KI-Modellen frühzeitig zu erkennen und somit die Zuverlässigkeit der Modelle in der Praxis zu verbessern. Bei der Implementierung von KI in kritischen Bereichen wie Medizin, Bildung und Sicherheit würden drei Herausforderungen besonders hervortreten: Verzerrungen ('Bias') in den zugrundeliegenden Daten, die zu verzerrten Entscheidungen durch die KI führten, Datenschutzprobleme sowie die mangelnde Nachvollziehbarkeit von KI-Entscheidungen. "Hier bieten erklärbare KI-Modelle, nachgeschaltete Erklärungsmethoden oder hybride Ansätze, die KI mit regelbasierten Systemen kombinieren, mögliche Lösungen", bestätigt Ommer.
cva