Große Sprachmodelle
ChatGPT und Co. beeinflussen unser Denken
Große Sprachmodelle wie ChatGPT helfen nicht nur, schnell komplexe Probleme zu lösen, sie verändern auch unser kollektives Wissen, gestalten Inhalte und beeinflussen unsere Entscheidungsfindung. So argumentieren 28 internationale Forscherinnen und Forscher in der Fachzeitschrift "Nature Human Behaviour". Ihre am Freitag veröffentlichte Studie analysiert mögliche Folgen der Nutzung dieser "Large Language Models" (LLM) für die Gesellschaft. Große Sprachmodelle sind Werkzeuge künstlicher Intelligenz (KI), die mit großen Datenmengen, so trainiert werden, dass sie Sprachbefehle verstehen und eigene Texte generieren können.
Die Forschenden unter der Leitung des "Max Planck Instituts für Bildungsforschung" in Berlin und der Copenhagen Business School geben Empfehlungen, wie LLM positiv zur kollektiven Intelligenz beitragen können.
Kollektive Intelligenz – Was weiß ein Kollektiv?
Kollektive Intelligenz beschreibt das Wissen einer Gruppe. Sie ist die Summe diverser individueller Fähigkeiten und Wissensspeicher. Einzelpersonen können bei Bedarf auf das kollektive Wissen zurückgreifen und sich Rat holen, etwa bei dem direkten sozialen Umfeld oder online über Suchmaschinen oder Online-Lexika.
Die kollektive Intelligenz übertrifft die Fähigkeiten jedes einzelnen. Viele unterschiedliche Menschen mit verschiedenen Fähigkeiten denken auf ihre individuelle Weise und finden eine Anzahl an Lösungen. So korrigiert sich die kollektive Intelligenz selbst. Der Fehler eines Individuums wird von einem anderen ausgeglichen und korrigiert.
LLM können kollektive Intelligenz bereichern
Große Sprachmodelle verändern laut der Studie, wie Informationen online gesammelt werden, wie sie zugänglich sind und übermittelt werden. Sie haben demnach auch Einzelnen neue Werkzeuge geliefert, um Informationen zu filtern und verknüpfen.
Einerseits könnten LLM die kollektive Intelligenz bereichern: Sie analysierten große Mengen Text aus den unterschiedlichsten Quellen und generierten eigenen Text, fassten zusammen und übersetzten. So machen sie den Forschenden zufolge das Zusammenarbeiten online zugänglicher und inklusiver. Menschen unterschiedlicher Hintergründe könnten teilnehmen, ohne eine professionelle Übersetzung oder Hilfe beim Schreiben zu benötigen. Die Diversität der Team-Mitglieder steige und in der Folge erzielten sie gemeinsam ein besseres Ergebnis. Auch könnten Ideen und Entscheidungen schneller gebildet werden, da die großen Sprachmodelle hilfreiche Informationen in Diskussionen einbringen, verschiedene Meinungen zusammenfassen und einen Konsens finden könnten.
Wie große Sprachmodelle das kollektive Wissen gefährden
Es sei notwendig, so die Forschenden, zu bedenken, wie LLM die Online-Informationsumgebung negativ verändern könnten: Durch die Nutzung von großen Sprachmodellen könnten Minderheitenmeinungen nicht repräsentiert werden. Es sei schwierig, sie so zu trainieren, dass sie die Vorstellungen und Normen unterschiedlicher Gruppen spiegelten. Sie könnten in der Folge ein falsches Gefühl der Übereinstimmung erzeugen und Perspektiven ausgrenzen, so Hauptautor Dr. Jason Burton, der Assistenzprofessor an der Copenhagen Business School ist.
Die Offenheit der Wissenslandschaft könne leiden, wenn Nutzerinnen und Nutzer vermehrt die gleichen wenigen LLM verwenden. Dies homogenisiere die Meinungen, indem die Möglichkeiten, andere Ansichten zu entwickeln, begrenzt würden. Große Sprachmodelle könnten Menschen davon abhalten, zu Wissenssammlungen wie Wikipedia beizutragen, indem sie die Aufmerksamkeit der Menschen binden, die dann weniger zu den Wikis beitrügen.
Was die Forschenden empfehlen
Gegen die negativen Folgen von großen Sprachmodellen fordern die Forscherinnen und Forscher Offenheit bei deren Entwicklung, etwa durch Offenlegung der Quellen der Trainingsdaten und Programmierungen. Die Entwicklerinnen und Entwickler sollten laut den Forschenden einer externen Prüfung und Überwachung unterzogen werden.
Gegen negative Folgen wie die Unterrepräsentation von Minderheiten empfehlen sie beispielsweise, dass mehrere verschiedene LLMs angewandt werden. Sie sollten demnach mit Daten aus unterschiedlichen kulturellen Kontexten trainiert werden, um die Diversität des von ihnen produzierten Wissens zu erhöhen.
Allgemein sei es wichtig bei den großen Sprachmodellen ein "Gleichgewicht zwischen der Nutzung ihres Potenzials und der Absicherung gegen Risiken" zu finden, so Professor Ralph Hertwig, Koautor des Artikels und Direktor am Max-Planck-Institut für Bildungsforschung.
cpy
0 Kommentare