Zwei junge Männer sitzen vor zwei Bildschirmen, auf welchen Grafiken zu sehen sind. Im Hintergrund hängen Bilder mit Diagrammen.
Uni Bayreuth/Lisa Krüger

Künstliche Intelligenz
"Hypothesen lassen sich in wenigen Sekunden verifizieren"

Viele Forschende, Lehrende und Studierende setzen KI ein. Die Hochschulen entwickeln Regeln, um ihre akademische Integrität zu schützen.

Von Christine Vallbracht 07.02.2024

Universitäten sind zum Handeln gezwungen. Die allgemeine Verfügbarkeit von sogenannten großen Sprachmodellen (LLM) und von trainierten Transformatoren (GPT) wirft Fragen in der Bewertung von akademischen Leistungen auf. An vielen Hochschulen nimmt der aktive Umgang mit KI-Technologien immer mehr Raum ein: im Curriculum, im Einsatz bei Lehrveranstaltungen, als Tools für Studierende. 

Ein Beispiel für ein international-kooperativ angelegtes Projekt zum KI-Wissenstransfer findet laut einer dpa-Meldung aktuell an der Technischen Hochschule Ulm (THU) statt. 24 Studierende aus Südkorea nehmen derzeit an einem KI-Intensivkurs der THU teil. Für die meisten von ihnen ist dies der erste Besuch in Deutschland oder Europa generell. Sie erkunden aktiv die faszinierende Welt der Künstlichen Intelligenz und schlagen dabei eine Brücke zwischen Innovation und kulturellem Austausch. 

"Die praktischen Übungen und der direkte Kontakt zu den Professoren sind in dem Kurs besser als in den koreanischen Vorlesungen", berichten die Studierenden Haneul, Chaerin, Junha und Donggyu einstimmig. Sie lernen, wo und wie sie KI in der realen Welt einsetzen und ihr eigenes ChatGPT programmieren können. "Praxiswissen bekommen die Studierenden in Südkorea erst mit, wenn sie im Berufsleben sind, daher ist der Intensivkurs an der THU wichtig für sie und ihre weitere Ausbildung", unterstreicht Professorin Marianne von Schwerin, Initiatorin des Intensivkurses, die Intention des Programms. 

Die Technologie verstehen und lernen, sie zu steuern 

Doktor Daryoush Daniel Vaziri, Wirtschaftsinformatiker und Leiter der Forschungsgruppe Menschzentrierte Entwicklung KI-basierter Systeme an der Hochschule Bonn-Rhein-Sieg (H-BRS), hält es für essentiell, dass die Menschen die KI-Technologie verstehen und steuern: "Irgendwer muss die KI zum Beispiel kontrollieren und überwachen. Denn die KI ist zwar unfassbar leistungsstark, kennt aber weder Werte noch Moral oder Ethik, sondern nur die Daten, mit denen sie gefüttert wurde. Für einen verantwortungsvollen Umgang mit der Technologie muss ich verstehen, wie diese Systeme funktionieren. (…) Das sind Kompetenzen, die wir unseren Kindern aktuell in der Schule aber noch nicht beibringen. An unserer Hochschule machen wir das jetzt immer häufiger. Die Betriebswirte und Wirtschaftsinformatiker, die wir ausbilden, haben an verschiedenen Stellen immer wieder den Kontakt zu generativer KI, also einer Künstlichen Intelligenz, die Dinge wie zum Beispiel Texte oder Bilder nicht nur versteht, sondern auch komplett neu und auf menschenähnlichem Niveau erstellen kann." 

"Die Betriebswirte und Wirtschaftsinformatiker, die wir ausbilden, haben an verschiedenen Stellen immer wieder den Kontakt zu generativer KI."
Dr. Daryoush Daniel Vaziri, Leiter Forschungsgruppe Menschzentrierte Entwicklung KI-basierter Systeme, H-BRS

Studie mit Fokus auf Chancen und Risiken von KI in der Bildung 

Im Ausschuss für Bildung, Forschung und Technikfolgenabschätzung führten die neuen Tools vor einem Jahr zur Beauftragung einer KI-Anwendungspotenzial-Studie: "Wir brauchen einen umfassenden Überblick über die technischen, ethischen und sozialen Auswirkungen", sagte der Ausschussvorsitzende Kai Gehring (Grüne). Auf Basis der Erkenntnisse der Studie solle diskutiert werden, welche Konsequenzen in der Bildungs- und Forschungspolitik gezogen werden müssten – "von der Schule über die Wissenschaft bis hin zum Weiterbildungssektor". 

Ergebnis war eine im April 2023 veröffentlichte Studie des Büros für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB). Darin heißt es zu positiven Nutzungsmöglichkeiten insbesondere seitens Lernender: "Abgesehen vom automatisierten Erstellen von Texten kann das Programm als Werkzeug bei der Textbearbeitung genutzt werden, also zum Paraphrasieren, zum teilweise auch stilistischen Korrigieren (…), zum Übersetzen, zur Suche nach Synonymen (…). Es kann auch bei der Strukturierung von Themen helfen, Ideen für das eigene Schreiben geben, Aufgaben und Fragen für das Selbstlernen generieren sowie Musterlösungen dazu anbieten." 

Als Risiko sei hier zu sehen, dass wichtige Kompetenzen des Selbstlernens, Fertigkeiten im schriftlichen Ausdruck – die unter anderem für die Persönlichkeitsentwicklung von Bedeutung seien – sowie Kompetenzen der Informationssuche und -bewertung zu kurz kämen. Bei einer zunehmend individuellen, maschinell gestützten Bildung könnten auch weitere Bildungsaufgaben etwa des sozialen Lernens, vernachlässigt werden. 

Die Institutionsperspektive – Entlastung und Belastung zugleich 

Die meisten Hochschulen beschäftigen sich bereits im Rahmen von Veranstaltungen, Workshops, Gremienarbeit und kooperativem Austausch mit dem Umgang mit KI-Technologien. Professor Manfred Krafczyk, Vizepräsidenten für Digitalisierung an der TU Braunschweig, macht gegenüber "Forschung & Lehre“ deutlich, dass es bereits viele Einzellösungen gibt: "Manche Hochschulen beziehungsweise Fakultäten bauen ihre Lehre komplett um, indem beispielsweise Bachelorarbeiten abgeschafft beziehungsweise ersetzt werden. Andere versuchen, KI-Werkzeuge in die bestehenden Curricula möglichst reibungsarm zu integrieren. Dies resultiert in einer nicht unerheblichen Schwierigkeit, belastbare Empfehlungen über entsprechende Dachorganisationen (HRK, EUA etc.) zu verabschieden, die dann notwendigerweise relativ allgemein bleiben." 

“Manche Hochschulen beziehungsweise Fakultäten bauen ihre Lehre komplett um, indem beispielsweise Bachelorarbeiten abgeschafft beziehungsweise ersetzt werden."
Manfred Krafczyk, Vizepräsidenten für Digitalisierung, TU Braunschweig

Aus Sicht der Hochschulen sind KI-basierte Chatbots relativ problemlos bei der Erfüllung von Verwaltungsaufgaben einsetzbar. Die TAB-Studie regt darüber hinaus an, "Angebote wie die Rekrutierung neuer Studierender, die Studienberatung oder Informationen über das Campusleben durch den Einsatz von Chatbots (zu) unterstützen. KI-Modelle zur Sprachverarbeitung lassen sich zu Erstellung von Veranstaltungshinweisen, von Kursbeschreibungen sowie von Anerkennungsverfahren einsetzen." 

Risiken werden seitens TAB auf der Ebene Datenschutz sowie Benachteiligung und Diskriminierung gesehen. Hochschulen hätten bislang zwei Wege, um das Datenschutzproblem zu umgehen: Es würde der Zugang einer Lehrperson beziehungsweise ein Zugang mit fiktiven Nutzungsdaten genutzt oder es würde ein Drittanbieter dazwischengeschaltet, der die Konten einrichtet und "deren Daten gesetzeskonform verarbeitet und nicht an OpenAI weitergegeben werden". 

ChatGPT kann laut Studie den Lehrpersonen assistieren – aber nicht bewerten 

Aus der Perspektive von Lehrpersonen ist in der TAB-Studie unter anderem von Potentialen für die Erleichterung bei Kommunikationsaufgaben sowie bei der Verbesserung der Lehre die Rede: "Lehrende können mithilfe von ChatGPT (…) die Lehrveranstaltungen planen beziehungsweise Anregungen dafür erhalten. Aufgaben zu einem gegebenen Thema können vorgeschlagen und Materialien dazu erstellt werden (zum Beispiel Impulse, Fragen, Beispiele, Quizze oder Anregungen)." 

Darüber hinaus könnten KI-Tools auch dabei helfen, Texte auf unterschiedlichem Kompentenzniveaus zu erstellen und damit Inklusion zu fördern. Bei einigen Fächern sei sogar die Einsetzung der Tools während der Lehrveranstaltung denkbar, wie beispielsweise in den Sprachwissenschaften oder in gesellschaftswissenschaftlichen Fächern. Die Bewertung von Leistungen durch KI-Modelle werde allerdings bezüglich des "bisherigen Entwicklungsstands" als nicht möglich angesehen. 

Die KI als Gegenstand der Lehre 

KI-Modelle wie ChatGPT seien laut TAB zudem selbst Gegenstand der im Bildungsprozess zu vermittelnden Kompetenzen wie Recherchefertigkeiten, Bewertung von Quellen oder die effiziente Nutzung der Technologien. Während das eigene Wissen weiterhin zur Beurteilung von Informationen wichtig bleibe, gewinne die Fähigkeit zur Anwendung von Wissen laut der Studie zunehmen an Bedeutung. 

KI-Technologie erfordert neue Prüfungskultur 

Was das Prüfen von Erlerntem angeht, sieht das TAB-Projektteam, Dr. Steffen Albrecht und Christoph Revermann, die Hochschulen vor großen Herausforderungen. Plagiatserkennung-Software sei noch nicht zuverlässig genug. Dies bestätigt auch der Ende letzten Jahres in der "Internationalen Zeitschrift für Bildungsintegrität" (International Journal for educational Integrity) veröffentlichte Forschungsartikel "Testen von Erkennungs-Tools für KI-generierten Text". Die Forschenden kamen in Ihrem Bericht zu dem Schluss, dass die verfügbaren Erkennungstools weder genau noch zuverlässig seien – "Forschung & Lehre" berichtete. Allzu oft kämen sie zu dem Ergebnis, dass die überprüften Texte von Menschen geschrieben worden seien statt von KI. 

Sowohl die TAB-Technologiestudie als auch die Studie über Erkennungstools berichten von unterschiedlichsten Ansätzen, wie mit den neuen Textgenerierungstechnologien im Prüfungskontext umgegangen werde: Manche Hochschulen dächten über handschriftlich durchzuführenden Prüfungen nach, andere wollen die Prüfungsumgebung mit technischen Hilfsmitteln überwachen, alternativ würden ChatGPT explizit als Hilfsmittel erlaubt unter Protokollierung des Arbeitsprozesses und ergänzende mündliche Prüfungsleistungen erwogen. 

KI in der Forschung hat laut Studie Entlastungspotenzial 

In der Forschung selbst wird der Einsatz von KI-Systemen bislang beim Verfassen zugelassen, soweit die notwendige Transparenz gegeben ist. Um Daten aus Veröffentlichungen zu extrahieren und zusammenzufassen oder als Hilfestellung in Reviewprozessen, ist die Nutzung ebenfalls hilfreich und vergleichsweise unbedenklich. "Im Bereich der Forschung ist der Einsatz von KI-Werkzeugen bei der Antragstellung – zum Beispiel DFG – schon erlaubt, bei der Erstellung von Gutachten hingegen nicht. Auch der Einsatz dieser Werkzeuge bei der Erstellung von referierten Publikationen unterscheidet sich zwischen den Journalen und natürlich Disziplinen zum Teil noch erheblich", differenziert Digitalexperte Manfred Krafczyk gegenüber "Forschung & Lehre". 

"Der Einsatz dieser Werkzeuge bei der Erstellung von referierten Publikationen unterscheidet sich zwischen den Journalen und natürlich Disziplinen zum Teil noch erheblich"
Manfred Krafczyk, Vizepräsidenten für Digitalisierung, TU Braunschweig

Die TAB-Studie sieht zudem Potenzial bei der Ideenfindung von Forschungsarbeiten, für das Design von Experimenten, als Unterstützung bei der Dateninterpretation oder klassisch für Programmierarbeiten. Beispielsweise erforschen Wissenschaftler der Universität Bayreuth die Struktur und das Langzeitverhalten von Galaxien mithilfe mathematischer Modelle, basierend auf Einsteins Relativitätstheorie. Ihr innovativer Ansatz nutzt ein tiefes neuronales Netz zur schnellen Vorhersage der Stabilität von Galaxie-Modellen. Dieses auf künstlicher Intelligenz basierende Verfahren ermöglicht eine effiziente Verifizierung oder Falsifizierung astrophysikalischer Hypothesen in Sekunden. "Das neuronale Netz kann vorhersagen, welche Modelle von Galaxien in der Realität existieren können und welche nicht", sagt Dr. Sebastian Wolfschmidt, Wissenschaftlicher Mitarbeiter am Lehrstuhl Mathematik VI, gegenüber dpa. „Das neuronale Netz liefert dabei eine bedeutend schnellere Vorhersage als die in der Vergangenheit verwendeten numerischen Simulationen. So lassen sich astrophysikalische Hypothesen, die über die vergangenen Jahrzehnte aufgestellt wurden, innerhalb weniger Sekunden verifizieren oder falsifizieren." 

"So lassen sich astrophysikalische Hypothesen, die über die vergangenen Jahrzehnte aufgestellt wurden, innerhalb weniger Sekunden verifizieren oder falsifizieren."
Dr. Sebastian Wolfschmidt, Wissenschaftlicher Mitarbeiter Lehrstuhl Mathematik VI, Universität Bayreuth

Forschung stark mit rechtlichen Aspekten der KI-Tools konfrontiert 

Probleme und Risiken für die Anwendung in der Forschung bestünden laut TAB-Studie vor allem beim Fabulieren, in Ungenauigkeiten und fehlender Faktenorientierung, im möglichen Bias der Modelle, die fehlende Zuordnung zu Quellen und Urheberschaft sowie fehlenden Verbindungen zum Kontext von Ideen. Krafczyk, Vizepräsidenten für Digitalisierung an der TU Braunschweig, erläutert gegenüber "Forschung & Lehre" den Copyright-Aspekt: "Darüber hinaus ist der Bereich Copyright-Verletzung ein wichtiges Thema, da davon auszugehen ist, dass alle kommerziellen LLM-Modelle auch mit Daten trainiert wurden, für die seitens der Copyright-Inhaber keine explizite Genehmigung erteilt wurde. Da diese Daten nicht mehr nachträglich dem LLM ‚entzogen‘ werden können, besteht auch die Gefahr, dass die Nutzenden bei der Nutzung von Ergebnisdaten einer KI-Werkzeugnutzung wiederum (…) Copyright-Verletzungen begehen können." 

Die Konzentration der Unternehmen, die ausreichend Kapital besitzen, um KI-Modelle zu entwickeln, könnte laut TAB insbesondere für die Wissenschaft problematisch werden: "Nicht zuletzt für die wissenschaftliche Forschung, die auf Daten, aber auch die Kapazitäten zu deren Verarbeitung angewiesen ist, kann ein solches Oligopol ein Risiko darstellen, wie im Fall des wissenschaftlichen Publizierens und der Abhängigkeit von wenigen Großverlagen deutlich wurde (…)." Auch die Menge an Publikationen und das schnelle Publizieren könnten laut der TAB-Studie durch den Einsatz der KI-Technologien rasant wachsen. Ein Prozess, der nicht nur den Konkurrenzdruck weiter erhöhen, sondern bei fehlender Regulierung auch zu erhöhter Arbeitslast führen könnte. 

Neue KI-Trends, neues KI-Gesetz, alte Fragen 

Der aktuelle "AI Trends Reports 2024" prognostiziert, dass transformative Trends im aktuellen Jahr alle Bereiche der Gesellschaft erfassen werden. Die Fähigkeiten von KI würden sich zeitgleich rasant weiterentwickeln: "Was die Fähigkeiten von KI betrifft, drängt das Konzept Omnimodalität – KI, die alle menschlichen Sinne verarbeiten kann – in den Mittelpunkt. Parallel dazu wird generative KI immer mehr Sektoren erobern und schon bald die Kreativbranche grundlegend verändern. In der KI-Entwicklung rückt die Qualität von Daten – anstelle der Quantität – in den Fokus." 

Vertreter der EU-Staaten stimmten am 2.2. in Brüssel für einen Vorschlag, wonach Künstliche Intelligenz (KI) bald schärferen Regeln unterworfen sein sollte. "Heute ist ein guter Tag für Innovationen und Grundrechte in Europa", sagte Bundesjustizminister Marco Buschmann (FDP). Nun sei der Weg frei für einen sicheren Rechtsrahmen, der Innovationen fördere und Risiken angemessen adressiere. Künftig sollen KI-Systeme in verschiedene Risikogruppen eingeteilt werden. Je höher die potenziellen Gefahren einer Anwendung sind, desto höher sollen die Anforderungen sein. 

Vaziri, Leiter der Forschungsgruppe Menschzentrierte Entwicklung KI-basierter Systeme an der H-BRS, sieht die Antwort auf die Frage der Kontrolle auch im grundsätzlichen Konzept der KI-Tools: "Will ich als Gesellschaft nur Technologien haben, die mir den schnellsten Lösungsweg geben und dabei das individuelle Sinnempfinden einfach ignorieren? Dann bin ich effizient und wahrscheinlich auch ziemlich produktiv. Die Frage ist, was passiert dann mit der Gesellschaft? Oder möchte ich als Gesellschaft Technologien haben, die mich unterstützen, mir vielleicht die Möglichkeit zur Selbstverwirklichung geben?"