

Europäische Verordnung
Hochschulen müssen KI-Fitness steigern
Seit dem 2. Februar greifen die ersten Vorgaben der europäischen KI-Verordnung. Hochschulleitungen sind nun dazu verpflichtet, Beschäftigten und Studierenden Kompetenzen für die Arbeit mit Künstlicher Intelligenz (KI) zu vermitteln – ein Balanceakt: Zu wenige Vorgaben führen zu Verunsicherung und bergen Sicherheitsrisiken. Zu detaillierte Vorgaben passen nicht zu allen Tools und können einen Einschnitt in die Lehr- und Forschungsfreiheit bedeuten.
Nur rund 30 Prozent der Hochschulen in Deutschland haben Leitlinien zum Einsatz von KI, wie die Wissenschaftlerinnen Doris Weßels und Marlit Annalena Lindner kürzlich in einem Beitrag für Forschung & Lehre aufzeigten. Die zugrundeliegende Auswertung beruht auf öffentlich verfügbaren Informationen der Hochschulen zum Stand Ende 2024.
"Einerseits spiegelt dieses Ergebnis die verbreitete Wahrnehmung wider, dass sich viele Hochschulen noch in der Entwicklungsphase befinden und interne Abstimmungsprozesse zur Verabschiedung von KI-Richtlinien oft nicht abgeschlossen sind", sagt Lindner auf Nachfrage. Andererseits überrascht es die Professorin für Digitale Bildung, "dass zwei Jahre nach dem breiten Aufkommen generativer KI noch immer ein so großer Teil der Hochschulen keine verbindliche Orientierung für Lehrende und Studierende bietet".
Kritik: KI-Vorgaben scheitern am Praxistest
Vermutlich haben inzwischen mehr Hochschulen Leitlinien veröffentlicht, als dies noch zum Erhebungszeitraum Ende 2024 der Fall war. Auch das Informationsangebot insgesamt dürfte gewachsen sein. Die Verunsicherung hält jedoch vielerorts an. Das zeigt auch eine stichprobenartige Umfrage von Professorin Weßels unter deutschen Studierenden.
Diese kritisierten unter anderem, dass sich KI-Vorgaben teils von Dozent zu Dozentin und Semester zu Semester unterscheiden. Weßels hält dies für kritisch: "Solche unklaren und immer wechselnden Regelungen sind nicht zielführend. Wir versäumen die Chance, dass sich Hochschulen als lernende Organisation unter Beweis stellen und wir unsere Lehr- und Prüfformate kontinuierlich weiterentwickeln."
"Wir versäumen die Chance, dass sich Hochschulen als lernende Organisation unter Beweis stellen."
Doris Weßels, Professorin für Wirtschaftsinformatik an der FH Kiel
Bestehende Leitlinien an Hochschulen scheitern laut Wirtschaftsinformatikerin Weßels oftmals am Praxistest: "Es wird häufig unterstellt, dass wir bei allen KI-gestützten Schreibwerkzeugen wie bei ChatGPT einen Dialog mit Prompts, also klar formulierte Aufgabenstellungen, haben, die wie ein 'Protokoll' den Austausch zwischen Menschen und KI belegen können", sagt sie. Diese Annahme sei falsch.
Weßels verweist auf textgenerierende KI wie zum Beispiel Jenni AI zur Organisation der eigenen wissenschaftlichen Arbeit oder auch Storm, ein von der Universität Stanford bereitgestelltes KI-Tool, das nach Eingabe eines Themas beziehungsweise einer Fragestellung und einer kurzen Beschreibung der Zielsetzung ein vollständiges Paper inklusive Literaturangaben generiert. "Derartige Werkzeuge kennen kein klassisches Prompting und benötigen es auch nicht", betont Weßels.
10 Handlungsempfehlungen für den KI-Einsatz
In ihrem Artikel für Forschung & Lehre nennen die Professorinnen Doris Weßels und Marlit Annalena Lindner zehn Handlungsempfehlungen für den Einsatz von KI an Hochschulen:
- KI-Schulungs- und -Qualifizierungsangebote der eigenen Hochschule oder anderer Anbieter nutzen (auch niedrigschwellige Informationsangebote wie Newsletter, Foren, Podcasts, YouTube-Channel für KI-Themen nutzen)
- Eigene Lehrveranstaltungen kontinuierlich weiterentwickeln, frühere Lernziele und Aufgabenstellungen auf Zukunftsrelevanz hin prüfen und im Bedarfsfall ersetzen, dabei KI-Potenziale nutzen und die KI-Resilienz von Prüfungsformaten stärken
- Studierende ermutigen, KI-Tools verantwortungsbewusst einzusetzen, und diese durch leicht verständliche Regelwerke auf Potenziale und Grenzen des Einsatzes von KI hinweisen
- KI-Experimente wagen und Erfahrungen beim Einsatz von KI-Tools in der eigenen Lehre sammeln, diese im Kollegium, in Netzwerken mit Lehrenden anderer Hochschulen und externen KI-Communitys austauschen
- Verzicht auf die (kleinteilige) Dokumentation von Chatverläufen, die Abgabe von Prompts oder Zitationen aller KI-generierten Textteile wie reguläre Quellen bei schriftlichen Studienarbeiten oder Thesen
- Verzicht auf KI-Detektionssoftware-Lösungen, da sie prüfungsrechtlich aufgrund ihrer Unzuverlässigkeit nicht belastbar sind
- Angepasste Eigenständigkeits- und Kennzeichnungserklärungen für den KI-Einsatz zielgruppengerecht formulieren und kontinuierlich anpassen, zum Beispiel in Form eines anschaulich illustrierten PDFs und eines Erklärvideos mit konkreten Anwendungsbeispielen (im Idealfall als hochschulweiter Standard)
- Bewährte KI-Disclaimer (zum Beispiel von Wissenschaftsverlagen) für wissenschaftliche Arbeiten nutzen, für die interne Nutzung gegebenenfalls adaptieren und fortlaufend anpassen
- Beteiligung am Aufbau von Austauschformaten wie zum Beispiel KI-Zukunftswerkstätten oder Communities of Practice (CoP)
- Mitwirkung bei der Ausgestaltung von KI-Governance und -Compliance in der eigenen Organisation, um Ethikrichtlinien und Verhaltensregeln an die veränderten Rahmenbedingungen anzupassen
Orientierung für Forschung und Lehre gefordert
Entscheidend für eine gute Leitlinie findet Wissenschaftlerin Lindner, dass sie Hochschulangehörigen eine klare Orientierung für mögliche Vorgaben in Forschung und Lehre gibt. Grenzfälle der KI-Nutzung sollten anhand anschaulicher Beispiele diskutiert werden. "Ebenso ist es sinnvoll, didaktische Ansätze sowie Chancen und Grenzen des KI-Einsatzes in Lehre und Prüfungen praxisnah darzulegen", meint die Wissenschaftlerin.
Geforderte Dokumentationspflichten müssten realistisch sein. "Transparenz ist essenziell, darf jedoch nicht zu übermäßigen Dokumentationspflichten führen, die in der Praxis gar nicht umsetzbar sind", sagt sie. Vielmehr sollten das "Wie" und "Wofür" der KI-Anwendung auf einem angemessenen Niveau reflektiert werden.
Dafür sei entscheidend, dass die Verantwortlichen in den zuständigen Gremien "zumindest grundlegende eigene Erfahrungen mit KI-Tools haben und unter Beachtung aller rechtlichen Vorgaben möglichst pragmatische Rahmenbedingungen für eine transparente KI-Nutzung im Hochschulkontext schaffen".
Karlshochschule: Weiterbildung und Experimentierfreude
Der Präsident der Karlshochschule International University, Robert Lepenies, ist für seine Offenheit gegenüber neuen Kommunikationsformaten bekannt. Als einer der ersten Hochschulleitungen war er auf TikTok vertreten und wirbt auch sonst dafür, dass Hochschulen experimentierfreudiger in der Digitalisierung werden.
Eine öffentlich einsehbare Leitlinie hat seine Hochschule nicht. "Ein monolithischer Ansatz in Form starrer Vorgaben greift zu kurz", meint Lepenies. Aus seiner Sicht sind die meisten KI-Leitlinien bereits veraltet, "wenn sie ausgedruckt werden".
"Hochschulen müssen Strukturen schaffen, die kontinuierliche Anpassung und kritische Reflexion ermöglichen."
Professor Robert Lepenies, Präsident der Karlshochschule International University
Er setzt auf einen offenen Austausch über den Einsatz der Technologie. Dies sei an einer kleinen Hochschule wie seiner natürlich deutlich leichter als an größeren Einrichtungen, meint Lepenies. KI sieht er als tägliches Learning: "In einer sich rasant entwickelnden technologischen Landschaft reicht es nicht aus, KI-Wissen einmal zu erwerben – Hochschulen müssen Strukturen schaffen, die kontinuierliche Anpassung und kritische Reflexion ermöglichen", meint der Hochschulpräsident.
Da Weiterbildungsbudgets begrenzt seien, verweise seine Hochschule auch auf frei zugängliche Informationsangebote, etwa vom Hochschulforum Digitalisierung, der Stiftung Innovation in der Hochschullehre oder dem University:Future Festival.
Die Herausforderung sieht er darin, ausreichend Zeit für die Auseinandersetzung mit KI einzuplanen. Die Hochschulen stünden derzeit unter einem enorm hohen Druck, auf gesellschaftliche und institutionelle Herausforderungen einzugehen.
Universität Düsseldorf: Kompakte KI-Leitlinie auf einer Seite
Die Heinrich-Heine-Universität Düsseldorf gehört zu den Hochschulen, die im Frühjahr 2024 eine KI-Leitlinie erstellt haben. Diese füllt gerade einmal eine Seite. Eine bewusste Entscheidung, wie Hochschulpräsidentin Anja Steinbeck auf Nachfrage betont: "Aufgrund der großen Dynamik im Bereich der Generativen KI kann die Leitlinie nicht alle Bereiche der universitären Lehre abdecken." Zentrales Ziel sei gewesen, "für Studierende und Lehrende einen Rahmen für den Einsatz Generativer KI bei unbeaufsichtigten Prüfungsleistungen bereitzustellen und aufzuzeigen, was erlaubt ist und was nicht."
Es sei explizit nicht darum gegangen, weitergehende rechtliche Fragen für den Einsatz von KI zu beantworten. Dies sei weder Aufgabe der Hochschulleitung, noch realistisch. "Eine solide Antwort hätte viele Wochen in Anspruch genommen, wäre viele Seite lang gewesen und dann wären immer noch zahlreiche Fragen offen gewesen", meint Steinbeck.
Circa sechs Monate habe es gebraucht, um die bestehende Leitlinie unter Einbeziehung aller Interessenvertreter zu erstellen. Beteiligt seien alle Dekane zuzüglich einzelner weiterer Personen aus den Fakultäten gewesen. Die Leitlinie soll laut der Hochschulrektorin immer dann aktualisiert werden, wenn es neue Kenntnisse über den Einsatz von KI oder neue Entwicklungen in der Technologie gebe. Aktuell sieht Steinbeck keinen Bedarf für eine Anpassung.
Dass sich die Vorgaben zum Einsatz von KI zwischen Dozierenden unterscheiden, findet die Hochschulpräsidentin normal. Es sei unausweichlich, dass Lehrende Generative KI unterschiedlich in der Lehre einbänden. Vereinheitlichung müsse es nur bei Prüfungen geben.
KI an Hochschulen: Zentrale Zuständigkeitsregelung unverzichtbar
Um die KI-Kompetenz an Hochschulen nachhaltig zu fördern, hält Wissenschaftlerin Weßels klare Zuständigkeiten für unerlässlich: "Das kann auch ein neues Team sein, das wie eine interne KI-Taskforce in der Hochschule agiert, zum Beispiel als Stabsbereich unterhalb des Präsidiums oder Rektorats, das hochschulweit die KI-induzierten Fragestellungen und alle notwendigen Maßnahmen managt." Einige Hochschulen denken laut Weßels zudem darüber nach, die Stelle eines "Chief Artificial Intelligence Officer" (CAIO) einzuführen.
Die HHU will künftig alle Aktivitäten der Universität zum Einsatz von KI über das neu eingerichtete Heine Center for Artificial Intelligence and Data Science (HeiCAD) steuern. Ab der zweiten Jahreshälfte sollen darüber auch Weiterbildungen angeboten werden.
Für den nächsten Wendepunkt in der KI-Entwicklung hält Wirtschaftsinformatikerin Weßels sogenannte Reasoning-Modelle – ein KI-System, das logisch schlussfolgern kann – in Verbindung mit Multi-KI-Agentensysteme. "Das führt zu deutlich autonomer agierenden KI-Bots, die die Fähigkeiten von großen KI-Sprachmodellen (LLMs) nutzen, um unser menschliches Denken und Schlussfolgern zu simulieren und nach einer entsprechenden Aufforderung selbständig Entscheidungen fällen", erklärt Weßels. Dadurch könnten sie komplexe Aufgaben erledigen und sich je nach Konfiguration auch mit anderen internen oder auch externen IT-Systeme verbinden.
Es gelte, diese autonomer agierenden KI-Systeme so gut wie möglich mit all ihren Risiken zu überblicken und verantwortungsbewusst zu steuern, um keinen Kontrollverlust zu erleben.
Diskutieren Sie mit
Die Beschäftigung mit KI erfordert Zeit und ist für Fachfremde oft komplex. Wie gut fühlen Sie sich informiert, und welcher Ansatz wäre aus Ihrer Sicht am besten, um KI-Wissen an Hochschulen flächendeckend zu vermitteln?
Schreiben Sie uns in den Kommentaren oder über kommentare(at)forschung-und-lehre.de
0 Kommentare