Mehrere Hände fügen Zahnräder zusammen, die Symbole für Künstliche Intelligenz, Ideen und Gerechtigkeit beinhalten.
mauritius images / World Images / Alamy

Leitlinien
KI-Nutzung im Einklang mit den Bedürfnissen von Universitäten

Eine europäische Arbeitsgruppe hat Gedankenanstöße für einen wertegeleiteten KI-Einsatz an Hochschulen erarbeitet. Der Abschlussbericht liegt nun vor.

29.01.2026

Wie können die Bedürfnisse und Werte von Hochschulen bei der Einführung von Technologien und Werkzeugen auf Basis Künstlicher Intelligenz (KI) im Mittelpunkt stehen? Diese Frage stellte sich eine internationale Arbeitsgruppe der Europäischen Hochschulvereinigung (EUA). 

Die Gruppe setzte sich aus Vertreterinnen und Vertretern der Mitgliedsuniversitäten aus verschiedenen akademischen Bereichen zusammen – darunter Statistik, Ethik, Medizin, Digitale Geisteswissenschaften und Informatik. Sie beschreiben in ihrem am 29. Januar veröffentlichten Abschlussbericht die Integration von KI als sich äußerst rasant entwickelnden Fortschritt mit gewissem aufwirbelndem Charakter im bisher "stetigen Kontinuum des (digitalen) Wandels" an den Hochschulen. 

Der Bericht geht der Frage nach, in welcher Weise KI Wahrnehmungen und Praktiken verändert und welche Herausforderungen sich daraus für Hochschulen in den Schlüsselbereichen Ethik, Strategie, Bildung, Regulierung und Nachhaltigkeit ergeben. Das Dokument will nach eigenen Angaben insbesondere Personen in verantwortungsvollen Positionen an Hochschulen, aber auch alle sonstigen Mitglieder der Hochschulgemeinschaft zur Reflexion anregen. 

Denkanstöße für einen menschenzentrierten KI-Einsatz 

Lernende, Lehrende und Forschende stellten zunehmend Fragen zur Vereinbarkeit neuer KI-Technologien mit den Werten der Hochschulen. Da der Umgang der Hochschulen mit KI deren gesellschaftliche Verbreitung präge, müsse sie sich bei der Implementierung der Technologie von Sorgfalt, Neugier und kritischem Denken leiten lassen, teilte die EUA anlässlich der Veröffentlichung des Abschlussberichts am 29. Januar mit. 

"Sinnvolle Veränderungen und Innovationen sind am wahrscheinlichsten, wenn Handlungen von wohlüberlegten Absichten geleitet werden und nicht von bloßer Möglichkeit, Produktivität, Einsparungen oder Bequemlichkeit", heißt es im Bericht. Bei der transparenten KI-Integration an Hochschulen handelt es sich nach Ansicht der Autorengruppe um ein partizipatives Unterfangen. Dazu soll die gesamte Universitätsgemeinschaft – Führungskräfte, Studierende, wissenschaftliches und professionelles Personal – befähigt werden, eine aktive und verantwortungsbewusste Rolle einzunehmen. 

Betont wird, dass KI menschliche Bestrebungen ergänzen und verbessern, aber nicht kontrollieren oder gar lenken sollte. Transparenz und Reproduzierbarkeit im Lern- und Experimentierprozess sei hierbei ein wichtiges Gebot für den wissenschaftlich integren Einsatz von KI. KI arbeite größtenteils in einem intransparenten System, ohne dass die Schritte zum Ergebnis nachvollziehbar seien. Diese Intransparenz erschwere die Reproduzierbarkeit, die Begutachtung und die Validierung von Ergebnissen. 

Das Autorenteam gibt außerdem zu bedenken, dass KI typischerweise mit Daten trainiert werde, die in der Gesellschaft weit verbreitet sind und dadurch die Gefahr entstünde, Perspektiven aus unterrepräsentierten Kulturen, Disziplinen und Regionen auszuschließen. Stereotype und teils politisch gewollte Parteilichkeiten seien sowohl bei generativen, als auch bei analytischen KI die Folge. Hinzu komme die Unterrepräsentation von sprachlichen Minderheiten. "Es wird die Aufgabe der Universitäten als Nutzergemeinschaften sein, sicherzustellen, dass Mitarbeitende und Lernende sich der inhärenten Tendenz von KI zu Verzerrungen bewusst sind", heißt es im Abschlussbericht. 

Im universitären Kontext führe zudem unzureichende digitale Kompetenz dazu, dass die Risiken der Weitergabe persönlicher oder institutioneller Daten an KI-Anbieter nicht erkannt werden. Dies betreffe Anwendungsfälle wie das Hochladen urheberrechtlich geschützter wissenschaftlicher Artikel oder sensibler personenbezogener Daten, die über Umfragen erhoben wurden. 

Als gutes Beispiel für innovative Lösungen nennt das Autorenteam die Universität Oslo (UiO). Deren Entwicklerteam habe eine abgeschottete Version von ChatGPT für den Einsatz innerhalb der Universität erstellt. Das sogenannte UiO GPT wurde durch Zugriff auf das ChatGPT-Modell von OpenAI entwickelt, jedoch in einer Umgebung, in der alle Daten auf Servern in Ländern verbleiben, die die Datenschutz-Grundverordnung (DSGVO) einhalten und nicht für das Training von KI-Modellen verwendet werden. 

Leitfragen zum KI-Einsatz gemäß institutionellen Bedürfnissen 

"KI-Tools versprechen die Automatisierung von Arbeitsabläufen und schaffen so Kapazitäten für kreativere Tätigkeiten bei wissenschaftlichem und administrativem Personal", heißt es im Abschlussbericht. Das Verständnis dafür, wie KI ihren Nutzerinnen und Nutzern konkret Vorteile oder Nachteile bringt, ist nach Ansicht des Autorenteams unerlässlich für die Erstellung institutioneller Richtlinien oder Strategien, die ihre Nutzung regeln. Bei der Richtlinienentwicklung sollte es sich um einen kontinuierlichen, partizipativen und proaktiven Prozess handeln. 

Letztlich müssten die Hochschulen sicherstellen, dass der Einsatz neuer Technologien mit ihrer übergeordneten Strategie, ihrem Auftrag und ihren pädagogischen Zielen übereinstimmt: 

  • Wie kann der Unterricht bei gleichzeitiger Fokussierung auf akademische Kernkompetenzen neu gestaltet werden?
  • Und wie können Hochschulen digitale Kompetenz fördern und gleichzeitig bei ihren Mitgliedern ein gesundes Risikobewusstsein entwickeln?
  • Wie können an Hochschulen innovative Experimente mit KI-Einsatz bei gleichzeitiger Wahrung wissenschaftlicher Integrität unterstützt werden?
  • Wie können Hochschulen die Klimaauswirkungen von KI mit ihrem Ziel der Klimaneutralität in Einklang bringen? 

Um übereilte, kurzsichtige Investitionen zu vermeiden, müssten Universitäten Prioritäten setzen. "Dies bedeutet, intelligente Pilotprojekte zu identifizieren und Initiativen zu fördern, die skaliert werden können, um nützliche Dienste bereitzustellen", hebt das Autorenteam hervor. Verwurzelt in menschlichen Werten und geleitet von ihren Kernaufgaben, seien Universitäten gut aufgestellt, um neue Technologien verantwortungsvoll voranzutreiben und zu nutzen. 

Kleinere Hochschulen mit begrenzten Mitteln könnten von Erfahrungsberichten größerer Institutionen profitieren. Beispiele seien gesicherte Erkenntnisse aus dem Einsatz der KI-Technologien für einen spezifischen Zweck wie der Weiterbildung und Umschulung von Fachkräften oder zur Durchführung von Fernlehrgängen. Darüber hinaus könnten Kooperationsvereinbarungen zwischen Hochschulen neben den Kosteneinsparungen auch als Instrument dienen, um Erfahrungen auszutauschen, mit Anbietern zu verhandeln und allgemein die Sichtbarkeit der Institutionen zu stärken.

cva