Eine Frau in einem Serverraum ist hinter einem Schleier von KI-Symbolen zu sehen.
mauritius images / Wavebreakmedia Ltd IFE-240405_12 / Alamy

Forschungsprozesse mit KI
Zwischen Autorität und Assistenz

Anlässlich des dritten Jahrestages von ChatGPT am 30. November: Lässt sich wissenschaftlichen Erkenntnissen, die mit KI generiert wurden, vertrauen?

Von Marcel Schütz 28.11.2025

Künstliche Intelligenz (KI) ist gekommen, um zu bleiben – auch in der Wissenschaft. Was vor wenigen Jahren in vielen Fachgebieten noch als exotisches Hilfsmittel galt, ist heute selbstverständlicher Bestandteil akademischer Praxis. Programme, die Literatur zusammenfassen, Daten analysieren oder ganze Textabschnitte formulieren, sind aus der Forschungsarbeit nicht mehr wegzudenken. In kurzer Zeit ist aus einem Werkzeug ein Mitspieler geworden – eine virtuelle Kollegin, die mitarbeitet, ohne ganz Mitglied des Teams zu sein. 

Diese neue Situation verändert weit mehr als nur Arbeitsroutinen. Sie betrifft das Selbstverständnis der Wissenschaft. Was bedeutet es zu forschen, wenn Maschinen "mitdenken", Aufgaben übernehmen und Ergebnisse vorschlagen? Wo verläuft die Grenze zwischen menschlicher Urteilskraft und maschineller Berechnung? Und was heißt wissenschaftliche Autorität, wenn Entstehung und Bereitstellung von Wissen von algorithmischen Prozessen abhängen? 

Neue Ungewissheiten 

Auf den ersten Blick erscheint KI als Instrument der Produktivität. Forschende greifen gern auf Systeme zurück, die Recherchen beschleunigen, Schreibprozesse entlasten oder komplexe Datenmengen sortieren. Doch unter der Oberfläche dieser Effizienzsteigerung entstehen neue Formen der Unsicherheit. Wer mit KI arbeitet, gibt einen Teil der eigenen Prozessgestaltung ab – und damit auch einen Teil der Urteilskraft. Die Maschine entscheidet mit, welche Quellen relevant sind, welche Muster auffallen, welche Hypothesen plausibel erscheinen. Erkenntnis entsteht so in Kooperation mit Systemen, deren Funktionsweise im Detail – also dort, wo wissenschaftliche Begründung ansetzt – undurchsichtig bleibt. 

Wissenschaft beruht jedoch auf Nachvollziehbarkeit: auf der Möglichkeit, Gedankenschritte im Prinzip zu rekonstruieren. Mit der algorithmischen Assistenz entwickelt sich dies weiter. Nicht mehr die Transparenz des Wegs, sondern die Plausibilität des Ergebnisses wird zum Maßstab. Das Vertrauen wandert ein Stück weit von der Methode zur Maschine. Diese Verschiebung ist mehr als eine technische Anpassung. Sie markiert einen Wandel im Verhältnis von Erkenntnis und Vertrauen. Während sich die klassische Wissenschaft an der Offenlegung von Verfahren orientierte, stützt sich der heutige Forschungsalltag zunehmend auf Systeme, deren innere Logik kaum mehr zu durchdringen ist. Damit entsteht eine neue epistemische Anordnung: zwischen dem, was wir wissen, und dem, was wir als genügend zuverlässig und plausibel annehmen.

Maschinen als Koproduzenten 

Erkenntnis war nie das Werk Einzelner. Sie entsteht in Gefügen aus Menschen, Texten, Geräten und Verfahren. In diesem Netz übernehmen KI-Systeme heute Aufgaben, die den Kern wissenschaftlicher Arbeit berühren. Sie klassifizieren, kombinieren, prognostizieren; sie schreiben Zusammenfassungen, entwerfen Gliederungen, formulieren Argumente. Das gestaltet das Verhältnis zwischen den Beteiligten. Die neuen Maschinen verlieren ihren reinen Werkzeugcharakter. Sie werden zu Mitwirkenden – ohne ein eigenes Bewusstsein, aber mit Einfluss. Sie strukturieren, was Forschende wahrnehmen, eröffnen neue Zugänge und begrenzen zugleich den Horizont des Sichtbaren.

Gerade im Umgang mit generativer KI zeigt sich, wie sehr diese Technologie soziale Interaktion imitiert. Sie antwortet verbindlich, angepasst, oft mit bemerkenswerter Sensibilität für Ton und Kontext – und schafft dadurch Nähe. Das verleiht ihr soziale Geschmeidigkeit, Charme und Überzeugungskraft. Wir werden sie weiter humanisieren, sie sprachlich verfeinern und zunehmend als Quelle geistiger Anregung und kluger, sogar bisweilen humorvoller und kreativ erscheinender Unterhaltungen begreifen. Die Grenze zwischen Instrument und "Arbeitspartnerin" wird fließender – und mit ihr die zwischen Rechenleistung und Denken. 

Interessant ist dabei, dass der produktive Moment – die Idee, die gedankliche Wendung – nicht mehr exklusiv einem Bewusstsein zugeordnet werden kann. Inspiration lässt sich mittlerweile algorithmisch anregen und vorbereiten. Manche frappanten Einsichten verdanken sich dieser Kooperation. Und doch bleibt der Unterschied bestehen: KI kann Wahrscheinlichkeit berechnen, aber nicht Bedeutung erzeugen. Sie kennt (ganz allein) keine Irritation, keinen Zufall, keine Ironie. Der kreative Bruch, der Kniff, aus dem Erkenntnis oft entsteht, bleibt menschlich und wird von besonderen sozialen Beziehungen, etwa akademischer Gemeinschaft, geprägt. Darin mag der Grund bestehen, warum wir Maschinen entwickeln, die rechnen – und keine, die zweifeln.

Mit dem Fortschritt der Sprachmodelle wird ihre Bedeutung für die Forschungsarbeit weiter zunehmen. Je differenzierter diese Systeme arbeiten, desto stärker passen sie sich an Duktus und Argumentationslogik wissenschaftlicher Kommunikation an. Forschende können Entwürfe diskutieren, Formulierungen verfeinern, Lesbarkeit prüfen oder argumentative Strukturen optimieren – in einem substantiellen Digitaldialog beziehungsweise Redigierungsprozess, der zugleich reflexiv und produktiv ist. Die Maschine wird damit zu einem Resonanzraum des Denkens. Und eine Steigerung der Textqualität ist – durch erneut "natürliche" Bearbeitungen, die wiederum auf die "künstlichen" folgen – realistisch. 

Doch der Zugewinn an Präzision verlangt weiterhin eine solide fachliche Sozialisation. Nur wer das jeweilige Fachgebiet, seine Denkformen und Sprechweisen kennt, kann einschätzen, wann eine terminologische oder stilistische Präzisierung den Sinn schärft – und wann sie ihn verfälscht oder verflacht. Insofern assistiert die KI nicht nur einseitig, sie wird auch von der Urteilskraft der Forschenden assistiert. Erkenntnisgewinn entsteht so in fortwährender Rückkopplung – ähnlich wie in Kolloquien oder Peer-Review-Verfahren, nur mit ungleich größerer Verfügbarkeit, Geschwindigkeit und Variationsbreite. Darin liegt großes Potential, aber auch, bei mangelndem Vorverständnis, das Risiko einer schwindenden Kontrollierbarkeit. 

Vertrauen und Intransparenz 

Vertrauen ist die unsichtbare Infrastruktur wissenschaftlicher Praxis. Kein Forschungsteam kann alle Ergebnisse selbst prüfen; jede Erkenntnis beruht auf einem Geflecht wechselseitiger Annahmen. Mit KI wird dieses Netz dichter – und fragiler. Forschende wollen sich darauf verlassen können, dass Daten korrekt sind, Modelle gewissenhaft arbeiten, Fehler erkannt werden. Bemerkenswert ist, wie aufmerksam die wissenschaftliche Gemeinschaft auf neue Versionen von Sprachmodellen reagiert, wenn diese differenziertere und präzisere Antworten und bessere Datengrundlagen versprechen. Solche Ankündigungen dienen nicht nur der Orientierung, sondern auch der Selbstberuhigung: Sie legitimieren es, sich einer Technik zu bedienen, deren innere Mechanik man nicht ganz genau verstehen kann. 

"Je leistungsfähiger die Systeme, desto undurchsichtiger ihre Logik."
Marcel Schütz, Professor für Organisation, Northern Business School, Hamburg

Doch wer prüft die Technologie, wenn sie selbst Teil des Prüfverfahrens wird? Je leistungsfähiger die Systeme, desto undurchsichtiger ihre Logik. Die maschinelle Denkweise ist nicht erklärend, sondern probabilistisch. Sie erzeugt Ergebnisse, die konsistent wirken, ohne kausal begründet zu sein. Das Vertrauen in die KI ist daher ein recht funktionales: Es beruht weniger auf Einsicht als auf Erfahrung. Wissenschaft sucht Gewissheit und gewinnt dabei Ungewissheit. Dieses Paradox ist keine Krise, sondern Ausdruck einer angepassten Rationalität. 

Wandel der Erkenntnispraxen 

Wissenschaft war stets vielfältig. Jede Disziplin hat ihre eigenen Wege, Fragen zu stellen, Belege zu prüfen, Theorien zu bilden. Mit KI beginnen sich diese Praxen zu überlagern. Die intelligente Maschine „interdiszipliniert“ gewissermaßen das Forschen. Sie findet Anwendung in der Physik ebenso wie in der Geschichte, in der Medizin wie in der Soziologie. Diese Vereinheitlichung der Werkzeuge erleichtert den Austausch, birgt aber auch Risiken. Wenn sich wissenschaftliche Ausdrucksformen angleichen, droht eine Homogenisierung des Denkens. Maschinen bevorzugen das, was sich formalisieren lässt, was in Muster passt, was häufig vorkommt. Das Ungewöhnliche, das Unklare, das Abweichende verliert an Gewicht. 

Zugleich wächst das Bedürfnis, das Nicht-Formalisierbare zu bewahren: Intuition, Erfahrung, Interpretation. KI zwingt die Wissenschaft, sich ihrer genuin human-kognitiven Dimension zu vergewissern – der Fähigkeit, Sinn zu erzeugen, nicht nur Information zu verarbeiten. Das gesprochene Wort, der spontane Gedankengang, die unvorhersehbare Geste behalten in dieser Ordnung Gewicht. Auch wenn maschinelle Imitationen immer perfekter werden, bleibt das Moment der situativen Deutung – das „Denken im Augenblick“ – unersetzbar.

Schwerpunkt "Künstliche Intelligenz"

Künstliche Intelligenz greift zunehmend in das alltägliche Leben und den Forschungsalltag ein. Welche Chancen und Risiken birgt dies für die Forschung und Lehre? Wir haben zentrale Aspekte in einem Online-Schwerpunkt "Künstliche Intelligenz" für Sie recherchiert. 

Autorschaft, Autorität und Verantwortung 

Mit KI wird ein zentrales Konzept der Wissenschaft neu verhandelt: Autorschaft. In einer Ordnung, in der Zitation und Sichtbarkeit als entscheidende Währungen gelten, berührt maschinelle Mitwirkung ein empfindliches Nervenzentrum. Texte, die mithilfe von KI entstehen, sind kollektive Werke. Die Maschine schlägt Formulierungen vor, strukturiert Argumente, prüft Syntax. Wissenschaftliche Urheberschaft war immer schon eingebunden in eine stets sehr viel größere Intertextualität gesellschaftlich verankerten Denkens und Gedächtnisses, doch die Technologie radikalisiert sozusagen diese Wissenskollektivität in eigener Weise. 

Das fordert unser Verständnis von Verantwortung. Wer steht für die Geltung einer Aussage ein, wenn ihr Entstehungsprozess nur teilweise durchschaubar ist? Wer trägt die Folgen, wenn fehlerhafte Trainingsdaten zu falschen Schlüssen führen? Verantwortung verlangt Formen der Transparenz – über Quellen, Modelle, Werkzeuge. Vielleicht führt die KI zu einem realistischeren Selbstverständnis: Wissenschaft als Prozess der ständigen Weiterverfertigung von Wissen – geschaffen aus Kooperation, Abhängigkeit und Kritik. Autorität entsteht künftig nicht aus der Kontrolle der Mittel, sondern aus der Fähigkeit, mit ihrer Unberechenbarkeit verantwortungsvoll umzugehen. 

Auch die begriffliche Arbeit an Theorien verändert sich durch den Einsatz von KI. Bisher entstanden Begriffe meist aus Erfahrung, Beobachtung und Diskussion; heute treten maschinell erzeugte Vorschläge – hochvariable Rekombinationen und semantische Mischungen – hinzu, die neue Zusammenhänge sichtbar machen. Sprachmodelle können Muster aufzeigen, die Forschenden zuvor entgingen – nicht als fertige Erkenntnisse, sondern als Anregungen zum Weiterdenken. Das beeinflusst den Prozess des Theoretisierens: Er wird experimenteller, offener, zugleich aber stärker davon abhängig, dass jemand die "maschinischen Denkanstöße" kritisch einordnet. Theoriearbeit heißt hier, zwischen algorithmischer Kombinatorik und menschlicher Deutung zu vermitteln – also aus dem, was die Maschine anbietet, das herauszufiltern, was begrifflich trägt und wissenschaftlich sinnvoll anschlussfähig bleibt. 

Automatisierung und Reflexion 

Viele befürchten, KI könne das Denken entwerten. Doch womöglich geschieht das Gegenteil. Je mehr Routinen automatisiert werden, desto deutlicher tritt hervor, was sich nicht automatisieren lässt. Maschinen können berechnen, aber bislang nicht wie wir verstehen. Sie erkennen Muster, aber keine Bedeutung. Darin liegt eine Chance. Wenn Programme Zusammenfassungen liefern und Hypothesen vorschlagen, verschiebt sich die menschliche Arbeit vom Produzieren zum Reflektieren. Wissenschaft kann sich so auf das konzentrieren, was sie im Kern ausmacht: Komplexität zu begreifen, Widersprüche zu denken, Unsicherheit zu beschreiben. An dieser Stelle wird deutlich, wie sehr gerade der Wissenschaft gesellschaftlich eine systemreflexive "Metafunktion" zufällt, die KI in ihren Wirkungen auf Wissensstrukturen und Wissensorganisationen zu studieren – dies gerade auch in ihren eigenen Lehr- und Forschungspraxen.
 

"Je mehr Routinen automatisiert werden, desto deutlicher tritt hervor, was sich nicht automatisieren lässt." 
Marcel Schütz, Professor für Organisation, Northern Business School, Hamburg

In einer Welt des Informationsüberflusses wird die Kunst der Unterscheidung zur zentralen Kompetenz. KI kann Wissen vermehren, aber sie kann nicht festlegen, was (uns) Wissen bedeutet. Vielleicht zeigt sich darin die neue Arbeitsteilung zwischen Automatisierung und Urteilskraft: Die Maschine liefert Muster, der Mensch entscheidet, welche davon Bedeutung tragen. Automatisierung ist kein Ersatz für Reflexion, sondern deren Bedingung. Nur wer Routinen delegiert, gewinnt den Raum, über Prinzipien nachzudenken. Forschung bleibt damit die Kunst, Fragen länger und aufwendiger zu verfolgen – auch wenn schnelle, aber weniger gründlich durchdachte Antworten über den maschinellen Weg leicht zu haben sind. 

Die Zukunft der Erkenntnis 

Die wichtigste Veränderung, die KI für die Wissenschaft bringt, ist keine technische, sondern eine erkenntnistheoretische. Sie akzentuiert, wie Wissen entsteht und wie es begründet wird. Wissenschaftliches Wissen ist das Ergebnis nachvollziehbarer, akzeptierter Verfahren – es beruht auf der Offenlegung von Methoden, nicht auf der Perfektion ihrer Resultate. Hier entsteht die neue Spannung: KI-Systeme liefern Ergebnisse, die überzeugend, aber nur begrenzt erklärbar sind. Wissen wird produktiver – und zugleich opaker. Der wissenschaftliche Anspruch auf Nachvollziehbarkeit stößt an eine technische Grenze. 

Transparenz verlagert sich: von der Ebene der Rechenwege auf jene der Rahmenbedingungen. Welche Daten wurden verwendet? Welche Ausschlüsse getroffen, welche Zielgrößen optimiert? Erkenntnis bleibt überprüfbar, aber anders – nicht durch Einsicht in den Algorithmus, sondern durch Offenheit über ihre Voraussetzungen. Das zwingt die Wissenschaft, ihr Verhältnis zu ihren Werkzeugen neu zu bestimmen. KI konfrontiert sie mit der Aufgabe, Unwissenheit zu verwalten, ohne Beliebigkeit zu riskieren. Erkenntnis bleibt damit nicht die Aufhebung des Nichtwissens, sondern seine reflektierte Gestaltung. 

Es mag sein, dass darin die Bewährungsprobe der KI besteht: nicht, ob sie bessere Antworten liefert, sondern ob sie uns dazu bringt, die Frage nach Begründung neu zu stellen. Zwischen Autorität und Assistenz entsteht kein Gleichgewicht, sondern ein Aushandlungsraum, in dem Wissenschaft ihre Urteilskraft behaupten muss. Am Ende wird es nicht darum gehen, Maschinen das eigenständige Denken zu lehren, sondern das eigene Denken im Umgang mit ihnen wachzuhalten – als eine Form intellektueller Selbstkontrolle.