In einem Symbolbild soll  Künstliche Intelligenz durch Mikrochips in einem menschlichen Auge dargestellt werden.
mauritius images / Chromorange

Machtfrage
Künstliche Intelligenz als soziotechnische Entwicklung

Die privatwirtschaftliche Hoheit über KI-Technologie bedeutet eine neue Form von Machtausübung. Eine Betrachtung aus rechtlicher Perspektive.

Von Hannah Ruschemeier 09.09.2025

KI ist in aller Munde und spätestens seit dem Markteintritt von ChatGPT und anderen populären generativen Modellen, sogenannten Großen Sprachmodellen, Large Language Models (LLMs), ein Hypethema. KI als Untersuchungsgegenstand der Rechtswissenschaft drängt sich inzwischen geradezu auf, eine unüberschaubare Anzahl an Publikationen befasst sich mit technischer Funktionsweise, Haftungsfragen und KI-Regulierung. Die erhebliche Anzahl unionsrechtlicher Vorgaben, die in den vergangenen Jahren im Bereich der Digitalregulierung erlassen wurden und damit – wenn auch nicht immer explizit genannt – faktisch auch KI regulieren, bieten als vergleichsweise junges Rechtsgebiet zahlreiche ungeklärte Fragen und neue, spannende analytische Zugänge. 

Dennoch ist der wichtige soziotechnische Aspekt von KI immer noch unterbelichtet. Zu oft wird KI als eine rein technische Errungenschaft dargestellt, die sich durch numerische Parameter wie Modellparameter, Benchmarks oder Anzahl von Datenpunkten erklären und diesbezüglich regulieren lässt. KI ist aber weniger eine Technik als vielmehr eine soziotechnische Entwicklung, ihr kommerzieller Erfolg und ihre zunehmende Verbreitung in den letzten 15 Jahren basieren auf einem Zusammenspiel aus ökonomischen, geopolitischen, gesellschaftlichen und technischen Faktoren. 

KI im aktuellen Kontext der Relevanz für Endnutzerinnen wird primär mit Modellen des maschinellen Lernens gleichgesetzt, die auch bei einfachen Anweisungen Ergebnisse generieren. Bei diesen großen, leistungsfähigen Modellen handelt es sich um eine extrem ressourcenintensive Technologie: Es werden riesige Datenmengen benötigt, um die komplexen Modelle zu trainieren. Die Daten werden von Menschen, von uns allen, durch die tägliche Nutzung digitaler Informationstechnologie produziert. Allerdings profitieren ökonomisch allein die Betreiberinnen der Modelle. Das einzelne Datum ist uninteressant, Massendaten sind erforderlich. Diese wiederum können nur von Organisationen aggregiert und verarbeitet werden, die über eine entsprechende Infrastruktur verfügen. 

Für das Training der populären Sprachmodelle wurden nahezu alle frei zugänglichen Informationen des Internets gescrapt, ohne Rücksicht auf Urheberrecht und Datenschutz. Der Betrieb erfordert Datencenter, die erhebliche Mengen an Wasser und Strom verbrauchen, welche an anderer Stelle fehlen. Um die KI-Systeme zu verbessern, ist viel menschliche Arbeit nötig, diese wird zu großen Teilen im globalen Süden unter prekären Arbeitsbedingungen verrichtet: Inhaltsmoderation auf Social Media, das Labeln von Daten, das Kennzeichnen von strafbaren Inhalten – eine mitunter psychisch extrem belastende Arbeit.

KI als Machtfrage 

Die privatwirtschaftliche Hoheit über KI-Technologie bedeutet eine neue Form von Machtausübung (Mühlhoff, KI und der neue Faschismus, 2025; Ruschemeier, APuZ 42/2023): Macht über Daten, Infrastrukturen und wissensbezogene Entwicklungen. Damit ist KI auch eine genuin rechtsstaatliche Frage, denn Rechtsstaatlichkeit legitimiert und begrenzt Macht gleichermaßen. KI führt zu verschiedenen rechtsstaatlichen Herausforderungen von Legitimität, Transparenz, Rechtsschutz, Souveränität. Der weitreichende Erfolg von KI beruht in vielen Fällen auf systematischen Rechtsverstößen: der dauerhaften Untergrabung von Datenschutzvorgaben, dem Ignorieren von Urheberrecht. Es gilt das Silicon-Valley-Motto „Move fast and break things“. Denn wenn sich Infrastrukturen und Produkte erst einmal hinreichend etabliert haben, wird es immer schwieriger, davon wieder abzurücken.

Der Europäische Datenschutzausschuss hat festgestellt (EDPS 2021- 0518), dass Microsoft 365 – in das jetzt anwendungsübergreifend auch ein KIAssistent eingebaut werden soll – nicht mit der DS-GVO vereinbar ist. Es wird trotzdem flächendeckend von deutschen Behörden, auch Universitäten, genutzt, da es als digitale Infrastruktur etabliert ist. Diese strukturelle Ignoranz oder der Nichtvollzug von Rechtsvorgaben ist ein rechtsstaatliches Problem, denn Gesetzesgeltung und -bindung werden ausgehöhlt. Auch darin liegt eine Form von Machtmanifestation, wenn bestimmte Akteure Rechtsbindung eigenmächtig aufkündigen können. 

Die Möglichkeit der Extraktion von immensen Datenmengen, der Gruppierung und Profilbildung von Individuen führt zu einer gesellschaftstrukturellen Vorhersagemacht. Prädiktive Analytik als Spielart maschinellen Lernens ermöglicht die Ableitung von sensibelsten Informationen über Individuen. Dass Firmen wie Google Informationen über einen Großteil der internetnutzenden Bevölkerung akkumulieren, weiterverkaufen und für diverse Zwecke nutzen können, bedeutet nicht nur eine Aushöhlung von Privatheit, Autonomie und Datenschutz, sondern ist auch ein nationales Sicherheitsrisiko. Die sozialen und gesellschaftlichen Konsequenzen gehen weit über "personalisierte Werbung" hinaus (Zuboff, Surveillance Capitalism, 2018; Hao, Empire of AI, 2025). Kategorien des Antidiskriminierungsrechts laufen ins Leere, da KI aus jeder noch so absurd scheinenden Information prognostisch etwas ableiten kann und Rubriken konstruiert, die menschlich nicht mehr verständlich sind. Vor der bestehenden und weiterwachsenden Abhängigkeit von privaten Daten- und KI-Infrastrukturen, insbesondere staatlicher Stellen, wird seit Jahren gewarnt. Auftrieb bekommt die Diskussion im aktuellen geopolitischen Kontext: Bricht die deutsche Verwaltung zusammen, wenn Microsoft auf Trumps Anweisung hin den Service einstellt? 

"Die sozialen und gesellschaftlichen Konsequenzen gehen weit über "personalisierte Werbung" hinaus."

Die epistemische Macht von KI liegt nicht nur im Vorhersagepotential und in der Möglichkeit, alles relevant erscheinen zu lassen. Die Algorithmen der Inhaltsmoderation der sozialen Medien und generative Modelle haben erhebliche wissensbezogene Auswirkungen. Welche Informationen werden überhaupt wahrgenommen, wer kontrolliert diese? Was gilt als Wissen, wer produziert und validiert dieses? 

Am sichtbarsten ist die ökonomische Machtkomponente von KI. Staatliche Institutionen, Wissenschaft und NGOs wirken in wichtiger Weise auf Entwicklung und Anwendung von KI ein, die breit diskutierten und von der Mehrzahl der Menschen genutzten Modelle sind allerdings primär die von global agierenden Tech-Firmen. Der Standford AI Index dokumentiert im Jahresturnus die Entwicklung von KI und zeigt die Dominanz privater Technologieunternehmen in nahezu allen Bereichen auf: leistungsstärkste Modelle, Anzahl wissenschaftlicher Publikationen und Verbreitung. Diese Zahlen lassen sich auf unterschiedliche Weise interpretieren, sie zeigen aber eines sicher: Populäre KI ist eine Risikokapitaltechnologie, die erhebliche Investitionen in die oben genannten Elemente erfordert – OpenAI, die Firma hinter Chat GPT, hat Anfang 2025 mit dem Stargate Projekt eine 500-Milliarden-Dollar-Investitionsrunde ausgerufen. Investoren wiederum erwarten Gewinne, weshalb eine zwingende Orientierung und Fokussierung auf kommerzielle Anwendungen besteht, die sich möglichst breit skalieren lassen. Das erklärt auch, warum sich die (private) Forschung zu KI in den letzten Jahren auf das Feld des maschinellen Lernens verengt hat: Solche Systeme lassen Skalierbarkeit zu. Somit ist KI in Bezug auf Marktdynamiken keineswegs eine disruptive Technologie: Kleinere Anbieterinnen haben gegen die großen Firmen keine Chance, beziehungsweise ihr Ziel ist ohnehin, von diesen aufgekauft zu werden.

Künstliche Intelligenz – Schwerpunkt in "Forschung & Lehre"

Die September-Ausgabe von "Forschung & Lehre" widmet sich in einem Themenschwerpunkt der Faszination und den Ängsten im Umgang mit Künstlicher Intelligenz. Die Beiträge: 

  • Catrin Misselhorn: Mehr als ein Werkzeug. Reiz und Risiken Künstlicher Intelligenz aus ethischer Sicht 
     
  • Matthias Buschmeier: Verlockung mit Folgen. Zum Einsatz Künstlicher Intelligenz in den Geisteswissenschaften 
     
  • Jürgen Bajorath: Black-Box-Charakter. Künstliche Intelligenz in den Naturwissenschaften 
     
  • Alexander Pretschner | Dirk Heckmann: Tiefgreifende Umbrüche. Künstliche Intelligenz im Lehr- und Prüfungsbetrieb 
     
  • Hannah Ruschemeier: Neue Form der Machtausübung. Künstliche Intelligenz als soziotechnische Entwicklung 
     
  • Oliver Brock | Kristian Kersting: Konstruktionsmerkmale. Zur Intelligenz von Maschinen 
     

Hier geht es zur aktuellen Ausgabe – Reinlesen lohnt sich!

KI und das Innovations-Narrativ 

Im (rechts-)politischen Diskurs hat sich ein sehr erfolgreiches Innovations-Narrativ zu KI etabliert, um gegen Regulierung zu argumentieren. Zum einen ist dies auf aggressive Lobbyarbeit der KI-Industrie zurückzuführen, es gibt beispielsweise massiven Widerstand gegen die europäische KI-Verordnung. Zum anderen dominiert in Debatten über technische und komplexe Themen schnell ein bestimmtes Expertinnenwissen. Dieses Fachwissen kommt besonders zum Tragen, wenn nur eine begrenzte Anzahl von Unternehmen in der Lage ist, die regulierten Produkte selbst zu entwickeln. Diese Unternehmen fordern dann beispielsweise ein "Recht auf Lernen" für KI-Modelle ohne Einschränkungen durch Urheberrecht, KI solle im selben Maße lernen können wie Menschen. 

Durch die Gleichsetzung mit einem simplifizierten Innovationsbegriff liefert KI seine Rechtfertigung bereits selbst mit. Denn gegen nebulöse "Innovation" im Sinne einer vermeintlich stets positiven Entwicklung ist schwer etwas einzuwenden. Im Kontext von KI erscheint dies besonders überzeugend, da individuelle Schäden kaum sichtbar, schwer nachzuweisen und noch schwieriger zu verhindern sind. Simon Johnson und Daron Acemoglu legen in ihrem Buch "Power and Progress" (2023) überzeugend dar, dass technischer Fortschritt nicht mit einer generellen Verbesserung für den Großteil der Bevölkerungen einhergeht, sondern dass primär eine kleine Elite profitiert. Dazu passt, dass KI vieles von dem verspricht, was kapitalistische Systeme mit Wachstum gleichsetzen: Kostensenkung, Effektivitäts- und Effizienzsteigerung. Geformt wird dieses Narrativ durch die solutionistischen Versprechen, dass die gesamte Menschheit von KI profitieren werde, Klima- und Verteilungsprobleme durch KI gelöst würden, unterstrichen durch das Ziel, eine generelle KI zu entwickeln, die den Menschen bei so gut wie allen Aufgaben ersetzen könne. Darin enthalten sind explizite antiregulatorische Bestrebungen, denn eine generelle KI ist weder regulierbar noch kontrollierbar. 

Diese Zukunftsversprechen befeuern allerdings ebenfalls in gezielter Weise den Mythos eines KI-Wettrennens zwischen den Akteuren China, USA und Europa, die jeweils als Vertreter unterschiedlicher Regulierungs- und Governanceansätze in Stellung gebracht werden: Diktatur, Laissez-faire mit Wirtschaftsfokus und rechtsstaatliche Regulierung. Diese Darstellung suggeriert irreführend, dass es ein Ziel gäbe, das von einer Partei anhand objektiv messbarer Kriterien (wie Geschwindigkeit) zuerst erreicht werden kann. Dieser Rahmen schränkt den Bewertungsumfang erheblich ein, da er sich auf technische Parameter bestimmter KI-Systeme konzentriert. Im Gegensatz dazu lassen sich soziotechnische Überlegungen, Nachhaltigkeitsaspekte, die Einhaltung gesetzlicher Vorschriften und die Übereinstimmung mit sozialen Werten nicht so einfach quantifizieren. Daher spielen sie in der Wettlauferzählung keine wesentliche Rolle. 

"Im (rechts-)politischen Diskurs hat sich ein sehr erfolgreiches Innovations-Narrativ zu KI etabliert, um gegen Regulierung zu argumentieren."

Ohne Zweifel gibt es viele wünschenswerte Anwendungen von KI, welche die Effizienz und Effektivität der Erreichung gesellschaftlich erstrebenswerter Ziele steigern und das Wirtschaftswachstum ebenso fördern wie die Forschung und andere Bereiche der Gesellschaft und dies auch in Zukunft tun werden. Die öffentliche medizinische Forschung, die Qualitätssicherung in produzierenden Unternehmen, der Umweltschutz und zahlreiche weitere Beispiele zeigen das Potential von KI für Verbesserungen und Entwicklungen, die dem Gemeinwohl zugutekommen könnten. 

Allerdings sollten wir im Rahmen eines offenen Diskurses ermitteln, von welchen technischen Entwicklungen demokratische Gesellschaften wirklich profitieren, anstatt rechtsstaatliche Werte und Grundrechtsschutz von privaten Geschäftsmodellen unterlaufen zu lassen, im Glauben, ein vermeintliches „Wettrennen“ zu gewinnen. Dazu gehört auch, sich vor dem Hintergrund des Vorsorgeprinzips zu fragen, ob systemische Rechtsverletzungen und der massive Ressourcenverbrauch von großen Modellen mit unkonkreten Versprechen einer allgemeinen KI zu rechtfertigen sind.

Künstliche Intelligenz

Künstliche Intelligenz greift zunehmend in das alltägliche Leben ein. Welche Chancen und Risiken birgt dies? Woran arbeitet die KI-Forschung und welche Folgen hat KI in der Lehre? Ausgewählte Artikel zum Thema finden Sie in unserem Themenschwerpunkt "Künstliche Intelligenz".

KI und Wissenschaft 

Nach einem ersten Schockmoment verbunden mit der Frage, ob textbasierte Disziplinen wie die Rechtswissenschaft Studierenden neben dem Prompten – dem Formulieren von Handlungsanweisungen an LLMs – überhaupt noch etwas beibringen können, regt sich inzwischen Widerstand gegen den zunehmenden Einsatz von KI im Bildungsbereich. In mehreren offenen Briefen kritisieren Lehrende an Universitäten den unkritischen Einsatz von KI. Auch das Wissenschaftssystem muss sich mit den Herausforderungen von KI auseinandersetzen: KI-generierte Studien und versteckte Manipulationen für Reviews unterwandern Qualitätssicherungsmechanismen. 

Die Diskussion darüber, ob KI Kreativität und Wissenschaft fördert oder aber entwertet, verschlechtert und zudem kognitive Abhängigkeiten schafft, ist in vollem Gange. KI sollte dabei weder ignoriert noch als unausweichlich angesehen werden. Wichtig ist vor allem, eine informierte Debatte zu führen und zu fragen: Wer profitiert von den versprochenen Innovationen? Welche Fähigkeiten sind notwendig, um KI sinnvoll und informiert zu nutzen? Wie können wir einem De-Skilling, dem Kompetenzverlust, entgegenwirken? Große Sprachmodelle können nicht darauf programmiert sein, zur Wahrheitsfindung beizutragen, schon deshalb sollte ihr akademischer Anwendungsbereich als begrenzt angesehen werden. 

Die Fähigkeit zur Quellenkritik wird immer wichtiger: Billige, schlechte Texte fluten das Internet und andere Medien ("AI Slop"). Stil, Genauigkeit und Prägnanz werden wichtiger denn je. Anstatt sich auf die Ergebnisse unstrukturierter Prompts zu verlassen, sollten LLMs vielmehr als Zero- Shot-Translator genutzt werden (Mittelstadt et al., Nature Human Behaviour, 2023). "Zero-Shot" bedeutet hier, dass die Auswahl des Ausgangsmaterials und des Fachgebiets durch die Endnutzerin oder den Endnutzer erfolgt mit der Annahme, dass das gewählte LLM nicht speziell dafür trainiert wurde. Daher muss das Ergebnis aktiv verifiziert werden. 

Ziel sollte es in allen Bereichen sein, eine menschenzentrierte, gemeinwohlorientierte und nachhaltige Digitalisierung anzustreben und KI stets in der Wechselwirkung zwischen Mensch und Gesellschaft zu verorten. Hier besteht durchaus Grund zu Optimismus: Universitäten sind Orte kritischen Denkens und sozialer Interaktion, Fähigkeiten, die KI niemals haben oder vermitteln können wird.