Vier Roboter bei einer Gegenüberstellung von Verdächtigen bei der Polizei
mauritius images / Masterfile RM / Andrew Kolb

Künstliche Intelligenz
Ist ein Roboter haftbar?

Selbstständig handelnde KI-Systeme halten in immer mehr Lebensbereichen Einzug. Wer haftet, wenn die Maschine Fehler macht oder Rechte verletzt?

Von Wendehorst Christiane 13.01.2020

Unsere Rechtsordnung ist eine von Menschen für Menschen geschaffene. Sie besteht aus Rechtsnormen, die an Menschen gerichtet sind und auf menschliches Verhalten Bezug nehmen. Soweit Rechtsnormen auch an sogenannte "juristische Personen" gerichtet sind – also etwa an eine GmbH – stehen dahinter doch wieder Menschen, die für diese juristischen Personen handeln. Natürlich beziehen sich manche Rechtsnormen auf Sachen und somit auch auf Maschinen. Adressaten dieser Rechtsnormen sind aber nicht die Maschinen selbst, sondern die dahinterstehenden Personen, welche diese Maschinen herstellen, betreiben, und so weiter.

Die in Maschinen verbaute Software übernimmt allerdings heute hochkomplexe Funktionen, welche wir traditionell mit menschlichem Denken und Entscheiden verbinden, und sie wird oft nicht mehr vollständig programmiert, sondern "lernt" anhand vorgegebener Optimierungsziele aus Daten. Wir sprechen dann üblicherweise von "Künstlicher Intelligenz" (KI) oder "autonomen Systemen" und bringen damit zum Ausdruck, dass der Mensch ein Stück weit die Kontrolle abgegeben hat und etwas entstanden ist, dessen Reaktionen sich nicht mehr vollständig vorhersagen lassen. Muss nun auch die Rechtsordnung ganz neu überdacht werden?

Der Streit um die e-Person

Manche wollen derartigen "autonomen" Systemen künftig in der Tat Rechtspersönlichkeit zukommen lassen, plädieren also für die Anerkennung einer "elektronischen Person" (e-Person). Auch das Europäische Parlament hat diesen Gedanken 2017 ins Spiel gebracht. Dies würde bedeuten, dass ein Roboter selbst Adressat von Rechtsnormen wäre, sein "Verhalten" nach Rechtsnormen ausrichten müsste und haftbar oder gar strafbar werden könnte.

Die Anerkennung einer e-Person ist abzulehnen. Maschinen deswegen, weil ihre Algorithmen sich selbst optimieren und überschreiben, auch nur in wenigen Aspekten wie Menschen zu behandeln, würde ethisch bedenklichen Verwirrungen Vorschub leisten. Ohnehin müsste eine solche Maschine dazu mit eigener Haftungsmasse ausgestattet werden – dann aber läge es näher, an eine neue Gesellschaftsform ("e-GmbH") zu denken. Insgesamt dürften sich mit Hilfe ganz herkömmlicher Instrumente (Gefährdungshaftung, Pflichtversicherungen und so weiter) erwünschte Ergebnisse weit zwangloser erreichen lassen als mit Hilfe der e-Person.

Wenn Maschinen Schäden verursachen

Wenn nun aber weiterhin diejenigen Personen für Schäden haften, welche Maschinen herstellen, betreiben oder konkret verwenden, muss sichergestellt sein, dass bei wachsender "Autonomie" von Maschinen kein Haftungsvakuum entsteht. Dies wird immer wieder in Bezug auf das sogenannte autonome Fahren behauptet. Allerdings haftet nach dem Straßenverkehrsgesetz jeder Kfz-Halter verschuldensunabhängig für Schäden, die durch den Betrieb des Kfz verursacht werden. Eine Haftungslücke besteht somit nicht. Der Schwerpunkt der Diskussion liegt vielmehr auf der Frage, ob es gerecht ist, dass weiterhin der Kfz-Halter unmittelbar die Prämien für die Haftpflichtversicherung trägt, obgleich künftig die allermeisten Unfälle eher vom Hersteller verursacht werden dürften.

Wenn dagegen etwa ein Rasenroboter über einen Kinderfuß fährt, gelten nur die allgemeinen Grundsätze der Verschuldenshaftung und der Haftung des Herstellers für fehlerhafte Produkte. Hier werden vielfach Haftungslücken befürchtet, weil das Verhalten von KI sich nie vollends vorhersehen lässt. Allerdings dürfen gefährliche Maschinen, deren Verhalten sich nicht vorhersehen lässt, in der Gegend von Kinderfüßen gar nicht eingesetzt werden, und wird meist schon deswegen gehaftet. Sofern tatsächlich Haftungslücken bestehen, hängen sie eher mit ganz anderen Aspekten zusammen, namentlich mit der Vernetzung von Geräten und damit verbundenen Schwierigkeiten, die Ursache eines Schadens zu finden, mit der schwierigen Einordnung von Updates oder auch mit neuen Arten von Schäden, zum Beispiel an unserer Privatsphäre.

Interessant ist allerdings die Situation im vertraglichen Bereich. Bedient sich etwa eine Bank zur Prüfung der Kreditwürdigkeit ihres Kunden menschlicher Mitarbeiter, haftet sie für deren Fehlverhalten auch dann, wenn die Bank die Mitarbeiter sorgfältig ausgewählt und überwacht hat. Eine analoge Anwendung dieser strikten Haftung auf den Einsatz intelligenter Maschinen lehnt die bislang wohl herrschende Auffassung ab: Bedient sich eine Bank für dieselbe Aufgabe einer intelligenten Software, haftet die Bank danach nicht, wenn sie die Software bei einem anerkannten Unternehmen erworben und der Betriebsanleitung entsprechend eingesetzt und überwacht hat. Ob diese Ungleichbehandlung aus ethischer wie aus juristischer Sicht hingenommen werden kann, muss mit einem Fragezeichen versehen werden. Die besseren Argumente sprechen hier wohl dafür, die Regelungen über die Gehilfenhaftung bei Einsatz von Maschinen eines hohen Grades an "Autonomie" entsprechend anzuwenden.

Wenn Maschinen Verträge schließen

Immer häufiger werden Maschinen auch eingesetzt, um Verträge zu schließen, beispielsweise Wertpapiere am Kapitalmarkt zu handeln. Dann stellt sich zum einen die Frage, ob von einem algorithmischen System generierte Erklärungen demjenigen Akteur als eigene Vertragserklärung zugerechnet werden können, der das System einsetzt. Obgleich auch in diesem Zusammenhang Zurechnungsprobleme erörtert werden, spricht sich die wohl herrschende Auffassung – mit unterschiedlichen Begründungen – für eine Zurechenbarkeit derartiger Erklärungen aus.

"Auf Menschen zugeschnittene Sorgfaltsanforderungen müssen umgedeutet werden in Anforderungen an die Programmierung der eingesetzten Software."

Allerdings existieren eine Vielzahl von Rechtsnormen im Vertragsrecht, die auf "Wissen", auf "Wissenmüssen" oder sonst auf den Erkenntnis- und Erfahrungshorizont von Menschen abstellen. Dann stellt sich jeweils die Frage nach der richtigen Anwendung, wenn Maschinen anstelle von Menschen Erklärungen generieren, empfangen und verarbeiten. Im Ergebnis müssen auf Menschen zugeschnittene Sorgfaltsanforderungen umgedeutet werden in Anforderungen an die Programmierung der eingesetzten Software. Ob es immer angemessen und effizient sein wird, just die auf den menschlichen Erkenntnis- und Erfahrungshorizont zugeschnittene Risikoverteilung 1:1 auf den maschinellen Vertragsverkehr zu übertragen, erscheint allerdings fraglich. Langfristig könnte es sich vielmehr empfehlen, neue Regelungen zu schaffen und dabei verstärkt auf objektiv abgrenzbare Risikosphären abzustellen.

Wenn Maschinen "verwerflich" handeln

Schwierigere Probleme treten dann auf, wenn nicht nur auf den menschlichen Erkenntnis- und Erfahrungshorizont abgestellt wird, sondern auf Absichten oder auf den sittlichen Wert oder Unwert menschlichen Verhaltens. So gibt es etwa viele Rechtsnormen, die bei "Arglist", "Ausbeutungsvorsatz" oder bei "Kollusion" besondere Rechtsfolgen vorsehen. Derartige Rechtsbegriffe implizieren ein moralisches Urteil und setzen voraus, dass der Handelnde diese Dimension seines Handelns prinzipiell erkennen kann. Würde zum Beispiel ein Mensch die besondere Zwangslage eines Anderen ausnutzen und von diesem Anderen aufgrund der Zwangslage einen vollkommen überhöhten Preis verlangen, läge Wucher vor. Es könnte aber auch ein Preisalgorithmus dank Mustererkennung "lernen", dass die individuelle Zahlungsbereitschaft bei Umständen, die mit einer Zwangslage typischerweise zusammenfallen, besonders hoch ist. Und natürlich könnten – auch wenn die Rechtslage hier nicht vergleichbar ist – die Preisalgorithmen verschiedener Unternehmer ein aufeinander abgestimmtes Verhalten lernen, das bei menschlichen Akteuren ein verbotenes Preiskartell bedeuten würde.

Die bestehende Rechtsordnung gelangt hier an ihre Grenzen, lässt sich doch gerade bei maschinellem Lernen kaum ein Urteil über den sittlichen Wert oder Unwert maschineller Funktionen fällen und auf diejenige Person projizieren, welche die Maschine einsetzt und die von all diesen Vorgängen vielleicht gar nichts wissen kann. Hier bedarf es zur Vermeidung eines Verantwortungsvakuums gegebenenfalls der Formulierung sachgerechter Parallelvorschriften durch den Gesetzgeber.

Wohin entwickelt sich die Rechtsordnung?

Insgesamt stellt sich die Frage, wohin sich die Rechtsordnung angesichts künstlicher Intelligenz entwickelt. Diesbezüglich existieren verschiedene Standpunkte. Ein Standpunkt verneint überhaupt jeden Handlungsbedarf. Nach einem anderen Standpunkt ist nur, aber immerhin, sicherzustellen, dass man sich durch den Einsatz von Maschinen im Einzelfall seiner Verantwortung nicht entziehen kann. Ein dritter Standpunkt dagegen sieht im Einsatz von KI-Robotik eine durchaus disruptive Entwicklung, die zusätzlich nach ganz neuen Rechtsvorschriften ruft. Algorithmen werden tausendfach kopiert und entwickeln eine massive Breitenwirkung, und sie lassen sich nur noch eingeschränkt erklären. Daher führen Skalen- und Verbundeffekte, Black-Box-Effekte sowie das Phänomen, dass im Wege der Mustererkennung wahrgenommene Korrelationen vielfach an die Stelle von Kausalitäten treten, zu einer ganz neuen Dimension von Gerechtigkeitsproblematik. In diesem Sinne spricht vieles dafür, es nicht nur beim Prinzip funktioneller Äquivalenz zu belassen, sondern in Richtung einer Regulierung algorithmischer Systeme zu denken. Diese muss allerdings – wie es auch jüngst die Datenethikkommission der deutschen Bundesregierung empfohlen hat – strikt risikobasiert erfolgen, das heißt Anforderungen und Kontrollintensität sind abhängig vom konkreten Risikopotenzial, um den Einzelnen wirksam zu schützen, aber zugleich Deutschland als Standort von Forschung, Entwicklung und Digitalwirtschaft nicht zu gefährden.