KI und Recht: Künstliche Intelligenz auf der Anklagebank.

Ob in der Fabrikhalle, in autonomen Fahrzeugen oder im OP: In der Arbeitswelt kommen immer mehr Systeme mit Künstlicher Intelligenz zum Einsatz. Doch wer trägt rechtlich die Verantwortung, wenn die Technik Fehler macht?

  • Der zunehmende Einsatz von Künstlichen Intelligenzen wirft nicht nur ethische sondern auch juristische Fragen auf.
  • Weltweit hinkt die Rechtsprechung der Entwicklung hinterher.
  • EU-Kommission und Expertenkreise arbeiten an Strategien zur Regulierung von KI-Systemen.
Wer sich ganz und gar auf die Sicherheit autonomer Fahrzeuge verlässt, muss damit rechnen, in eine Katastrophe zu rasen. So geschehen mit dem selbst fahrenden Volvo aus der Flotte des Ridesharing-Anbieters Uber, der 2018 im US-Bundesstaat Arizona eine Frau erfasste, die gerade die Fahrbahn überquerte.

Knapp ein Jahr später urteilte die zuständige Staatsanwaltschaft, dass sie Uber nicht für strafrechtlich verantwortlich halte. Zuerst waren Experten von einem Softwarefehler ausgegangen. Doch dann stellte sich heraus, dass die Fahrerin während der Fahrt auf ihrem Smartphone Videos geschaut haben soll.

Mensch oder Maschine: Wer ist im Recht?

Ähnlich lag der Fall beim ersten tödlichen Unfall mit einem autonom fahrenden Tesla. Selbst die beste Technik befreit den Fahrer nicht von der Verantwortung, den Verkehr im Auge zu behalten – noch. Noch ist das autonome Fahren ein Komfortmerkmal, das lange Touren angenehmer machen soll. Aber künftig wird die Künstliche Intelligenz (KI) allein am Steuer sein, während die Fahrgäste arbeiten oder – wie es das Geschäftsmodell vorsieht – kostenpflichtige Unterhaltungsangebote nutzen. Wer dann bei Unfällen haftet, ist die erste große juristische Debatte des KI-Zeitalters. Bisher ist es eher die Ausnahme, dass ein Autohersteller bei Unfällen rechtlich in die Pflicht genommen wird.
Künstliche Intelligenz und Recht: Roboterhand hält ein Skalpell.

Gesetzesvorschläge auf dem Weg.

Dabei sind Autos nur ein besonders auffälliger Anwendungsfall – schon längst treffen Künstliche Intelligenzen wichtige Entscheidungen. Systeme zur Bilderkennung markieren Passanten als Verdächtige, HR-Systeme sortieren Bewerber aus, Roboter assistieren Ärzten. Was ist, wenn diese Maschinen Fehler machen? Haftet dann der Mensch, also der Programmierer? Und wer kann beurteilen, ob der Algorithmus schuld war oder die Daten, mit denen er gefüttert wurde? „Derzeit verfügt kein einziges Land auf der Welt über ein Rechtssystem, das den Besonderheiten von KI-Systemen und smarter Robotik spezifisch Rechnung trägt“, stellt der Jurist Martin Ebers fest, Vorsitzender der Fachgesellschaft Robotics and AI Law Society (RAILS). Die EU-Kommission hat 2018 eine KI-Strategie verabschiedet und eine Expertengruppe eingesetzt, die sich unter anderem mit einer Reform der Produkthaftungsrichtlinien beschäftigen soll.
Künstliche Intelligenz und Recht: Ein Industrieroboter wird von einem Menschen programmiert.

Künstliche Intelligenz keine Garantie gegen menschliche Fehler.

Bisher gibt es nur wenige Klagen wegen KI-Fehlern. Für Aufsehen sorgte ein Prozess um einen Unfall im VW-Werk in Baunatal in Hessen, bei dem ein Industrie-Roboter einen 21-Jährigen tödlich verletzte. Das Verfahren wurde eingestellt, weil das Opfer selbst offenbar den Roboter falsch eingestellt hatte. Noch anhängig ist das erste Verfahren, bei dem ein Investor aus Hongkong klagt, weil eine KI sein Geld durchgebracht hat: Der Supercomputer K1 sollte ein 2,5 Milliarden Dollar schweres Portfolio managen, verbrannte aber allein am Valentinstag 2018 20 Millionen Dollar.
Der Investor verklagt nun den Dienstleister Tyndaris auf 23 Millionen Dollar Schadenersatz, weil der die Fähigkeiten der KI übertrieben dargestellt habe. Tyndaris wiederum fordert drei Millionen Dollar an ausstehenden Gebühren und bestreitet die Vorwürfe – eine Gewinngarantie habe man nie abgegeben.
Photo credits: EyeEm / Getty Images, Cultura / Getty Images, Photodisc / Getty Images