Warum Alexa nicht haftet

Heute ist KI nicht mehr nur eine Leinwand-Fantasie, sondern Teil unseres Alltags. Sie verändert Prozesse, unsere Arbeitswelt und das Leben im öffentlichen Raum. Aber viele rechtliche Fragen sind noch ungeklärt.

Künstliche Intelligenz (KI) hatte schon ­viele ­Gesichter, etwa jenes des Supercomputers HAL 9000 im Science-Fiction-Klassiker „2001: Odyssee im Weltraum“. Heute ist KI nicht mehr nur eine Leinwandfantasie, sondern verändert Prozesse, unsere Arbeitswelt und das Leben im ­öffentlichen Raum. Viele rechtliche Fragen rund um KI sind aber immer noch ungeklärt. Das ist brisant, denn zumindest die Frage nach der Haftung bei Fehlverhalten selbstlernender Systeme ist spätestens seit einem tödlichen Unfall im März 2018 mit einem selbstfahrenden Auto in unserem Alltag angekommen. Die faire Verteilung der Haftung bei derartigen Vorfällen und viele andere Rechts­fragen in Verbindung mit selbstlernenden Systemen sind noch nicht abschließend diskutiert. Ebenso kennen wir heute erst einen kleinen Teil der möglichen Anwendungsfälle. Fest steht, dass selbst­lernende Systeme oder Maschinen nicht Träger von Rechten und Pflichten sein können. Nach österreichischem Rechtsverständnis können dies nur natürliche oder juristische Personen sein.

Dementsprechend müssen Fragen nach der Haftung oder den Rechten an „geistigen Schöpfungen“ bzw. einer „erfinderischen Tätigkeit“ zwischen Hersteller und Anwender ausgetragen werden. Aber schon die Frage nach der Hersteller­haftung ist nicht einfach zu beantworten, weil selbstlernende Systeme in der Regel aus einer ­Vielzahl von Hardware- und Softwarekomponenten bestehen. Den einen Hersteller gibt es also ­selten. Nur bei bestimmten Anwendungsfällen, vor ­allem bei selbstfahrenden Autos, können Spezial­bestimmungen auch zur Haftung anderer Beteiligter (beispielsweise dem Halter des Autos) führen. Beim tödlichen Unfall in Arizona 2018 kann man die Schuld beim Autofahrer suchen, der ­eingreifen und den Unfall verhindern hätte können. Dann wäre dieser unter Umständen den Hinterbliebenen des Opfers schadenersatzpflichtig. Oder es liegt im ­Verschulden des Herstellers, der die Software des ­selbstfahrenden Autos programmiert hat. Möglicherweise war aber auch der Sensor kausal für den Unfall, oder die im Sensor verbaute Software (sogenannte „Firmware“), die diesen steuerte. Dies wird aber in der Regel nur mit sehr hohem technischem und damit finanziellem Aufwand nachweisbar sein. Weniger drastisch sind Programmierfehler bei Home-Assis­tenten: Man stelle sich vor, der Sprachassistent Alexa hört beim Hauptabendprogramm im TV mit und legt aufgrund ­einer ­Aussage des Talkshowgasts ein Produkt in den ­eigenen ­Warenkorb – so geschehen 2017 mit Puppenhäusern in den USA. Wer haftet? Hier wird es in der Praxis darauf ankommen, ob eine Fehlfunktion oder ­-bedienung vorliegt. Im ersten Fall wird die Haftung ­primär den Hersteller oder eventuell den Verkäufer ­treffen, im zweiten Fall eher den Anwender.

Die meisten der oben angerissenen Fragen hat der Gesetzgeber bisher nicht beantwortet und wird dies aller Voraussicht nach auch nicht tun. Es ist auch nicht seine Aufgabe, jede neue Technologie per Anlassfallgesetzgebung zu regeln. Vielmehr ist es Aufgabe der Juristen und Juristinnen, angemessene ­Lösungsansätze zu entwickeln. In Streitfällen wird die Rechtsprechung korrigierend eingreifen. Es bleibt auf jeden Fall spannend im KI-Universum.

Die Autoren – Wolfgang Tichy und Michael Woller – sind Partner bei der Wirtschaftsrechtskanzlei Schönherr und auf den Bereich New Technologies spezialisiert. Tichys Beratungsfokus liegt im IT-Recht (u. a. Softwareverträge), während Woller Unternehmen in den Bereichen Intellectual Property und Lauterkeitsrecht berät.

Gastkommentar: Wolfgang Tichy und Michael Woller

Opinions expressed by Forbes Contributors are their own.
Der Gastkommentar ist in unserer März-Ausgabe 2020 „KI“ erschienen.

Up to Date

Mit dem FORBES-NEWSLETTER bekommen sie regelmässig die spannendsten Artikel sowie Eventankündigungen direkt in Ihr E-mail-Postfach geliefert.