Moralische Maschinen

Nell Watson war Start-up-Unternehmerin – und erkannte, welche gewaltigen gesellschaftlichen Herausforderungen durch künstliche Intelligenz auf uns zukommen. Jetzt will die nunmehrige Tech-Philosophin und Futuristin Maschinen Moral beibringen. Doch ist das möglich?

Die Zerstörung der Menschheit. Nichts weniger als das, nichts weniger als der Untergang des menschlichen ­Lebens auf ­diesem Planeten könnte drohen, wenn Maschinen eines
Tages intelligenter sein sollten als wir – und sich plötzlich verselbst­ständigen. Zu den kritischen Stimmen, die vor einem solchen Szenario warnen, gehören unter anderem der im Frühling verstorbene Physiker Stephen Hawking und Tesla-Gründer Elon Musk. Doch schon lange davor waren außer Rand und Band geratene intelligente Maschinen ein populärer Stoff für Film und Literatur.

Eine Frau, die diese drohende Zerstörung der Menschheit abwenden könnte, treffen wir an einem sonnigen Samstagvormittag im Garten eines Hotels in der beschaulichen Tiroler Gemeinde Wattens: die Futuristin und Tech-Philosophin Nell Watson. Gleich vorweg: Dystopische Horrorszenarien sind für sie kein Thema. Dennoch zielt ihre Mission auf den Kern des Problems ab: Sie will intelligenten Maschinen Moral und Werte beibringen.

Denn niemand bestreitet mehr, dass künstliche Intelligenz unsere Gesellschaft und Wirtschaft stark verändern wird. Doch sind wir ausreichend auf die ethischen Konsequenzen der neuen Technologien vorbereitet? „Wahrscheinlich nicht“, sagt Watson – und lacht. Um das zu ändern, tritt die gebürtige Nordirin als Rednerin auf; unter anderem bei Unternehmen wie Microsoft, Credit Suisse oder Ericsson und auf zahlreichen Technologiekonferenzen. In Wattens sprach sie auf einer Veranstaltung zum Thema künstliche Intelligenz im Rahmen der Summer School des Institute for Entrepreneurship Cambridge – Tirol (IECT) von Risiko­kapitalgeber Hermann Hauser. Watson gehört außerdem zur Belegschaft der Singularity ­University, eines im Silicon Valley beheimateten Thinktanks, der sich damit beschäftigt, wie der rasante technologische Fortschritt unsere Gesellschaften verändern wird. Watson setzt sich dort unter anderem mit dem „Value Alignment“-­Problem auseinander – also der Frage, wie ­sichergestellt werden kann, dass die Ziele intelligenter Maschinen im Einklang mit menschlichen Werten stehen. ­Algorithmen sind zunächst nur darauf ausgerichtet, zu optimieren. Das heißt noch nicht, dass sie sich dabei so verhalten, wie es Menschen für moralisch halten. Genau das möchte Watson aber erreichen.

Der Weg zur Tech-­Philosophin war bei ihr aber nicht ­vorgezeichnet. Ursprünglich war Nell Watson Start-up-Unternehmerin. 2011 gründete sie das Unternehmen ­Poikos (heute QuantaCorp). Das Ziel: ­Jeder sollte mit einer normalen Smartphone­kamera seinen ­Körper vermessen können. Mithilfe von künstlichen neuronalen Netzen rechnete das Unternehmen zweidimensionale Bilder so hoch, dass ein 3D-Modell entstand. „Damals dachte jeder, wir seien verrückt und unser Ziel unmöglich“, erzählt Watson. Doch es funktionierte. Die Idee dazu kam ihr, als sie eine Dokumen­tation über Kleiderherstellung in asia­tischen Sweatshops sah. Würde man dort nicht Stangenware, sondern maßgefertigte Kleidung herstellen, könnten die Arbeiter mehr Geld verdienen, dachte Watson. Das Pro­blem: Um maßgeschneiderte Kleidung zu produzieren, muss der Kunde vermessen werden – was nicht ganz so einfach geht. Watson wollte den Prozess vereinfachen, sodass eine einfache Smartphonekamera reichen würde.

So begann Watson, sich mit ­maschinellem Sehen zu ­beschäftigen – und kam in weiterer Folge zu künst­licher Intelligenz. 2013 nahm sie dann am „Global Solutions“-Programm der Singularity University teil, bei dem jährlich nur 80 Studenten aus mehreren Tausend Bewerbern ausgewählt werden. Danach wurde sie rasch Mitglied der Fakultät für künstliche Intelligenz und Robotik. Sie kam mit Menschen in Kontakt, die über die gesellschaftlichen ­Auswirkungen künstlicher ­Intelligenz nachdachten – und hatte selbst die eine oder andere Idee zu diesem Thema. Weil ihre Einfälle aber zunächst auf taube Ohren stießen, nahm sie es selbst in die Hand und gründete eine eigene Non-Profit-­Organisation namens EthicsNet. Kurz zusammengefasst will diese NPO künstlicher Intelligenz ethisches Verhalten beibringen.

„Gute Manieren sind die ­Mutter jeglicher Moral, das Fundament“, sagt Watson. Kindern würde man meist weniger beibringen, was richtig und falsch ist, sondern viel eher einfache gesellschaftliche Umgangsformen – etwa dass man Leute nicht ­anstarren soll oder sich in einer ­Kirche leise verhält. Ähnliche grundlegende Regeln müsse man nun intelligenten Maschinen vermitteln, glaubt Watson. „Es geht um Dinge, die man einem wohlerzogenen sechsjährigen Kind beibringen würde“, sagt sie. Technisch betrachtet gibt es dazu vielversprechende, aber unterschiedliche Ansätze – etwa aus dem ­Bereich des Inverse Reinforcement Learnings: ­Algorithmen lernen ­dabei durch ­Beobachtung, ohne Regeln explizit beigebracht zu bekommen. Doch um die unterschiedlichen Ansätze zu testen und untereinander vergleichbar zu machen, braucht es eine Benchmark. Dazu will EthicsNet einen Datensatz schaffen, der ­genau das leisten kann – und der von Menschen rund um die Welt ergänzt und bearbeitet wird. So soll sichergestellt werden, dass Algorithmen Wertvorstellungen unterschiedlicher Kulturen lernen. Das Vorbild dafür heißt Imagenet – eine gigantische Bild­datenbank, die 2009 präsentiert wurde und als Grundlage für die starken Fortschritte in automatisierter Bilderkennung in den 2010er-Jahren gilt. Mithilfe von Imagenet wurden Algorithmen darauf trainiert, Objekte zu erkennen – und weil der Datensatz als Benchmark fungierte, waren die Ergebnisse unterschiedlicher Ansätze objektiv vergleichbar. EthicsNet will nun dasselbe erreichen, wenn es darum geht, Algorithmen zu trainieren, ethisches Verhalten zu lernen.

Dass es so schwierig ist, sich auf moralische Konsequenzen neuer Technologien einzustellen, liegt auch daran, dass sich diese oft schnell und teilweise überraschend entwickeln, sagt Watson. So hat etwa ein von Googles Tochterunternehmen Deepmind geschaffenes Programm im Jahr 2016 den weltbesten Spieler des Brettspiels Go geschlagen. Die meisten Experten im Bereich der künstlichen Intelligenz hätten angenommen, dass dies noch mindestens weitere zehn Jahre dauern würde, sagt Watson. Im derzeitigen Stadium passiere vieles unerwartet und etwas ­zufällig: „Das schmutzige kleine Geheimnis maschineller Intelligenz ist, dass in vielerlei Hinsicht niemand wirklich weiß, was er genau tut. Wir werfen Zeug an die Wand und sehen, was kleben bleibt.“ Gemeint ist: Viele Algorithmen, die heute eingesetzt werden, sind nicht klar nachvollziehbar. Sie durchforsten riesige Datenmengen – und optimieren, optimieren, ­optimieren, bevor sie entscheiden. Der Haken: Wie die Entscheidung letztendlich zustande kommt, ist nicht direkt nachvollziehbar. „Wenn wir historisch zurückblicken, sind wir an einem Punkt, an dem wir Alchemie betreiben – noch keine Chemie“, beurteilt Watson die aktuelle Situation. Die Alchemisten hätten Dinge aufgekocht und gewartet, was passiert – erst die Chemie hatte dann klare Modelle entwickelt, warum und wie Prozesse funktionieren. So ähnlich sei es derzeit auch mit der künstlichen Intelligenz. „Über viele neue Entwicklungen sind wir einfach gestolpert, ohne vorher klare Hypothesen oder Theorien formuliert zu haben“, sagt Watson.

Genau dies hat aber bereits jetzt negative Auswirkungen auf unsere Gesellschaft. Watson nennt die zunehmende ideologische Polarisierung als Beispiel. Algorithmen seien sehr gut darin, Dinge zu optimieren. Im Inter­net bedeute dies häufig, dass sie darauf eingestellt sind, das User-Engagement zu erhöhen – und am besten gelinge dies über Emotionen, insbesondere Empörung. Maschinen versuchen, dieses Gefühl zu erreichen, und verstärken damit die Polarisierung. Ein weiteres Beispiel: die riesigen Mengen an Content, die täglich hochgeladen werden – etwa auf YouTube. Diese manuell zu moderieren sei praktisch unmöglich. Die Entscheidungen, die Algorithmen treffen, seien aber häufig nicht nachvollzieh- oder begründbar. Manchmal würden völlig harmlose Inhalte gesperrt. So könne es dazu kommen, dass Menschen eine Art Selbstzensur vornehmen: „Leute fürchten sich, etwas zu sagen, weil sie von irgendeinem dummen Algorithmus blockiert wurden, der drei Wörter aus einem Absatz fehl­interpretiert“, meint Watson. Und je mehr Algorithmen eingesetzt werden, desto ausgeprägter würde das Problem. „Ich mache mir Sorgen, wie das unsere ­Gesellschaft verändern wird.“

Insgesamt bleibt Watson jedoch vorsichtig optimistisch. Das sei auch notwendig, wenn man sich mit Technologie beschäftige, glaubt sie: „Nur mit Optimismus kann man sich überhaupt eine bessere Zukunft vorstellen und sich überlegen, wie man diese dann in die Gegenwart bringt.“ Wer sich hingegen Dystopien und Horror­szenarien ausmale, lähme sich selbst. „Ich versuche, den Menschen die Herausforderungen bewusst zu machen, aber gleichzeitig auch die Wahlmöglichkeiten aufzuzeigen.“ Solche Möglichkeiten sieht Watson viele. Sie glaubt, dass intelligente Maschinen uns schlussendlich sogar helfen könnten, bessere Menschen zu werden. Potenzial sieht sie hierbei auch in der Blockchain-Technologie, etwa im Hinblick auf sogenannte Externalitäten (also Dinge, die negative Auswirkungen haben, für die der Verursacher nicht aufkommt – wie etwa Umweltverschmutzung, Anm.). Kombiniere man Blockchain-Technologien mit künstlicher Intelligenz, glaubt Watson, könnte es erstmals in der Geschichte möglich werden, solche Externalitäten ihren Verursachern zuzuordnen – und sie in die Preise der Produkte einfließen zu lassen. Im Gegenzug könnten ethisch einwandfreie Produkte günstiger angeboten werden. So würde ein Anreiz für ethisches Verhalten geschaffen. „Wenn wir Glück haben und es nicht vermasseln, könnten wir so etwas wie eine industrielle Revolution, basierend auf diesen Technologien, sehen.“ Der Niedergang der Menschheit ist also laut Nell Watson noch keine ausgemachte Sache – ganz im Gegenteil.

Dieser Artikel ist in unserer September-Ausgabe 2018 „Women“ erschienen.

Up to Date

Mit dem FORBES-NEWSLETTER bekommen sie regelmässig neue Updates rund um den Women's Summit direkt in Ihr E-mail-Postfach geliefert.