Intelligente Regeln gesucht

Titelbild: Charlotte Stix, KI, Leverhulme Centre for the Future of Intelligence, Cambridge

Welche Regeln braucht künstliche Intelligenz? Diese scheinbar einfache Frage sorgt für heftige Debatten. Auch KI-Expertin Charlotte Stix widmet sich diesem Thema intensiv.

Darüber, wie künstliche Intelligenz eigentlich genau behandelt und reguliert werden soll, herrscht auch unter Experten Uneinigkeit: Tesla-Gründer Elon Musk fordert schon lange härtere Regulierungsmaßnahmen, während der frühere Nokia-Chef und heutige Vorsitzende der High-Level Expert Group on Artificial Intelligence der Europäischen Union, Pekka Ala-Pietilä, keinen Grund sieht, unüberlegt zu agieren.

Auch die 28-jährige Charlotte Stix widmet sich diesen Themen intensiv. Die Wienerin forscht am Leverhulme Centre for the Future of Intelligence an der Universität Cambridge zu den Themen Ethik und Regulierung von KI. Stix sieht genügend Gründe, überlegt zu agieren – und schlägt eine Kombination aus harter gesetzlicher Regulierung und sanften Industrie-Grundsätzen vor, um Unternehmern und Konsumenten mehr Handlungssicherheit zu geben. „KI birgt so viel Potenzial in sich – etwa ein radikal verbessertes Gesundheitssystem, Strategien zum Schutz des Ökosystems und viele andere wissenschaftliche Entwicklungen, von denen wir heute noch gar nichts ahnen“, sagt Stix – und warnt gleichzeitig, man könne diese Chancen nur nutzen, wenn der Dialog, der über Sicherheit und Ethik von KI aktuell geführt wird, genauso rasch in unseren globalen rechtlichen Grundsätzen verankert wird, wie die Technologieentwicklung voranschreitet.

Ist es zu früh oder zu spät, um künstliche Intelligenz adäquat zu regulieren?

Es ist genau der richtige Moment, um intensiv über Regulierung nachzudenken. Im Endeffekt soll künst­liche Intelligenz die Sicherheit der Menschen und der Umwelt gewährleisten, egal, wie oder wo sie eingesetzt wird. Ethische Aspekte, Grundrechte, physische und psy­chische Sicherheit müssen dabei ­beachtet werden. Dafür ist Regu­lierung das richtige Mittel. Das Thema wird natürlich von verschiedenen Gruppen und Ländern unterschiedlich gesehen. Wo manche eine Innovationsbremse ­sehen, etwa im Silicon Valley, interpretieren andere das Thema positiver – obwohl selbst Apple-CEO Tim Cook erst vor Kurzem sagte, dass ­klare Regeln für Unternehmen unausweichlich seien. Denn auch sie können nicht langfristig im Vakuum agieren. Regulierung kann dem Fortschritt helfen, indem sie klare rechtliche Grundlagen vorgibt und sich für die Sicherheit der Konsumenten einsetzt.

Bild: Charlotte Stix, Cambridge, KI, Ethik

Charlotte Stix
... studierte Philosophie und Cognitive Sciences in London und forscht nun zu KI am Leverhulme Centre for the Future of Intelligence an der Universität Cambridge.

Welche Maßnahmen werden denn von den USA, der EU und europäischen Nationalstaaten gesetzt?

Das Weiße Haus brachte Anfang des Jahres eine Executive Order mit dem Titel „Accelerating America’s Leadership in Artificial Intelligence“ heraus. Diese beinhaltet viele Elemente, die schon in den Strategien von Kanada oder EU-Mitgliedsstaaten zu finden sind, etwa den Einfluss von KI auf den Arbeitsmarkt, Bildungsstrategien oder auch das deutlich formulierte Vorhaben, technische Standards für KI zu erarbeiten – etwas, das die EU bereits 2018 vorgeschlagen hat. In Europa befasst sich Pekka Ala-Pietiläs AI High-Level Expert Group mit Vorschlägen zur Regulierung zum Schutz des Individuums und der ­Erarbeitung von ethischen Prinzi­pien für KI. Ende Januar 2019 wurde etwa eine Art ­Zertifikat ­namens „Trustworthy AI made in Europe“ vorgeschlagen. Es soll Konsumenten und Unternehmen helfen, zu entscheiden, ob ein KI-System technischen, ethischen und rechtlichen Ansprüchen der EU genügt. Die Wichtigkeit von Standardisierung und Zertifikaten wird aber auch in nationalen Strategien, etwa in Deutschland mit der Enquete-­Kommission Künst­liche Intelligenz, aufgegriffen.

Können Qualitätssiegel und ­Labels eine Alternative zu ge­setzlicher Regulierung sein?

Sie können schon eine Art sanfte Regulierung sein, Vertrauen in die Technologie aufbauen und gleichzeitig dazu beitragen, dass Unternehmen sich den Vorstellungen der Konsumenten anpassen müssen, wenn sie ihre Systeme langfristig verkaufen möchten. Die schnelle Entwicklung dieser Technologie erfordert zukunftsorientierte Maßnahmen. Die Regulierungen, die es heute gibt, beziehen sich zumeist eher auf technische Details – das wird nicht genügen. Die EU weiß das und überarbeitet gerade einige Richtlinien, etwa bezüglich der Haftung bei fehlerhaften Produkten. Das geht aber im Vergleich zur technischen Entwicklung langsam. Darum sehe ich durchaus die Möglichkeit, dass Unternehmen selbst in Abwesenheit von Standards für die Konsumenten ein Zeichen setzen. Von dieser Methode machen Unternehmen wie OpenAI oder Google Gebrauch. Bei Google sehen wir auch den Nachteil: Sein „Project Maven“ entfernte sich 2017 mit KI-gestützter Kriegsführung vom Unternehmensgrundsatz „Don’t be evil“.

Es ist derzeit genau der richtige Moment, um intensiv über die Regulierung von künstlicher Intelligenz nachzudenken.

Wie sollen sich Unternehmen am besten verhalten, solange es kaum relevante Regulierung gibt?

Sehen wir uns den Umgang mit Flugzeugen an: Dort fliegt schon seit Langem ein autonomes System, trotzdem fühlen sich die Fluggäste sicher. Warum? Weil wir einerseits darauf vertrauen, dass das System richtig getestet wurde und korrekt funktioniert; andererseits wissen wir, dass es eine Pilotin gibt, die im Notfall einschreiten kann. Und dann gibt es noch eine Blackbox, die uns sagen kann, was bei einem Unfall passiert ist. So ähnlich könnte man auch Vertrauen in KI-Systeme aufbauen. Welche Zertifikate könnte es geben, damit wir wissen, ob wir einem System vertrauen können? Welche Arten von Tests wurden gemacht? Immer wieder kommt bei KI-Systemen auch die Frage auf, ob es einen „human in the loop“ geben sollte, also einen Menschen, der in die Abläufe eingebunden ist. Und auch beim Thema Blackbox gibt es Diskussionen für KI, denn es ist wichtig, dass Menschen in der Lage sind, nachzuvollziehen, warum ein System eine bestimmte Entscheidung getroffen hat.

Wie sollten Unternehmen mit ethischen Fragen umgehen?

Ethik ist eine Art moralischer Kompass. In welchen Bereichen verhält sich mein Unternehmen ethisch, wo nicht? Diese Frage wirkt sich auch auf das Vertrauen der Kunden aus. Unternehmen können heute schon einiges tun, um die Weichen für eine ethische KI zu stellen. Zum Beispiel können sie Vertrauen aufbauen, indem sie ein unabhängiges Ethik-Board einsetzen, das Daten und Prozesse transparent einsehen kann. Es kann aber auch viel weitreichendere Ausmaße annehmen: In Dänemark verfolgt man beispielsweise den Ansatz, dass Transparenz nicht nur technische Systeme und Prozesse betreffen soll, sondern auch mit dem Geschäftsmodell des Unternehmens zusammenhängt. Es ist für einen Konsumenten wichtig zu verstehen, wie ein Unternehmen überhaupt sein Geld verdient. Das ist echte Transparenz, die dann zu Vertrauen führt.

Text: Johannes Felder

Dieser Artikel ist in unserer März-Ausgabe 2019 „KI“ erschienen.

Up to Date

Mit dem FORBES-NEWSLETTER bekommen sie regelmässig die spannendsten Artikel sowie Eventankündigungen direkt in Ihr E-mail-Postfach geliefert.