The Learning Machine

Smart Homes, Sprachassistenten oder die Face-App: Künstliche Intelligenz ist Gesprächsthema – und das aus gutem Grund. Ein Gastkommentar von Katrin Fritsch und Helene von Schwichow, die Gründerinnen des Think Tanks Motif.

Die Anzahl der deutschen KI-Start-ups hat sich im letzten Jahr verdoppelt und die Bundesregierung will drei Milliarden Euro in KI-Projekte investieren. KI wird gehypt, KI ver­spricht Funding. Somit ist KI wie jede Technologie eine Projektionsfläche für gesellschaftliche Visionen und Ängste. Während die einen von der Lösung komplexer Probleme durch KI träumen, fürchten die anderen schon um ihre Arbeitsplätze.

Wenn wir über KI sprechen, sprechen wir meistens über Maschinelles Lernen (ML), und Machine-Learning-Systeme lernen zunächst einmal das, was Menschen ihnen beibringen. Um ein Beispiel zu nennen: Amazon entwickelte einen Algorithmus, der automatisch die besten Bewerbungen erkennen sollte. Doch dieser wurde mit Datensätzen früherer Bewerber trainiert, welche überwiegend Männer waren. Somit wurden Frauen von Beginn an im Prozess benachteiligt. Das Beispiel zeigt: Das Wissen intelligenter Technologien ist nie neutral. Durch diese Voreingenommenheit, den sogenannten Bias, kommt es zur Verstärkung gesellschaftlicher Machtstrukturen und sozialer Ungerechtigkeit.

Katrin Fritsch und Helene von Schwichow
... gehören beide zu den „Under 30“-Listmakern 2019. Fritsch absolvierte ihren Master in Media & Communications an der London School of Economics and Political Science, von Schwichow studierte an der Berliner Universität der Künste Gesellschafts- und Wirtschaftskommunikation. Zusammen gründeten sie 2019 den unabhängigen Think Tank Motif Institute for Digital Culture.

Ein weiteres Beispiel ist der Compas-Algorithmus, der von der US-amerikanischen Justiz eingesetzt wird und die Wahrscheinlichkeit, dass Straftäter eine weitere Straftat begehen, ­berechnet. Dabei stuft der Algorithmus People of Colour automatisch als stärker gefährdet ein, was oft zu einer schnelleren Verhaftung und höheren Strafen führt. Der Autor Evgeny Morozov warnt vor der Gefahr von „Technological Solutionism“: Wir sehen die Lösung aller Probleme in Technologien, vergessen aber die eigentlichen sozialen Probleme, die darunterliegen. ML kann in vielen Bereichen, zum Beispiel Krebserkennung, sehr hilfreich sein. Doch in Zeiten von drohenden Klimakrisen, Extremismus und gesellschaftlicher Segregation sollten Biases in Techno­logien sowie ihre gesellschaftlichen Auswirkungen unbedingt ernst genommen werden.

Menschen müssen lernen, dass ML-Systeme keine Magie sind, sondern dass sie von uns und für uns gemacht werden. So können Ängste überwunden und Systeme aktiv hinterfragt und mitgestaltet werden. Unternehmen, die ML-Systeme ent­wickeln, müssen endlich soziale Verantwortung übernehmen. Die Aktivistin Joy Buolamwini stellt klar: „Trainingssets tauchen nicht aus dem Nichts auf – wir haben die Möglichkeit, sie zu erstellen“, und fordert diversere Entwicklerteams, die auch diversere Datensets erstellen. Transparenz und Offenheit der Systeme sind ebenso wichtige Schritte. Denn nicht die disruptivste Lösung ist die sinnvollste, sondern die sozial und ökologisch nach­haltigste. Die Politik muss Bildung so gestalten, dass technologischer Wandel und Gesellschaft stets gemeinsam gedacht und zugänglich gelehrt werden. Das politische Ziel sollte also nicht einfach „KI“ sein, sondern eine funktionierende Demokratie – bei der uns ML-Systeme nur unterstützen können, nicht aber unser eigenes Denken und Handeln übernehmen.

Gastkommentar: Katrin Fritsch und Helene von Schwichow

Der Gastkommentar ist in unserer November-Ausgabe 2019 „Next“ erschienen.

Opinions expressed by Forbes Contributors are their own.

Mehr über Katrin Fritsch und Helene von Schwichow lesen.

Up to Date

Mit dem FORBES-NEWSLETTER bekommen sie regelmässig die spannendsten Artikel sowie Eventankündigungen direkt in Ihr E-mail-Postfach geliefert.