BIG TECH IS WATCHING YOU

Computer denken in Einsen und Nullen, Menschen artikulieren sich in Ideen und Konzepten – oft erschließt sich der Sinn einer menschlichen Aussage erst aus dem Kontext. Seit rund 70 Jahren arbeiten Forscher daran, Computer dazu zu bringen, natürliche Sprache so verstehen zu können, wie Menschen das tun. Heute ist das Feld des Natural Language Processing zu einem der größten Wettläufe im Silicon Valley geworden.

„Was wir alle eigentlich wollen, ist, mit unseren Geräten einfach sprechen zu können“ – das sagte 2011 der damalige Apple-Marketing-Vizepräsident Phil Schiller beim alljährlichen Apple-Event in Cupertino, Kalifornien. An jenem Tag stellte er der Welt Apples neuen sprachgesteuerten persönlichen Assistenten Siri vor. Drei Jahre nach dem Launch schien das Softwareprodukt kein großer Erfolg gewesen zu sein – so veröffentlichte etwa das Finanzblatt Wall Street Journal 2017 dazu einen Artikel mit der fast spöttischen Überschrift „I’m Not Sure I Understand – How Apple’s Siri Lost Her Mojo“. Dem kalifornischen Analytics-Unternehmen Creative Strategies zufolge wird Siri von einer großen Mehrheit (70 %) der iPhone-User selten oder gar nicht verwendet. Trotz der Unbeliebtheit Siris hat Apple damit einen der größten Wettbewerbsbereiche der Tech-Branche gestartet – den Wettlauf um die Erkennung und Verarbeitung natürlicher Sprache. Das Feld wird Natural Language Processing oder kurz NLP genannt. Primär wird die Technologie in der Handelsbranche eingesetzt, gefolgt vom Gesundheitswesen. Hier spielen vor allem IBM, Google (mit dem Produkt Dialogflow) und Amazon Web Services (AWS) mit.

Heute hat jedes nennenswerte Tech-Unternehmen einen eigenen sprachgesteuerten Assistenten. So launchte Amazon 2014 Alexa (mit 38 % heute Marktführer in den USA), im selben Jahr kam Microsofts Cortana auf den Markt. Seit 2016 betreibt Google seinen Google Assistant. Einem Bericht des Beratungsunternehmens PwC zufolge werden virtuelle Assistenten meistens für eher einfache Aufgaben eingesetzt, etwa, um einen Suchbefehl in einer Suchmaschine einzugeben (57 %), Musik ein- oder auszuschalten (49 %) oder das Wetter abzufragen (50 %).

Für viele ist Amazons Alexa nur ein Assistent, den man verbal steuern kann – etwa dafür, beim Kochen einen Timer zu stellen oder die Lichter im Haus ein- oder auszuschalten. Jedoch steckt mehr dahinter, denn bei jedem Befehl sammelt Alexa neue Daten über das (private) Verhalten des Nutzers: etwa, zu welchen Uhrzeiten er gerne kocht oder wann er normalerweise schlafen geht. Und es geht weiter: „Im Ton stecken viele Daten, die ebenfalls ausgewertet werden können. Anhand der Art und Weise, wie meine Stimme in dem Raum widerhallt, kann man mithilfe von maschinellem Lernen zum Beispiel die Größe des Raums berechnen, oder meine Entfernung zu den Wänden“, erklärt Amy Webb, Professorin für strategische Zukunftsplanung an der New York University, im Interview mit Vox Media. Wenn man Amazons Patente durchschaut, kommen sogar noch weitere Anwendungen ins Spiel: Anhand von Veränderungen der Stimme könnte Amazon sogar erkennen, ob man gut oder schlecht gelaunt ist oder an einer Erkältung leidet, so Webb. Somit hilft Alexa Amazon, seine Datensammlung bis ins eigene Haus zu erweitern. 2021 wurde ein Sammelklageverfahren wegen Datenschutzverletzung im US-Bundesstaat Washington eingeleitet. „Während Alexa als idealer Diener in einem viktorianischen Herrenhaus dargestellt wird, der im Hintergrund schwebt und geduldig darauf wartet, die Befehle seines Herrn auszuführen, ist dies lediglich eine Fassade“, schrieben die Anwälte in der Beschwerde. „In Wirklichkeit gleicht Alexa eher einem Big-Brother-Informanten im Orwell’schen Sinne, der heimlich persönliche, private und vertrauliche Gespräche sammelt, um sie seinem wahren Herrn, Amazon, zu übermitteln.“

Doch Natural Language Processing ermöglicht vieles mehr als „nur“ virtuelle Assistenten. Mit der Fähigkeit, normale Sprache verstehen und verarbeiten zu können, kommen viele lukrative Anwendungen ins Spiel – so etwa Chatbots, mit denen man sich die teuren Kundendienst-Angestellten ersparen kann. Der Trend Richtung Humanisierung von KI-Applikationen geht so weit, dass Unternehmen ihren Chatbots unterschiedliche Persönlichkeiten und Inte­ressen geben; die Lufthansa taufte ihren Chatbot zum Beispiel „Mildred“.

„Während Alexa als idealer Diener in einem viktorianischen Herrenhaus dargestellt wird, der im Hintergrund schwebt und geduldig darauf wartet, die Befehle seines Herrn auszuführen, ist dies lediglich eine Fassade.“

Auszug aus der
Beschwerdeschrift gegen Amazon

Dem Marktforschungsunternehmen Mordor Intelligence zufolge war die Chatbot-Industrie 2020 17,17 Mrd. US-$ wert, das Segment soll bis 2026 auf satte 102 Mrd. US-$ wachsen. Ein weiteres Anwendungsfeld liegt in der Auswertung von Hunderttausenden Seiten an Dokumenten – wie etwa Patientendaten: Im März 2022 gab Mayo Clinic, ein renommierter US-amerikanischer Krankenhausbetreiber und auch Forschungsinstitut, bekannt, Google AI für die Auswertung von Patientendaten nutzen zu wollen. Denn wie Mayo-Clinic-CTO Vish Anantraman gegenüber dem Wall Street Journal im März erklärte, sind 80 % der Krankenakten unstrukturiert und bestehen oft auch aus handgeschriebenen Notizen. Ohne NLP wäre eine Auswertung nicht möglich. Sobald man aber mithilfe von NLP die Patientendaten strukturiert, kann man aus den Aggregatdaten neue Prognosetools entwickeln. Somit könnte NLP ein großer Durchbruch für das Gesundheitswesen werden.

Mit den Tools Text Analytics for Health und Amazon Comprehend Medical sind Microsoft und Amazon im Wettlauf auch mit dabei. Doch es gibt auch Nachteile: Neben datenschutzrechtlichen Bedenken besteht auch die Gefahr, dass Versicherungsunternehmen gewisse Kunden nicht mehr annehmen, weil sie aufgrund der extremst detailreichen Daten schon gewisse Krankheiten vorhersehen. Noch dazu können Fehler aufgrund unverlässlicher Informationen entstehen: „Wenn man anfängt, Informationen aus verschiedenen Quellen zusammenzutragen, muss man darauf achten, dass die Informationen auch gut genug sind“, schrieb etwa Arnold Rosoff, Professor für Jus und Gesundheitsmanagement an der Wharton School in einem Artikel 2018.

Facebook nutzt NLP bei der Moderation von Social-Media-Inhalten. So gab der Facebook-Mutterkonzern Meta im Januar 2022 bekannt, an einem neuen Supercomputer – dem AI Research Supercluster (RSC) – zu arbeiten. Nach eigenen Angaben soll dieser bald zum schnellsten Supercomputer der Welt werden. Derzeit ist der Supercluster mit 6.080 Grafikprozessoren ausgestattet, im Sommer 2022 soll die Zahl auf 16.000 wachsen. Meta will die neue Rechenleistung dafür verwenden, um KI-Modelle zu entwickeln, die alle Arten von Inhalten – Text, Bilder sowie Videos – gemeinsam in Hunderten von Sprachen analysieren können. Somit könnte Meta die Technologie dazu nutzen, schädliche Inhalte auf einer Plattform leichter und schneller zu erkennen; denn das ist eine der größten Herausforderungen, mit denen Meta konfrontiert ist. Es gibt fast drei Milliarden Facebook-Accounts und 1,1 Mrd. Instagram-User, die täglich Content generieren. Klar ist, dass Facebook mit seinen 71.000 Mitarbeitern solche Mengen an Inhalt nicht moderieren kann.

Natürliche Sprache zu verstehen mag für den Menschen eine triviale Angelegenheit sein – aber es sind eben die menschliche Ungenauigkeit und die Mehrdeutigkeit der menschlichen Ausdrucksweise, die es Maschinen schwer machen, natürliche Sprache zu verstehen. Gefühle, Intentionen, alles zwischen den Zeilen, also dem gesprochenen Wort, kann für eine Maschine abstrakt sein, wie etwa, wenn jemand eine sarkastische Bemerkung macht.

Damit Natural Language Processing als Forschungsfeld voranschreiten konnte, waren Fortschritte in Sachen Datenverarbeitung nötig, denn um ein NLP-System zu trainieren, braucht es Unmengen an Daten. Das Problem war aber, dass es lange Zeit keine Computer gab, die dafür leistungsstark genug waren. Erst mit dem Konzept des Deep Learning wurde dies möglich: Beim maschinellen Lernen werden künstliche neuronale Netze für die Informationsverarbeitung eingesetzt.

Mit der Verlagerung des Forschungsfelds NLP in den Deep-Learning-Bereich konnten große Fortschritte gemacht werden. „Dies ermöglichte es uns, Wörter, die Teil der natürlichen Sprache sind, als mehrdimensionale Vektoren darzustellen“, so Paulina Grnarova, die bei Google Schweiz an deren sprachgesteuertem Assistenten arbeitete. Damit entstand die Idee, die Bedeutung eines Wortes auf der Grundlage der umgebenden Wörter bestimmen zu lassen – in etwa so, wie das bei Menschen der Fall ist. „Wenn Sie einen Satz lesen und in der Mitte ein Wort sehen, das Sie nicht kennen, würden Sie wahrscheinlich die Bedeutung aus dem umgebenden Kontext erschließen“, so Grnarova, die 2021 das Conversational-AI-Start-up Deep Judge gründete, das KI-basierte Werkzeuge für Anwälte bereitstellt.

Die Tech-Riesen sind bereit, durchaus große Summen in KI-Forschung zu investieren. So gab etwa die Google-Dachgesellschaft Alphabet 2021 satte 31,6 Mrd. US-$ – rund 12 % des Umsatzes – für Forschung und Entwicklung aus. Bei Meta waren es 24,6 Mrd. US-$, und das bei einem Umsatz von 118 Mrd. US-$. Im Vergleich dazu investieren dem Finanzinformations- und Analyseunternehmen Morningstar zufolge die Top-500-US-Unternehmen nach Marktkapitalisierung (S&P 500) im Durchschnitt weniger als 3 % ihres Umsatzes in Forschung und Entwicklung.

Es mag zwar nicht bedrohlich klingen, wenn Maschinen natürliche Sprache tatsächlich ohne Einschränkung verstehen könnten – doch die Folgen könnten es durchaus sein: Wie Amazons Alexa oder Googles Anwendung von NLP im medizinischen Bereich zeigen, erweitert man durch NLP die Menge an potenziell sammelbaren Daten. Somit bekommt KI die Fähigkeit, alles, was je aufgenommen oder geschrieben wurde, zu verstehen, zu verarbeiten, zu kategorisieren und daraus Schlüsse zu ziehen. Auf der anderen Seite könnte man etwa durch das frühzeitige Erkennen von Krankheiten menschliche Leben retten oder durch effizientere Moderation von Onlineinhalten schneller schädlichen Content wie Kinderpornografie aus den sozialen Medien entfernen. Ob solche KI-Anwendungen einem gefallen oder nicht, eines ist sicher: Der KI-Zug ist nicht mehr aufzuhalten, sondern vielmehr schon längst abgefahren.

,
Redakteurin & Head of Digital

Up to Date

Mit dem FORBES-NEWSLETTER bekommen sie regelmässig die spannendsten Artikel sowie Eventankündigungen direkt in Ihr E-mail-Postfach geliefert.