Amazons Lehrmeister

Amazon transformierte sich in Sachen KI. Was hat der Deutsche Ralf Herbrich damit zu tun?

Sechs Seiten. Der Anfang aller Dinge beim IT-Riesen Amazon ist so gut wie immer auf sechs Seiten zu finden. Denn vor geraumer Zeit führte Amazon-Gründer Jeff Bezos eine Regel im Unternehmen ein: Jeder Vorschlag für ein neues Produkt oder eine neue Dienstleistung, die ein Mitarbeiter bei Amazon umsetzen will, muss auf solchen sechs Seiten dargelegt werden. Davon entfällt eine Seite stets auf eine fiktive Pressemitteilung, die der Mitarbeiter selbst verfasst – und die das mögliche Endergebnis des Produkts aus Kundensicht beschreibt. Die restlichen fünf Seiten bestehen aus FAQs, also häufig gestellten Fragen, die die wichtigsten Aspekte sowohl für Amazon-Mitarbeiter (interne FAQs) als auch die Kunden (externe FAQs) ­abdecken sollen. Die FAQs sind natürlich ebenfalls fiktiver Natur. Auf solchen „Six-Pagers“ basieren Erfolge wie Amazons Smart Speaker Echo mit seinem Betriebssystem Alexa wie auch der neue automatisierte Supermarkt Amazon Go. Doch auch Fehlschläge, etwa das kolossal gescheiterte Fire Phone, wurden einst auf diesen Sechsseitern geboren.

Wichtiger als diese Produkte ist aber das Denken, das diese Six-Pagers bei Amazon auslösten. Denn um einen solchen zu schreiben, muss man zuallererst ein Produkt im Kopf haben. Das sollte sich noch als äußerst hilfreich erweisen. Dann nämlich, als Amazon wegen seiner Größe beginnen musste, maschinelles Lernen einzusetzen, um das Unternehmen nachhaltig von einem Versandhändler zu einem Tech-Pionier zu transformieren. Denn was braucht es für Lösungen im Bereich künstliche Intelligenz? ­Neben Daten vor allem Wissenschaftler, Entwickler und Daten- und Rechenleistung. Rechenleistung hatte Amazon zur Genüge, genauso Entwickler und Daten; in den meisten Fällen zumindest. Doch an den exzellenten Wissenschaftlern scheiterte es vor einigen Jahren noch.

Damals hinkte Jeff Bezos’ Unternehmen Konkurrenten wie Google, Microsoft und Facebook bezüglich maschinellem Lernen nämlich noch deutlich hinterher. Amazon war rapide gewachsen, immer größer geworden, hatte die tieftechnologischen Lösungen, die es in Zukunft benötigen würde, aber noch nicht implementiert. Ralf Herbrich, der seit fünf Jahren das Machine-Learning-Team bei Amazon leitet, beschreibt das folgendermaßen: „Das Geschäftsmodell stellt – egal, ob physisches oder digitales Produkt – immer die gleichen Fragen: Wie kommen wir zu einer besseren Kundenerfahrung, größeren Auswahl, mehr Bequemlichkeit und niedrigeren Preisen? Vor vier oder fünf Jahren kamen wir an einen Punkt, wo diese Ziele zusätzlich durch Automatisierung erreicht werden konnten. So machte es die deutlich gestiegene Produktauswahl für Menschen unmöglich, Vorhersagen rein manuell zu treffen.“

Bezüglich Vorhersagen von ­Produktkäufen oder Produkt­empfehlungen („Kunden, die diesen Artikel kauften, kauften auch …“) wollte Amazon bereits vorhandenes Potenzial weiter nutzen. Allein dafür hätte es vielleicht gereicht, mit dem vorhandenen Wissen weiterzuarbeiten. Doch Jeff Bezos und seine Mitarbeiter wollten mehr. Sie wollten auch in anderen, prestigeträchtigeren Bereichen mitmischen. Als Amazon da aber durchstarten wollte, wurde klar, dass die hellsten Köpfe, die Topwissenschaftler, oft Google, Microsoft, Facebook oder auch IBM als Arbeitgeber bevorzugten.

Doch um fiktive Endprodukte möglich zu machen, braucht es talentierte Forscher. Die gab es zwar noch nicht, doch da Amazon von einem Endprodukt ausgeht und dann rückwärts bis zum ersten Arbeitsschritt denkt, hatte das Unternehmen zwei große Vorteile im Kampf um die Talente. Erstens: ein klares Ziel, auf das die Forscher hinarbeiten konnten. Herbrich: „Wir stellten uns die Frage, wie Wissenschaftler am besten ins Team integriert werden können. Für Forscher ist wichtig, dass sie publizieren können, also weiterhin Teil der wissenschaftlichen Gemeinschaft sind, dass ihre Erkenntnisse gleichzeitig aber auch den Weg in Endprodukte finden. Amazon ist sehr kundenorientiert – auch in der Forschung: Wir begeistern die Forscher daher mit dem Versprechen, dass es eine hohe Wahrscheinlichkeit gibt, dass ihre Ergebnisse in zwei bis drei Jahren in einem Produkt landen.“

Hinzu kam die Tatsache, dass auf dem Weg zu fiktiven Endprodukten oft unlösbar scheinende Herausforderungen ignoriert wurden – was Wissenschaftler ebenfalls anspornt. „Wir starten oft Projekte, bei denen wir die Expertise im Vorhinein gar nicht besitzen“, sagt Herbrich. „Einige davon sind relativ simpel zu lösen, etwa die Vorhersage von Produktverkäufen oder die Automatisierung der Wahl der richtigen Verpackungsgröße“, so Herbrich. Doch viele Projekte, die im Hause Amazon entstehen, sind in ihrer Komplexität deutlich schwieriger zu bewältigen. Beispiele gefällig? Alexa, Amazon Go, Amazon Fresh – und Amazon AI, eine neue Plattform, die auch Amazons Kunden Zugang zu maschinellem Lernen bieten will. Auch hier entscheidet zumeist der Ansatz, nach hinten zu denken. Aber der Reihe nach.

Alexa. Die größte Herausforderung, die Amazon lösen musste, um seinem Speaker Leben einzuhauchen, war die Far Field Speech Recognition. Das bedeutet, dass Befehle auch dann erkannt werden müssen, wenn sie aus großer Distanz zum Mikrofon und mit Nebengeräuschen gesprochen werden. Außerdem durfte Alexa nicht ewig lang nachdenken, um eine Antwort zu geben. Viel eher sollte der smarte Speaker den Befehl sofort in die Cloud weitergeben und anschließend passend antworten.

Das funktioniert, wenn man sich lediglich die Verkaufszahlen ansieht, recht gut. Amazon Echo, dessen Betriebssystem Alexa ist, erreichte 2017 laut einer Studie des Forschungsunternehmens Consumer Intelligence Research Partners rund 76 Prozent Anteil am Smart-Speaker-Markt in den USA. Google kommt mit seinem Speaker Home lediglich auf 24 Prozent. In Sachen technische Leistung fällt der Vergleich zu den Konkurrenten aber weniger deutlich aus: So zeigte etwa ein Test des New Yorker Marketingunternehmens 360i, dass Google Assistant deutlich mehr Fragen beantworten konnte als Amazons Alexa. Gemessen wurde die Zahl der Fragen, auf die die Smart Speaker sinnvolle Antworten gaben, statt mit „Ich weiß es nicht“ zu antworten. In der Kategorie „Reise“ erhielten die Tester von Google Assistant auf 80 Prozent, von Alexa nur auf 20 Prozent der Fragen eine Antwort. Im Bereich „Retail“ war das Verhältnis 72 zu 53 Prozent, im Bereich „Finance“ 69 zu 14, bei Fragen zum Thema „Automotive“ 67 zu 22 Prozent.

Andere Tests, insbesondere solche, die den bequemen Umgang testen, sehen hingegen Alexa vorne. Beispielsweise wählte die Onlineplattform Wirecutter, eine Tochterseite der New York Times, Alexa zum besten Smart Speaker. Doch Amazon will das Ergebnis offensichtlich deutlicher ausfallen lassen. Kürzlich wurde bekannt, dass das Unternehmen an Chips forsche, die direkt in Alexa eingesetzt werden sollten. Die Idee: Mit den Chips könnte Alexa gewisse Befehle direkt verarbeiten, ohne mit der Cloud kommunizieren zu müssen. Das würde die Antwortgeschwindigkeit erhöhen – und die Komplexität der Befehle, die Alexa versteht.

Doch auch auf dem Weg zum automatisierten Supermarkt Amazon Go mussten die Forscher einige Hürden überwinden, obwohl sie zu Beginn nicht wussten, wie. Ralf Herbrich: „Vor vier Jahren wussten wir bereits, dass wir einen Shop schaffen wollen, in dem es keine Kassa und somit auch keine Warteschlangen mehr gibt. Die Lösungen für damit einhergehende Probleme, etwa in den Bereichen Computer Vision, Kameratechnik oder Szenen­verständnis, hatten wir damals bei Weitem noch nicht.“ So mussten die Kameras etwa erkennen, ob ein Kunde ein Objekt aus dem Regal nimmt oder dorthin zurückstellt. Denn die Produkte werden automa­tisch vom Konto abgebucht, ein Heraus- und Mitnehmen löst also eine Zahlung aus – ein Zurückstellen sollte die Zahlung aber wiederum rückgängig machen.

Ein ähnliches Bild zeigte sich bei Amazon Fresh. Doch hier war die Herausforderung weniger technischer Natur, vielmehr brauchte es eine Datenbasis, die die Maschinen nutzen konnten. Denn, so Herbrich: „Maschinelles Lernen ist quasi Statistik mit sehr großen Datenmengen.“ Der Lebensmittellieferservice, der bereits seit zehn Jahren aktiv ist, wollte die Reifegraderkennung verbessern. Denn es verfaulten zu viele Obststücke, weil die Menschen Fehler machten. Die Daten dazu fehlten aber. „Es gab kaum Bilder, die zeigten, wie eine Erdbeere etwa im Multispektral­bereich aussieht. Wir mussten also Bilder mit Annotationen – frühreif, reif oder überreif – produzieren. Die nächste Frage war dann, wie lange eine solche Frucht frisch bleibt. Diese Datenproduktion und -aufbereitung benötigt deutlich mehr Zeit als die Algorithmik an sich. Die Qualität der Daten spielt eine riesige Rolle.“

Diese Daten beschafft sich Amazon auch bei Alexa und Amazon Go, um die Produkte zu verbessern. Doch insbesondere bei Alexa ist das eine heikle Frage. Denn wer will schon alle seine dummen Fragen irgendwo benutzt sehen – geschweige denn sensibleres Material? Doch Herbrich beruhigt, denn die Daten, die zur Verbesserung von Alexa benutzt würden, kommen aus dem Labor. Die Kundendaten werden laut dem Deutschen nicht an das Unternehmen übertragen. Bei Amazon Go sammelte man in einem internen Testlauf – Amazon-Mitarbeiter konnten den Supermarkt bereits ein Jahr lang testen – Erkenntnisse und Daten.

Wir begeistern Forscher mit dem Versprechen, dass ihre Ergebnisse in zwei bis drei Jahren in einem Produkt landen.

Während Amazon Fresh, Go und Alexa innovative Projekte sind, deren Erfolg noch unklar ist, ist das große Geld derzeit jedoch anderswo zu holen. Denn während die zahlreichen Experimente – Jeff Bezos ist berüchtigt dafür, die Umsätze in alle möglichen Innovationskanäle zu investieren – das Unternehmen bis vor Kurzem noch regelmäßig seine Gewinne kosteten, entwickelte sich der Cloud-Computing-Dienst Amazon Web Services (AWS) zur absoluten Cashcow. 2017 erzielte die Sparte bereits rund zehn Prozent des Gesamtumsatzes – lukrierte alleine also über 17 Milliarden US-$. Mit AWS bietet Amazon vornehmlich Unternehmen Rechen- und Speicherleistung sowie die Nutzung anderer Cloud-Dienstleistungen an. Zu den Kunden gehören etwa Dropbox, Netflix oder Zalando.

Nun sollen mithilfe ebendieser Kunden wertvolle Daten lukriert werden. Denn mit der eigens entwickelten Plattform Amazon AI und dem zugehörigen Tool SageMaker wird Kunden die Expertise von Amazon zur Verfügung gestellt. Einfache Softwareentwickler können so etwa auf Übersetzungs-, Spracherkennungs- oder Bilderkennungstools zugreifen und diese im eigenen Unternehmen anwenden. Der Erfolg ist noch unklar, doch der Schritt scheint vielversprechend. Und jeder Kunde, der Amazon AI nutzt, bringt dem Unternehmen wertvolle Erkenntnisse, um die eigenen Tools weiter zu verbessern. Was nach einem Start-Ziel-Sieg klingt, ist für Herbrichs Team aber erneut eine große Herausforderung: „Eine KI-Plattform wie etwa Amazon AI zu bauen, auf der wir mit AWS Translate maschinell übersetzen, mit AWS Recognition Bilder erkennen, mit AWS Lex Sprache verstehen oder mit AWS Polly Sprache synthetisieren, benötigt breiteres KI-Wissen als die Automatisierung von Packungsgrößen von Bestellungen.“ Dass Herbrich als Chef des Machine-Learning-Teams in Berlin sitzt, ist übrigens kein Zufall. Zuvor bei Microsoft und Facebook, sah Herbrich bei Amazon eine Chance, seine Vision für Deutschland zu verfolgen: „Ich glaube an Deutschland als wissenschaftlichen Standort. Und Amazon tut das auch, mit dem Zentrum in Berlin und den verschiedenen Initiativen in Deutschland. Das hat dann gut zusammengepasst.“ Dennoch ist der Deutsche viel unterwegs, denn sein Team, das über 50 Nationalitäten in sich vereint, ist quer über die ganze Welt verstreut: „Im Bereich des maschinellen ­Lernens arbeiten bei Amazon rund 1.000 Mitarbeiter. Mein Team selbst ist aber sehr verteilt, wir haben Standorte in Berlin, Barcelona, Tübingen, Cambridge,
Seattle und New York.“

So kam Herbrich gerade aus Barcelona, doch der nächste Flug geht nicht nach Seattle oder Cambridge, sondern ins schwäbische Tübingen. Denn auf dem Weg, Deutschland als Wissenschaftsstandort zu stärken, setzen Herbrich und Amazon auf eine Partnerschaft in der Forschungsinitiative Cyber Valley. Das Projekt soll unter Führung der Max-Planck-Gesellschaft und mithilfe von zahlreichen Unternehmens- und akademischen Partnern (neben Amazon auch Daimler, BMW, Universität Stuttgart) Süddeutschland zu einem Hotspot für künstliche Intelligenz machen. Doch Amazons Initiative ist laut Herbrich nicht rein ideologisch getrieben, das Unternehmen verfolgt zwei konkrete Ziele. Erstens: Kausalitätsforschung. „Es geht uns darum, Kausalzusammenhänge zu erkennen. Diese sind wichtig, um Entscheidungen auf Basis aggregierter Daten zu automatisieren. Wir wollen ja vorhersagen, warum jemand ein Produkt kauft. Wir müssen somit wissen, wenn jemand ein Smartphone und zugleich ein weiteres Produkt kauft, welche Aspekte mit dieser Kaufentscheidung lediglich scheinkorrelieren und welche sie wirklich verursachen.“

Zweitens: Bessere Ergebnisse im Onlineshoppen von Mode. So soll das digitale Verständnis von Körperformen verbessert werden, um anhand eines Bildes automatisch zu erkennen, ob etwa Kleidung dem Fotografierten passt oder nicht. „Das ist ja eine der großen Herausforderungen im Onlineverkauf: Passt mir das Produkt?“

Rund 100 Forscher sollen jedenfalls in Tübingen und Stuttgart im Auftrag von Amazon an diesen Zielen forschen. Doch: Weichen breite Forschungsbereiche wie Kausalitätsforschung nicht von Amazons rückwärtsdenkender Strategie ab? Nein, sagt Herbrich, denn die beiden konkreten Ziele würden den Wissenschaftlern einen roten Faden bieten.

Amazon dürfte sich in Sachen maschinelles Lernen also tatsächlich zu einem Vorreiter entwickeln. Doch die große Frage bleibt: Reicht das denn aus? Ist Amazon mit Projekten wie Alexa oder Amazon Go, Fresh beziehungsweise AI sowie Initiativen wie dem Cyber Valley gut gerüstet, um das „KI-Rennen“ gegen Google und Co. zu gewinnen? Denn laut MIT und gemessen an den publizierten Re­search Papers im Bereich Deep Learning findet sich Amazon nicht einmal unter den Top-Fünf-Unternehmen (Microsoft, Google, IBM, [Facebook, Baidu).

Egal, ob Seattle, Barcelona oder Berlin, egal, ob Alexa oder Amazon Go: Letztendlich kommt es wohl darauf an, wie gut Amazons Wissen­schaftler auch in Zukunft rückwärts denken können und Produkte zum Leben erwecken. Oder anders gesagt: wie gut ihre fiktiven Pressemitteilungen geschrieben sind. Wobei: Vielleicht schreiben die ja bald auch Maschinen?

Dieser Artikel ist in unserer Februar-Ausgabe 2018 „Künstliche Intelligenz“ erschienen.

,
Chief Editorial Team

Up to Date

Mit dem FORBES-Newsletter bekommen Sie regelmäßig die spannendsten Artikel sowie Eventankündigungen direkt in Ihr E-Mail-Postfach geliefert.