Neue Google-Suche: Google will Suchmaschine revolutionieren

Mountain View - Scott Huffman, hochgewachsen, graue Haare, grauer Bart, hat gesehen, wie die Web-Suche Google mächtig gemacht hat. Als einer der Chefentwickler für die Suche hat er dazu beigetragen. Doch Huffman weiß, dass es damit bald vorbei sein wird. Dass Menschen immer seltener die Suchbegriffe in das Google-Feld eintippen werden und auf die blauen Links der Ergebnisse klicken. Im letzten Jahr sind die Suchanfragen an Rechnern Marktforschern zufolge erstmals zurückgegangen. In diesem Jahr sollen es noch weniger werden. Huffman arbeitet daran, die Suche neu zu erfinden. Damit Google noch mächtiger wird.

Huffman sitzt in einem Konferenzraum im Googleplex, der Firmenzentrale in Mountain View im Silicon Valley. Obwohl es noch nicht zehn Uhr ist, springen draußen am Beachvolleyballplatz schon Google-Mitarbeiter nach dem Ball, andere fahren mit den bunten Firmenfahrrädern vorbei, die hier überall bereit stehen. Drinnen, in einem kargen Konferenzraum mit Blick auf das Treiben, hebt Huffman sein Smartphone hoch, um zu erklären, was Googles Problem ist. „Es ist schrecklich, dort etwas einzutippen“, sagt er. „Aber immerhin geht es noch.“ Dann zeigt er seine Uhr. „Hier geht es nicht mehr.“ Das Problem, sagt Huffman: „Schon bald werden wir irgendein tragbares Gerät immer bei uns haben, und egal, ob es eine Brille, Uhr, Kette oder was auch immer ist: Es wird keine Tastatur mehr haben, mit der man Suchbegriffe eingeben kann.“

Die Google-Suche befindet sich derzeit in dem wohl größten Umbruch, seit die Konzerngründer sie zu ihren Studienzeiten entwickelten. Das Vorhaben: An die Stelle der Suchbox soll ein persönlicher Assistent treten. Alle Menschen sollen dann das haben können, was bislang Führungskräften vorbehalten ist: einen Assistenten. Nur dass dieser nicht nur Antworten geben und Aufgaben erledigen können soll, sondern uns schon auf Wichtiges hinweist, bevor wir überhaupt daran gedacht haben. Er wird mehr wissen als ein menschlicher Assistent, auch über uns.

Nicht nur Google arbeitet daran. Microsoft hat gerade erst die eigene Smartphone-Assistentin vorgestellt. Sie nennt sich Cortana, es ist eine Figur aus einer Videospiele-Reihe, und wenn man sie nach ihrem Vater fragt, antwortet sie, dass dies Bill Gates sei. Apple hat Siri. Google nennt seinen Assistenten einfach nur Google. Der Assistent warnt längst, wenn der Nutzer früher zu einem Termin aufbrechen muss, weil sich ein Stau gebildet hat. Er zeigt dann eine kleine Karte auf den Smartphones mit Googles Android-Betriebssystem an. In den USA, wo Funktionen immer zuerst eingebaut werden, merkt er sich auch schon den Parkplatz des Nutzers und kann auf Rechnungen aufmerksam machen, die noch nicht bezahlt wurden. Doch das alles ist nur der Anfang. Googles Assistent soll bald noch viel mehr können.

Mit der Suchmaschine reden

Im Science-Fiction-Film „Her“ verliebt sich ein Mann in seine virtuelle Assistentin. Sie wirkt wie eine echte Person, da sich der Mann mit ihr unterhalten kann. Das, glaubt Huffman, verlangen die Menschen nicht nur im Film. „Wenn sie mit ihrem Smartphone sprechen, anstatt Suchbefehle einzugeben, erwarten sie, dass Google auf das Bezug nimmt, was sie vorher gesagt haben – genauso, wie wir uns gerade unterhalten.“

Scott Huffman hält sein Smartphone vor sich und sagt: „O.k. Google.“ Das ist der Satz, den das Smartphone hören muss, um die Spracherkennung zu aktivieren. Ein Klang ertönt, der ihre Aktivierung bestätigt. Huffman fragt: „Wie groß ist die Bevölkerung Neuseelands?“ Eine Stimme sagt: „4,4 Millionen.“ Google zeigt dazu einen Graphen der Bevölkerungsentwicklung an .„Wie sieht es bei Schafen aus?“, fragt Huffman dann. „31,2 Millionen“, antwortet Google. „Damit kommen sieben Schafe auf jeden einzelnen Neuseeländer.“ Huffman strahlt. „Verstehen Sie, was gerade passiert ist?“, fragt er. „Unser System hat verstanden, auf was die Frage Bezug genommen hat.“ Obwohl Huffman nur allgemein nach Schafen gefragt hatte, hat Google begriffen, dass es ihm eigentlich um die Schafpopulation in Neuseeland ging.

Hinter der einfachen Unterhaltung steht ein monumentales Unterfangen. Google muss dazu seinem Assistenten beibringen, nicht nur nach Begriffen zu suchen, sondern ihre Bedeutung zu verstehen. Der Schlüssel dazu ist das, was Google den Knowledge Graph nennt. Eine rasant wachsende Datenbank, die Fakten und Begriffe verknüpft. Etwa: Manuel Neuer mit dem Gewicht 92 Kilogramm und dem Gehalt 6,25 Millionen Euro. Wer nach Neuer sucht, bekommt nicht nur Links geliefert, die den Begriff Neuer enthalten. Sondern eine kleine Karte mit Informationen zu Manuel Neuer. Die Suchmaschine kann verstehen, dass Neuer der deutsche Nationaltorhüter ist – nicht nur ein Wort.

„Neuer“ ist damit einer von 570 Millionen Begriffen, zu denen Google 50 Milliarden Fakten angehäuft hat. Zum Vergleich: Wikipedia hat rund 30 Millionen Einträge in allen Sprachen. „Der Knowledge Graph ist wohl die größte Faktensammlung, die jemals erschaffen wurde“, sagt Huffman. „Aber sie ist immer noch viel zu klein.“ Deshalb wird sie kontinuierlich erweitert. Mit jedem Fakt, mit jedem Begriff versteht der Konzern mehr und kann direkte Antworten geben, statt nur Links anzuzeigen. Und diese Antworten dem Träger einer Google-Datenbrille ins Ohr flüstern. Oder auf einer Smartwatch anzeigen.

Doch dabei geht es längst nicht nur um Informationen. „Wenn die Menschen mit Google zu sprechen beginnen, wollen sie noch mehr“, sagt Scott Huffman. „Sie erwarten, dass Google Dinge für sie erledigen kann.“ Bereits heute erstellt Googles Assistent ebenso wie Siri oder Microsofts Cortana auf Befehl Kalendereinträge oder zeigt die besten Restaurants in der Nähe an. Künftig werden die Assistenten aber nicht bloß im Smartphone Aufgaben erledigen, sondern auch in der Realität.

Das Internet der Dinge macht das möglich. Internet der Dinge ist der Begriff dafür, dass immer mehr miteinander vernetzt wird – vom Fernseher bis zum Kühlschrank, vom Thermostat zur Espressomaschine. Mit seinem persönlichen Assistenten zu sprechen, wird irgendwann bedeuten, die Umgebung fernzusteuern. Wie das aussehen könnte, hat Google kürzlich in einem Video vorgestellt. Eine Mountainbikerin spricht beim Anrollen auf die Garage in ihre Uhr: „O.k. Google“, sagt sie und aktiviert so die Spracherkennung. „Öffne die Garage“– und dann sieht sie zu, wie das Tor aufschwenkt.

Technisch, sagt Huffman, sei das nicht viel schwieriger, als einen Kalendertermin in sein Smartphone per Sprachbefehl einzutragen. „Versteht man erst einmal die Befehle, so ist es ein recht ähnlicher Prozess, ein Programm auf dem Telefon aufzurufen oder den Befehl zum Garagentor zu schicken.“

Wenn sich das Garagentor nicht ohnehin von selbst öffnet. Das ist das eigentliche Ziel, an dem Google arbeitet. Der Mann, der dafür zuständig ist, heißt Baris Gultekin. Gultekin, blauer Pulli, zerschlissene Jeans, spricht mit leicht türkischem Akzent. Von einer Elite-Universität in Istanbul ist er nach Kalifornien gekommen. Nun ist er für Google Now zuständig, für die Technologie also, mit der Google seinem Assistenzen die Fähigkeit einbaut vorauszuahnen, was die Bedürfnisse des Nutzers sind. „Die richtigen Informationen zur richtigen Zeit“, sagt Gultekin und lächelt freundlich.

Lesen Sie auf der nächsten Seite, wie es zu der Vorhersage-Funktion kam.