Rechercher dans ce blog

Wednesday, September 29, 2021

Google soll denken wie ein Mensch - FAZ - Frankfurter Allgemeine Zeitung

Elizabeth Reids Fachgebiet sind Computer. Mit Fahrrädern hat die leitende Programmiererin der Google-Suche höchstens privat zu tun. Sie zeigt ein Bild von einer kaputten Gangschaltung an einem Rad: das Ding, das normalerweise die Kette von einem Zahnrad ins nächste hebt, ist abgebrochen. „Ich habe keine Ahnung, wie dieses Bauteil heißt“, sagt die Informatikerin. Was also tun? Die bisherige Antwort: einen Freund anrufen, der sich mit Fahrrädern auskennt. Reids Antwort: Google fragen.

Wer wissen will, wie etwas geht, fragt bislang eher nicht die Suchmaschine. Denn Computer verstehen Informationen anders als Menschen. Während man besagtem Freund den Schaden zeigen und ihn nach Reparaturmöglichkeiten fragen kann, will eine Suchmaschine einen Suchbegriff haben. Wenn man nicht genau weiß, was man eintippen soll, kapituliert sie häufig. Reid und ihr Team haben dafür eine Lösung entwickelt, die der Suchmaschinenkonzern am Mittwochabend auf seiner Hausveranstaltung „Search On“ vorgestellt hat.

Die Lösung nennt sich „MUM“. Das englische Akronym steht für „Multitask Unified Model“. Dahinter steht ein System Künstlicher Intelligenz, das verstehen soll, was ein Nutzer meint, wenn er eine Suchanfrage stellt. Im Prinzip geht es darum, Googles Suche beizubringen, ähnlich wie ein Mensch zu denken.

„Auf uns kommen aufregende Jahre zu“

Der Vorteil von MUM ist, dass es in der Lage ist, nicht nur Text zu verarbeiten, sondern ebenso Bilder. Das heißt, man kann ein Foto von der kaputten Gangschaltung machen und dazu die Frage stellen „Wie repariere ich das?“. Während man in Googles Bildersuche schon seit längerem ein Bild eingeben kann und dann andere, ähnlich aussehende Bilder angezeigt bekommt, ist es die kombinierte Verarbeitung von Bild und Text, die MUM besonders macht.

Suchen wie die nach der kaputten Gangschaltung, sollen in der Bilderkennungsapp „Google Lens“ in den kommenden Monaten möglich werden, allerdings muss man den Text dazu anfangs noch auf Englisch tippen. Neben Text und Bildern sind auch Videos eine mögliche Eingabe für MUM. Google setzt das System im Hintergrund dazu ein, das Thema von Filmen auf YouTube zu erkennen und verwandte Videos vorzuschlagen.

Auch Spracheingaben sind laut Reid etwas, an dem das Team der Google-Suche arbeitet. Statt die Diktierfunktion des Handys zu nutzen, um Sprache in Text umzuwandeln und dann nach dem Text zu suchen, ist es dann denkbar, sich mit der Suchmaschine auch zu unterhalten – ganz so, wie man es mit einem Freund tun würde. „Auf uns kommen aufregende Jahre zu“, sagt Reid.

Was will der Nutzer tun?

MUM ist ein Baustein dafür, die Suchmaschine besser verstehen zu lassen, was Nutzer mit einer Eingabe meinen. Andere Neuerungen, die Google vorstellte, konzentrieren sich hingegen darauf, ihnen assoziativ Möglichkeiten aufzuzeigen, wie sie von einer eingegebenen Anfrage aus weitersuchen können. „Wenn ein Nutzer nach ‚Falafel‘ sucht, was will er dann eigentlich tun?“, fragt Reid. „Wie man Falafel macht, wo man sie kaufen kann oder was drin ist?“

Googles Ziel sei es nicht, diese Frage von vornherein zu beantworten, sondern den Nutzern alle verschiedenen Möglichkeiten aufzuzeigen. Deshalb wird es bald ein neues Element in der Suche geben, das mögliche Sucheingaben für genau diese verschiedenen Möglichkeiten enthält. Auf Englisch wird dessen Überschrift „Things to know“ lauten, per Klick auf die Vorschläge kann nach ihnen gesucht werden.

„Wir sind ziemlich gut bei schnellen, faktischen Fragen“, sagt Reid, „aber noch nicht so sehr, wenn Menschen inspiriert werden wollen.“ Deshalb werden künftig auch mehr Bilder in der Google-Suche zu sehen sein. Wenn Googles Algorithmus erkennt, dass nach einem bildverwandten Begriff gesucht wird, sollen die Suchergebnisse Bilder erhalten. Alle Neuerungen sollen zunächst für Mobiltelefone eingeführt werden, und erst danach für die Suche am Computer. Das liegt daran, dass Google inzwischen mehr als die Hälfte seiner Suchanfragen von mobilen Geräten erhält.

Adblock test (Why?)


Google soll denken wie ein Mensch - FAZ - Frankfurter Allgemeine Zeitung
Read More

No comments:

Post a Comment

adidas-Aktie nachbörslich deutlich tiefer: adidas übertrifft eigene Prognose - Yeezy-Verkäufe sorgen für schwarze Zahlen - finanzen.net

Der Sportartikelkonzern adidas hat im vergangenen Jahr besser abgeschnitten als von ihm zuletzt prognostiziert. Der Nike -Rivale kündigte...