Web

BERT soll Google-Suche präzisieren

Google-Suche erhält Update: Bessere Suchergebnisse dank BERT?
Keine Kommentare

Die Google-Suche soll jetzt in zehn Prozent der Fälle zu passenderen Ergebnissen führen – mithilfe von BERT, Googles Pre-Training-Methode für NLP. Das Update bezieht sich allerdings bislang nur auf englischsprachige Sucheingaben in den USA.

Google hat nach eigenen Angaben die Genauigkeit von Suchergebnissen stark verbessert, oder wie es im Google-AI-Blogeintrag heißt: “Wir machen in der Geschichte der Suche einen der größten Schritte vorwärts.“ Dazu wurde BERT verwendet, eine Methode für das Pre-Training von Natural Language Processing (NLP), die im letzten Jahr von Google entwickelt wurde. Bisher wird von dem neuen Verfahren nur die englischsprachige Suche in den USA unterstützt, doch weitere Sprachen und Orte sollen folgen.

Natürlichere Suchanfragen

Besonders für längere Sätze mit Präpositionen soll die neue Google-Suche passendere Ergebnisse liefern und somit eine natürlichere Satzeingabe ermöglichen. Überarbeitet wurden sowohl das Ranking als auch Featured Snippets in hervorgehobenen Boxen.

Als Beispiel für eine solche Suche nennt Google „2019 brazil traveler to usa need a visa“. Die menschliche Intention ist die Frage, ob eine Person aus Brasilien ein Visum benötigt, um in die USA einzureisen. Dieser Kontext wird durch „to“ ausgedrückt.

In der „alten“ Suche, links im Bild zu sehen, wurde diese Sucheingabe falsch verstanden, denn das erste angezeigte Ergebnis bezog sich auf Einreisebestimmungen für US-Bürger in Brasilien. In der BERT-basierten Suche wurden dagegen wie gewünscht die Einreisebestimmungen für brasilianische US-Besucher ausgegeben:

Google-Suche ohne bzw. mit BERT; Quelle: Google AI Blog

Kontexterfassung durch BERT

Die neue Google-Suche basiert auf BERT (Bidirectional Encoder Representations from Transformers), einer Methode für das Natural Language Processing (NLP) Pre-Training. BERT wurde vor einem Jahr von Google Open Source gestellt und soll jedem ermöglichen, Systeme zur Fragenbeantwortung zu entwickeln.

Die Besonderheit liegt darin, dass BERT den kompletten Wortkontext durch das vorangehende und nachfolgende Wort mit einbezieht – anstatt die Wörter gemäß ihrer Reihenfolge abzuarbeiten. Aufgrund der Komplexität von BERT ist laut Google sogar neue Hardware notwendig gewesen: Zum ersten Mal wurden die neuesten Cloud TPUs eingesetzt, die Google speziell für Machine Learning entwickelt hat.

Weitere Details zu BERT und der neuen Google-Suche gibt es im Google-AI-Blogeintrag von Pandu Nayak, Google Fellow und Vice President bei Search.

Unsere Redaktion empfiehlt:

Relevante Beiträge

Hinterlasse einen Kommentar

Hinterlasse den ersten Kommentar!

avatar
400
  Subscribe  
Benachrichtige mich zu:
X
- Gib Deinen Standort ein -
- or -