Stock Foto des Auges mit der Google-Suchseite, die sich darin widerspiegelt

Google I/O, die jährliche Entwicklerkonferenz des Technologieriesen es passiert in dieser Woche. EINmong viele neu Funktionen und offenbart kam der Dienstag Ankündigung von „Szenenerkundungen,“ und ein Suchwerkzeug, das Panoramafotos und Text kombiniert.

Das neue Suchtool ermöglicht es Benutzern, uns zu schwenken ihre Gerätekameras seitlich an Nehmen Sie eine ganze Szene vor ihnen auf. Dann, mit visueller und textbasierter Suchekönnen Benutzer dieses Array von Objekten mit bestimmten koppeln Begriffe und Schlüsselwörter. Von dort überlagert Google Informationen zu durchsuchbaren Elementen innerhalb der Szene. Google Lens wird jetzt als Option in der Google App angezeigt Suchleiste standardmäßig.

„Die Szenenerkundung ist ein gewaltiger Durchbruch in der Fähigkeit unserer Geräte, die Welt so zu sehen, wie wir es tun“, sagte Googles Senior VP, Prabhakar Raghavan in the E/A-Präsentation. „Es gibt uns eine Superkraft, die Fähigkeit, relevante Informationen im Kontext der Welt um uns herum eingeblendet zu sehen“, fügte er hinzu. Google hat nicht gesagt, wann die Funktion eingeführt wird.

In einem erklärenden und hypothetischen Beispiel stellte Raghavan die Idee vor, für einen Schoko-Snob-Freund nach dem perfekten Schokoriegel zu suchen. Theoretisch könnten Sie die Szenenerkundung verwenden, um die Auswahl an Süßigkeiten in einem Lebensmittelgeschäft zu schwenkenund kombinieren Sie dies dann mit den Suchbegriffen „dunkel“, „nussfrei“ und „hoch bewertet“.” um die perfekte Leckerei für den Schnittpunkt der Vorlieben Ihres Freundes zu finden. Interaktive Informationen zu jedem der Schokoriegel würden dann auf Ihrem Telefonbildschirm angezeigt, sodass Sie schnell eine fundierte Schokoladenauswahl treffen können.

„Die Szenenerkundung nutzt Computer Vision, um die mehreren Einzelbilder, aus denen die Szene besteht, sofort zu verbinden und alle darin enthaltenen Objekte zu identifizieren. Gleichzeitig greift es auf die Reichhaltigkeit des Internets und Googles Knowledge Graph zurück, um die hilfreichsten Ergebnisse anzuzeigen“, sagte Raghavan.

Letzten Monat, Google Multisearch eingeführt im Betatest, mit dem Benutzer mithilfe der Google-App Text zu visuellen Suchen hinzufügen können, um gezieltere Ergebnisse zu erzielen oder Linse bei iOS und Android. Die Funktion ist vor allem beim Einkaufen nützlich und hilft Ihnen, Möbel, Kleidung oder andere begehrenswerte Gegenstände aus der realen Welt zu identifizieren und sie online zum Verkauf zu finden.

Die Szenenerkundung ist auf Multisearch ausgerichtet. Multi-Multi-Suche. Suche im Multiversum, sogar. Im Gegensatz zur Multisuche hat Google jedoch keine Tests angekündigt oder wann die Szenenerkundung verfügbar sein könnte.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein