Nach der multimodalen Suche und Reasoning für mehr Kontext bei den umfassenden Antworten erhält Googles AI-Mode jetzt das wohl größte Update bisher. Denn der Suchmodus, der die AI Overviews in seiner Komplexität überflügelt und möglicherweise zu Googles nächster großer SERPs-Veränderung avanciert, wird erstmals auch außerhalb der Google Labs getestet. Darüber hinaus zeigt der Modus jetzt auch Produktkarten und Shop-Details an. Sogar die Warteliste für die Nutzung in den Labs wird gestrichen – doch all diese Updates kommen zunächst für einen bestimmten User-Kreis. Dennoch dürfte die umfassende Integration des AI-Mode in die Google-Suche eher früher als später folgen.
So funktioniert der AI-Mode
Im Vergleich zu den AI-Overviews bietet der AI-Mode deutlich ausführlichere Antworten, etwa auf Fragen, die mehr rationale Evaluierung, Vergleichsgrößen oder weiterführende Sondierungen benötigen. Der AI-Mode soll es Usern erlauben, nuancierte Fragen zu stellen und eine ausführliche Antwort zu erhalten, für die es ohne den Modus mehrere Anfragen gebraucht hätte. Dabei unterstützt eine maßgeschneiderte Version von Gemini 2.0 den neuen Modus. Dieser ist direkt in die Suche integriert und kombiniert die Fähigkeiten von Googles Vorzeige-KI-Modell mit relevanten Suchmechanismen. Shopping-Daten, Echtzeitinformationen und die wichtigsten Quellen werden herangezogen, um verständliche und passende Antworten zu finden.
Empfehlungen der Redaktion
Dafür fasst Google diverse verwandte Suchkontexte zu Unterthemen parallel zusammen und kreiert eine auf die Suchintention zugeschnittene Antwort. Mit dem als Fan-out-Praktik für Suchanfragen bezeichneten Verfahren nutzt Google ein umfassendes Reasoning. Dabei werden die Suchanfragen in Unterkategorien aufgeteilt, zu denen die KI unterschiedliche Suchen unternimmt, um sowohl aus dem Web als auch von Google – etwa aus Knowledge Graphs – relevante Informationen zusammenzutragen. Diese Antworten werden inzwischen auch bei multimodalen Suchen ausgespielt. Robby Stein, VP of Product für die Google Search, erklärt in einem Beitrag im Google-Blog The Keyword:
„Mit dem neuen multimodalen Verständnis von AI Mode können Sie ein Foto aufnehmen oder ein Bild hochladen, eine Frage dazu stellen und eine umfassende Antwort mit Links zum Vertiefen erhalten. Dieses Erlebnis kombiniert die leistungsstarken visuellen Suchfunktionen von Lens mit einer benutzerdefinierten Version von Gemini, sodass Sie ganz einfach komplexe Fragen zu dem stellen können, was Sie sehen[…].“
Und die diversen Fragekontexte der User sollen im AI-Mode ab jetzt noch weitläufiger bedient werden. Denn Soufi Esmaeilzadeh, Director für Product Management im Bereich Search von Google, erklärt in einem Blogeintrag, dass der Modus ab jetzt ohne Warteliste zur Verfügung steht. Damit können alle User über die Google Labs auf den AI-Mode zugreifen – jedoch vorerst nur in den USA. Einige User sollen demnächst direkt in der Suche den AI-Mode als Tab vorfinden, selbst wenn sie nicht bei Google Labs angemeldet sind.
AI Mode mit neuem Feature-Umfang
Wer den AI-Mode nutzt, kann aufgrund des umfassenden KI-Support bereits differenzierte Antworten zu Fragen rund um Produkte und Orte erhalten. Neuerdings sollen in diesem Kontext aber ebenso weiterführende Informationen integriert werden, die bereits auf Conversions wie Online-Einkäufe oder Restaurantbesuche abzielen. Diese Anpassung könnte Google vor dem Hintergrund vornehmen, zukünftig Anzeigen im AI-Mode zu integrieren und den Werbeumsatz über dieses SERPs-Element zu erhöhen.
In der nächsten Woche rollt Google im AI-Modus visuelle Product- und Place-Cards aus. Diese zeigen den Nutzer:innen Reviews, Öffnungszeiten, Sternebewertungen und Bilder zu Shops und Restaurants oder Sehenswürdigkeiten sowie Preise, Versandoptionen, lokale Inventare und ebenfalls Visuals für Produkte. Soufi
Esmaeilzadeh liefert im Post ein Beispiel:
„Wenn Sie zum Beispiel nach den besten Vintage-Läden für moderne Möbel aus der Mitte des Jahrhunderts suchen, zeigt der KI-Modus lokale Geschäfte zusammen mit hilfreichen Informationen, wie die Live-Auslastung, an, und Sie können einfach anrufen oder eine Wegbeschreibung erhalten.“
Die Anzeige der Shops und Produkte wird durch Googles Shopping-Graph mit seinen mehr als 45 Millionen Produktauflistungen unterstützt. Zudem werden stündlich über zwei Millionen Product Listings aktualisiert. SEOs und Shop-Betreiber:innen haben durch die Optimierung ihrer Angaben gegenüber Google die Chance, in diesen dedizierten KI-Ansichten aufzutauchen.
Die Vorstellung dieser commerce-bezogenen Angaben kommt womöglich nicht zufällig jetzt. Erst kürzlich stellte Microsoft das „Copilot Merchant Program“ vor, mit dem Seller ihre Produkte für die Darstellung in der Copilot-Suche aufbereiten können. Und OpenAI lieferte für ChatGPT eine umfassende Shopping-Option mit Checkout-Möglichkeit direkt in der App, die als Angriff auf Amazon, Web-Shops und nicht zuletzt Googles Shopping-Kontext zu verstehen ist. Die Anzeige in beiden konkurrierenden Diensten ähnelt jener von Google im AI-Mode.
Ob Shopping oder Research, die AI-Mode-Nutzer:innen können des Weiteren ab jetzt über die linke Navigationsleiste auf vorherige Suchen zurückgreifen. So können sie Projekte wiederaufnehmen und mit Follow-up-Fragen weitermachen oder auf bereits gelieferte Informationen zugreifen.
„[…] Mit dem AI-Mode können Sie wirklich alles suchen lassen – von komplexen Erklärungen zu Technik und Elektronik bis hin zu Vergleichen, die Ihnen bei ganz bestimmten Aufgaben helfen, etwa bei der Bewertung von Versicherungsoptionen für ein neues Haustier.“,
erklärt Esmaeilzadeh.
Wann der Modus auch in Deutschland zur Verfügung steht und ob er dann einzig als Tab in der Suche erscheint, ist bislang noch unklar.
Der Artikel stammt von Niklas Lewanczik aus der OnlineMarketing.de-Redaktion und wird im Rahmen einer Content-Kooperation auf t3n veröffentlicht.