Apples Presse-Event im September konzentrierte sich stark auf das neue iPhone 16, einschließlich einer neuen Online-Suchfunktion, die an Googles KI-Angebot Google Lens erinnert. Apple kündigte Apple Visual Intelligence an, eine Funktion, die die iPhone-Kamera nutzt, um automatisch anhand des Inhalts der Fotos im Internet zu suchen. Wenn Ihnen das bekannt vorkommt, liegt das daran, dass eine fast identische Funktion bereits in Googles Pixel-Telefonen vorhanden ist. Googles mittlerweile allgegenwärtige „Kreissuche“ ermöglicht es Nutzern, Teile von Bildern zu isolieren (meist Kleidungsstücke und Konsumgüter) und diese Artikel über eine visuelle Suche online zu finden.
Der Unterschied zu Apples Visual Intelligence besteht in der nativen Integration in die iPhone-Kamera und in der Partnerschaft mit Drittanbietern für die Suche. Während Google Lens die Nutzer auf seinen eigenen Plattformen, vor allem Googles Merchant Center, hält, wurden bei Apples Demonstration Anbieter wie ChatGPT von OpenAI und Yelp vorgestellt. Dies ermöglicht Apple, das Fehlen einer Online-Verkaufsplattform und des frisch relaunchten Apple Maps zu kompensieren, indem es die Nutzer zu Verzeichnissen navigiert, die diese Suchen erleichtern können.
Das bedeutet, dass Googles Einkaufszentrum einen weiteren Zustrom von Nutzern haben wird, die fotobasierte Suchen durchführen, während Yelp wahrscheinlich mehr Restaurantbesuche erhalten wird, da Apple-Nutzer Fotos von Schildern machen. Unternehmen müssen sich auf diese KI-Bildersuchen einstellen, um sicherzustellen, dass ihre Produkte angezeigt werden, wenn Apple-Kunden visuell suchen. Es wird erwartet, dass Apple seine visuelle Intelligenz wieder auf seine eigenen Plattformen lenken wird, sobald der Relaunch von Apple Maps abgeschlossen ist. Bis dahin müssen Unternehmer ihre Einträge in allen Verzeichnissen optimieren und gleichzeitig sicherstellen, dass ihre Apple-Einträge bereit sind, wenn sich das Unternehmen auf seine internen Angebote konzentriert.