Apple byggde i tysthet in Google i flödet av sin nya Visual Intelligence-funktion. När du trycker på skärmdumpsknapparna i iOS 26 är ett av alternativen att söka efter det som finns på din skärm – och systemet dirigerar det till Google (med partnerappar som Etsy, eBay och Poshmark som också stöds). Det är ett anmärkningsvärt skifte för Apple: en AI-funktion på systemnivå som designat överlämnar till en konkurrents sökning.
Visuell intelligens kan känna igen vad du tittar på, dra ut objekt, sammanfatta eller översätta text på skärmen och sedan hoppa direkt till resultaten. Apple ropar till och med ut Google vid namn i både nyhetsrumsinlägget och den officiella PDF-filen med iOS 26-funktioner. För kunder betyder det att du kan markera ett par skor i en skärmdump och gå direkt till liknande objekt på Google eller deltagande appar. För vardagligt bruk kan du också lägga till detaljer från flygblad till Kalender med ett enda tryck.
Det finns också en djupare ChatGPT-koppling. Från samma Visual Intelligence-ark kan du ställa frågor om det som finns på skärmen via Apples ChatGPT-integration – ytterligare en explicit överlämning inbyggd i systemgränssnittet.
Att Apple använder Google som standarddestination för ”visuell sökning” är inget dåligt. Det signalerar att Apple Intelligence är mer en smart mäklare än en sluten slinga – de lämnar gärna över till den bästa tjänsten när det hjälper användare, olikt många andra som prompt vill att man använder deras tjänster.
