Apples Google Gemini-avtale er det mest skuffende som har kommet fra Apple siden Newton
Et tomt løfte for Siri.
Sign up for breaking news, reviews, opinion, top tech deals, and more.
You are now subscribed
Your newsletter sign-up was successful
Apple vil ikke være blant teknologilederne i denne gullalderen for AI. Dette er nå klart etter selskapets oppsiktsvekkende avtale med Google om å bruke Gemini-modeller som grunnlag for sine egne Foundation Models, og det som sannsynligvis vil være selve fundamentet for den neste store Siri-oppdateringens personalisering og intelligens.
Jeg stiller ikke spørsmål ved effektiviteten av dette valget. Google og Gemini er uten tvil det beste alternativet for Apple hvis selskapet er fast bestemt på å la en tredjepart kickstarte modelleringsarbeidet sitt. Til tross for at de er konkurrenter, er Apple og Google også partnere – Google betaler angivelig Apple rundt 20 milliarder dollar i året for søkeintegrasjon i Safari.
Videre, hvis Apple sto overfor et valg mellom OpenAI og Google, er sistnevnte en klar vinner fra et dataperspektiv. Gemini er kanskje ikke AI-lederen ennå, men de nærmer seg raskt ChatGPT takket være Googles massive kunnskapsgraf og imponerende modelltilbud.
Men hvis du ikke tror dette er et fullstendig avvik fra løftene Apple ga fra 2024 og helt tilbake til fjorårets WWDC, har du ikke fulgt med.
I fjor, da jeg snakket med Apples senior visepresident for programvareutvikling, Craig Federighi, forklarte han hvorfor den fullstendige Apple Intelligence-versjonen av Siri var forsinket. Han beskrev det som et arkitekturproblem.
Kort fortalt var Siri-oppdateringen som skulle lanseres i 2024 med iOS 18 basert på V1 av Siri-arkitekturen. V2, derimot, var allerede under utvikling, og den hadde – ifølge Federighi – «en dypere ende-til-ende-arkitektur som vi visste var det vi til syvende og sist ønsket å lage, for å oppnå hele settet med funksjoner vi ønsket for Siri.»
En omstart – og deretter en retrett
Da V1 ikke levde opp til «Apples standarder», tok Apple den vanskelige avgjørelsen om å utsette lanseringen av den personlige Siri og i stedet bytte til V2.
Registrer deg for siste nytt, anmeldelser, meninger, toppteknologiske tilbud og mer.
Den gang nektet Federighi å oppgi en utgivelsesdato, men han sa at de ville vente «til vi har V2-arkitekturen levert internt».
Hva Apple faktisk har klart å bygge «internt» er nå høyst uklart. Det er åpenbart ikke modellene – eller i det minste ikke de avgjørende delene av modellene – som kreves for å lage en Siri som forstår deg og telefonen din, kanskje bedre enn du gjør.
Jeg har lest følgende del av Apples og Googles felles uttalelse flere ganger: «Apple og Google har inngått et flerårig samarbeid der neste generasjon av Apple Foundation Models vil være basert på Googles Gemini-modeller og skyteknologi.»
Jeg vil understreke nøkkelformuleringen her, som jeg tolker som at Gemini-modellene er selve frøet eller fundamentet til Apples «Foundation Models». For å si det på en annen måte: du får ikke Apples versjon av denne avgjørende AI-arkitekturen uten Gemini. Legg til Googles «skyteknologi», som jeg tolker som at Apple lener seg på Googles større modeller for mer krevende AI-problemer.
Hvis vi tar argumentet et skritt videre, betyr det at Siris hjerne kan være mer Google enn Apple. Jada, det kan være å strekke det litt, siden Siri tross alt vil ligge oppå Apples Foundation Model (som igjen er basert på Gemini-modeller). Men i mangel av klarhet og dybde fra både Apple og Google, er det vanskelig å se det på noen annen måte.
AI-lettelse for noen
Når jeg leser kommentarene fra kolleger og forbrukere på sosiale medier, ser jeg at mange faktisk er fornøyde med hvordan dette har blitt. Kanskje de ble lei av å vente på en bedre Siri – i det minste en som kan konkurrere på samme AI-nivå som ChatGPT eller Gemini.
Jeg forstår den følelsen. Tross alt bryr millioner av iPhone-, Mac- og iPad-brukere seg mest om kvaliteten på opplevelsen i Apples økosystem. En smartere Siri vil utvilsomt forbedre den, selv om den drives av Gemini-modeller.
Selv noen bransjeanalytikere, som Creative Strategies' president og sjefsanalytiker Carolina Milanesi, er enige om at Apples tilnærming – som ser ut til å fokusere mer på sluttbrukeropplevelsen og grensesnittet enn det tekniske maskineriet bak – kan være den beste. «Jeg synes virkelig F1-analogien min er perfekt: kjøp motoren og fokuser på bilens design, optimaliser for føreren – det er det som gir best ytelse», skrev hun til meg i en tekstmelding.
Jeg synes det er en generøs tolkning.
Men hvis du prøver å forstå Apples opprinnelige mål, blir bildet mer lærerikt. Apple satte seg aldri fore å bygge en Gemini-konkurrent. Som Craig Federighi fortalte meg i fjor: «Dette handlet ikke bare om å bygge en chatbot. Så da noen av Siri-funksjonene jeg nevnte ikke dukket opp, tenkte folk: 'Hva skjedde, Apple? Jeg trodde dere skulle gi oss chatboten deres.' Det var aldri målet, og det er fortsatt ikke vårt primære mål.»
Så planen var ikke å konkurrere med OpenAI og Google i det rene prompt-spillet. Men det fritar ikke Apple fra ansvaret for å faktisk opprettholde en posisjon i AI-kappløpet.
Hvor står Apple i AI-racet?
AI er uten tvil den viktigste teknologiske innovasjonen på en generasjon, og ideen om at Apple ikke kan løse dette – ikke kan bygge teknologi som konkurrerer – er skuffende.
Apple tar ikke nødvendigvis de store sprangene som de gjorde for 15, 20 eller 25 år siden. I dag er det et selskap som vokser med hvor mange tjenester du abonnerer på. De gjør trinnvise oppdateringer til iPhone, iPad, MacBook og Apple Watch. Dette er utmerkede produkter som ofte har vært så langt foran konkurrentene at det ikke har vært noe presserende behov for radikale endringer.
Men fokuset har flyttet seg fra hypede maskinvarelanseringer og nye produktkategorier til kraften i meldinger og hva AI faktisk kan gjøre for deg. På et veldig grunnleggende nivå kunne Apple ha vist hva AI kan gjøre for kundene sine ved å bygge Siri slik de lovet – den som forstår telefonen din, dine behov og kan handle på dine vegne. Og selv om Apple effektivt har bygget en samling AI-verktøy innen Apple Intelligence, har de ikke klart å bygge Siris «hjerne» på egenhånd. I stedet har de nå overlatt tøylene – i hvert fall i stor grad – til en av sine viktigste AI-konkurrenter.
Den gode nyheten er at med disse nye Apple Foundation Models som i stillhet kjører Gemini-modeller dypt under panseret, vil vi endelig ha en Siri som – med din tillatelse – kan lese grensesnittet ditt, se hvilke apper du bruker, forstå dataene dine og hvordan alt samhandler, og være proaktiv og tusen ganger smartere når du sier «Hei Siri». Men disse gavene vil ikke være Apples eksklusive kreasjon.
Da Apple introduserte Newton-assistenten på 1990-tallet (ikke relatert til dagens AI-assistenter), var selskapet så stolt av den mobile notatenheten at de produserte en vakker salongbordbok som fulgte med. Produktet mislyktes, og alt som var igjen var en bok full av teknologiske drømmer om fremtiden og til slutt tomme løfter.
Denne Apple-Google-Gemini-Siri-avtalen er verre. Vi fikk ikke engang et ferdig produkt å bruke. I stedet fikk vi tapte tidsfrister og en stilltiende innrømmelse av at Apple ikke var klare for oppgaven.

A 38-year industry veteran and award-winning journalist, Lance has covered technology since PCs were the size of suitcases and “on line” meant “waiting.” He’s a former Lifewire Editor-in-Chief, Mashable Editor-in-Chief, and, before that, Editor in Chief of PCMag.com and Senior Vice President of Content for Ziff Davis, Inc. He also wrote a popular, weekly tech column for Medium called The Upgrade.
Lance Ulanoff makes frequent appearances on national, international, and local news programs including Live with Kelly and Mark, the Today Show, Good Morning America, CNBC, CNN, and the BBC.