Dette skjedde egentlig med Siri og Apple Intelligence – ifølge Apple
Er det en forsinkelse, en strategi ... eller noe annet?

Det er ingen tvil om at Apples digitale chatbot Siri ikke akkurat hadde en hedersplass under årets WWDC 2025-hovedinnlegg. Apple nevnte det, og gjentok at det tok lengre tid enn forventet å gi alle den Siri de lovet for et år siden, og sa at den fulle Apple-integrasjonen ville komme «i løpet av det kommende året».
Apple har siden bekreftet at dette betyr 2026. Det betyr at vi ikke vil se den typen dyp integrasjon som ville ha latt Siri bruke det de visste om deg og din iOS-kjørende iPhone til å bli en bedre digital følgesvenn i 2025. Som en del av det nylig kunngjorte iOS 26, vil den ikke bruke app-intensjoner til å forstå hva som skjer på skjermen og iverksette tiltak på dine vegne basert på det.
Vi har våre teorier om årsaken til forsinkelsen, hvorav de fleste dreier seg om spenningen mellom å levere en rik AI-opplevelse og Apples kjerneprinsipper angående personvern. De virker ofte motstridende. Dette er imidlertid gjetting. Bare Apple kan fortelle oss nøyaktig hva som skjer – og nå har de gjort det.
Sammen med Tom's Guides globale sjefredaktør Mark Spoonauer satte vi oss ned kort tid etter hovedinnlegget med Apples senior visepresident for programvareutvikling Craig Federighi og Apples globale visepresident for markedsføring Greg Joswiak for en omfattende podcastdiskusjon om så godt som alt Apple avduket i løpet av det 90 minutter lange hovedinnlegget.
Vi startet med å spørre Federighi om hva Apple leverte angående Apple Intelligence, samt statusen til Siri, og hva iPhone-brukere kan vente seg i år eller neste år. Federighi var overraskende åpen og ga et innblikk i Apples strategiske tenkning når det gjelder Apple Intelligence, Siri og AI.
Langt fra ingenting
Federighi begynte med å gå gjennom alt Apple har levert med Apple Intelligence så langt, og for å være rettferdig, er det en betydelig mengde de har utrettet.
«Vi var veldig fokuserte på å skape en bred plattform for virkelig integrerte personlige opplevelser i operativsystemet», understreket Federighi, med henvisning til den opprinnelige Apple Intelligence-kunngjøringen på WWDC 2024.
Registrer deg for siste nytt, anmeldelser, meninger, toppteknologiske tilbud og mer.
På den tiden demonstrerte Apple skriveverktøy, sammendrag, varsler, filmminner, semantisk søk i Bilder-biblioteket og opprydding av bilder. De leverte alle disse funksjonene, men selv mens Apple bygde disse verktøyene, innså de, fortalte Federighi oss, at «vi kunne, på grunnlag av store språkmodeller på enheten, privat skyberegning som et grunnlag for enda mer intelligens, [og] semantisk indeksering på enheten for å hente inn kunnskap, bygge en bedre Siri».
Overdreven selvtillit?
For et år siden førte Apples tro på sin evne til å bygge en slik Siri til at de demonstrerte en plattform som kunne håndtere mer konversasjonskontekst, feiltaling, skriving til Siri og et betydelig redesignet brukergrensesnitt. Igjen, alt Apple leverte.
«Vi snakket også om [...] ting som å kunne aktivere et bredere spekter av handlinger på tvers av enheten din ved at app-intensjoner orkestreres av Siri for å la den gjøre flere ting», la Federighi til. «Vi snakket også om muligheten til å bruke personlig kunnskap fra den semantiske indeksen, slik at hvis du spør om ting som: «Hva er den podkasten som 'Joz' sendte meg?», at vi kan finne den, enten den var i meldingene dine eller i e-posten din, og rope den opp, og kanskje til og med handle på den ved hjelp av disse app-intensjonene.» Den delen er den delen vi ikke har levert ennå.»
Dette er kjent historie. Apple lovet for mye og for lite, og klarte ikke å levere en vagt lovet Apple Intelligence Siri-oppdatering ved årets slutt i 2024, og innrømmet innen våren 2025 at den ikke ville være klar med det første. Hvorfor det skjedde, har frem til nå vært litt av et mysterium. Apple har ikke for vane å demonstrere teknologi eller produkter som de ikke vet med sikkerhet at de vil være i stand til å levere i tide.
Federighi forklarte imidlertid i detalj hvor ting gikk galt, og hvordan Apple går videre herfra.
«Vi fant ut at da vi utviklet denne funksjonen, hadde vi egentlig to faser, to versjoner av den ultimate arkitekturen vi skulle lage», forklarte han. «Versjon én hadde vi her på den tiden, og vi nærmet oss konferansen, og hadde på den tiden stor tillit til at vi kunne levere den. Vi tenkte innen desember, og hvis ikke, regnet vi med innen våren, inntil vi annonserte den som en del av WWDC.» Fordi vi visste at verden ønsket et fullstendig bilde av: «Hva tenker Apple om implikasjonene av Apple Intelligence, og hvor går den?»
En fortelling om to arkitekturer
Mens Apple jobbet med en V1 av Siri-arkitekturen, jobbet de også med det Federighi kalte V2, «en dypere ende-til-ende-arkitektur som vi visste var det vi til syvende og sist ønsket å skape, for å få til et komplett sett med funksjoner vi ønsket for Siri.»
Det alle så under WWDC 2024 var videoer av V1-arkitekturen, og det var grunnlaget for arbeidet som startet for alvor etter WWDC 2024-avsløringen, som forberedelse til den fullstendige lanseringen av Apple Intelligence Siri.
«Vi jobbet i flere måneder med å få det til å fungere bedre og bedre på tvers av flere apper, bedre og bedre for å søke», la Federighi til. «Men fundamentalt sett fant vi ut at begrensningene i V1-arkitekturen ikke brakte oss opp til det kvalitetsnivået vi visste at kundene våre trengte og forventet. Vi innså at V1-arkitekturen, du vet, vi kunne presse og presse og presse og bruke mer tid, men hvis vi prøvde å presse den ut i den tilstanden den skulle være i, ville den ikke oppfylle kundenes forventninger eller Apples standarder, og at vi måtte gå over til V2-arkitekturen.
«Så snart vi innså det, og det var i løpet av våren, lot vi verden få vite at vi ikke kom til å klare å lansere den, og vi skulle fortsette å jobbe med å virkelig gå over til den nye arkitekturen og lansere noe.»
Vi innså at […] Hvis vi prøvde å presse det ut i den tilstanden det skulle være i, ville det ikke oppfylle kundenes forventninger eller Apples standarder, og at vi måtte gå over til V2-arkitekturen.
Craig Federighi, Apple
Men denne endringen, og det Apple lærte underveis, betydde at Apple ikke ville gjøre den samme feilen igjen, og love en ny Siri for en dato de ikke kunne garantere å nå. I stedet vil ikke Apple «forhåndskommunisere en dato», forklarte Federighi, «før vi har V2-arkitekturen internt, og den leverer ikke bare i en form vi kan demonstrere for dere alle ...»
Han spøkte så med at selv om han faktisk «kunne» demonstrere en fungerende V2-modell, kom han ikke til å gjøre det. Så la han til, mer alvorlig: «Vi har, du vet, V2-arkitekturen, selvfølgelig, i drift internt, men vi er ennå ikke kommet til det punktet hvor den leverer på det kvalitetsnivået som jeg tror gjør den til en flott Apple-funksjon, og derfor kunngjør vi ikke datoen for når det skjer. Vi vil kunngjøre datoen når vi er klare til å lansere den, og dere alle er klare til å kunne oppleve den.»
Vi spurte Federighi om han med V2-arkitektur snakket om en fullstendig ombygging av Siri, men Federighi avfeide den oppfatningen.
«Jeg burde si at V2-arkitekturen ikke er det, den var ikke en overhaling. V1-arkitekturen var liksom halvparten av V2-arkitekturen, og nå utvider vi den på tvers, liksom gjør den til en ren arkitektur som strekker seg over hele Siri-opplevelsen. Så vi har i stor grad bygget videre på det vi har bygget for V1, men nå utvider vi det mer fullstendig, og den mer homogene ende-til-ende-arkitekturen gir oss mye høyere kvalitet og mye bedre kapasitet. Og det er det vi bygger nå.»
A annerledes AI-strategi
Noen vil kanskje se på Apples manglende evne til å levere hele Siri i henhold til den opprinnelige planen som et strategisk minefelt. Men Apples tilnærming til AI og produkter er også helt annerledes enn OpenAI eller Google Gemini. Den dreier seg ikke om et enkelt produkt eller en kraftig chatbot. Siri er ikke nødvendigvis midtpunktet vi alle forestilte oss.
Federighi bestrider ikke at «AI er denne transformative teknologien […] Alt som vokser ut av denne arkitekturen kommer til å ha flere tiår lang innvirkning på hele bransjen og økonomien, og omtrent som internett, omtrent som mobilitet, og det kommer til å berøre Apples produkter og det kommer til å berøre opplevelser som er langt utenfor Apple-produkter.»
Apple ønsker tydeligvis å være en del av denne revolusjonen, men på Apples premisser og på måter som gir brukerne mest mulig nytte, samtidig som de selvfølgelig beskytter personvernet deres. Siri var imidlertid aldri sluttresultatet, som Federighi forklarte.
AI er denne transformerende teknologien [...] og den kommer til å berøre Apples produkter og den kommer til å berøre opplevelser som ligger langt utenfor Apples produkter.»
Craig Federighi, Apple
«Da vi begynte med Apple Intelligence, var vi veldig tydelige: dette handlet ikke bare om å bygge en chatbot. Så, tilsynelatende, da noen av disse Siri-funksjonene jeg nevnte ikke dukket opp, tenkte folk: 'Hva skjedde, Apple? Jeg trodde dere skulle gi oss chatboten deres. Det var aldri målet, og det er fortsatt ikke vårt primære mål.'»
Så hva er målet? Jeg tror det kan være ganske åpenbart fra WWDC 2025-hovedinnlegget. Apple er fast bestemt på å integrere Apple Intelligence på tvers av alle plattformene sine. I stedet for å gå over til én enkelt app som ChatGPT for dine AI-behov, plasserer Apple det på en måte overalt. Det gjøres, forklarer Federighi, «på en måte som møter deg der du er, ikke at du drar til en chatopplevelse for å få ting gjort.»
Apple forstår tiltrekningen til samtaleboter. «Jeg vet at mange synes det er en veldig kraftig måte å samle tankene sine på, idémyldre [...] Så ja, dette er flotte ting,» sier Federighi. «Er de det viktigste Apple skal utvikle? Vel, tiden vil vise hvor vi går, men det er ikke det viktigste vi har satt oss fore å gjøre på dette tidspunktet.»
Nedenfor kan du se hele intervjuet med Federighi og Joswiak.

Videre lesning
Skribent, forfatter og illustratør med en spesiell forkjærlighet for produkter og brukergrensesnitt fra Apple.
- Lance UlanoffEditor At Large