Voici ce qui s'est réellement passé avec Siri et l'Apple Intelligence, selon Apple

WWDC 2025
(Crédit photo: Lance Ulanoff / Future)

Difficile de nier que l’assistant vocal Siri d’Apple n’a pas vraiment occupé le devant de la scène lors de la keynote WWDC 2025. Il a bien été mentionné, mais Apple a rappelé que la mise à jour tant attendue prend plus de temps que prévu. L’intégration complète promise il y a un an n’arrivera qu’« au cours de l’année prochaine ».

Depuis, Apple a précisé : ce sera en 2026. Autrement dit, en 2025, il ne faudra pas s’attendre à une intégration profonde, celle qui aurait permis à Siri d’exploiter les données personnelles présentes sur un iPhone sous iOS pour devenir un assistant numérique véritablement intelligent. Dans iOS 26 fraîchement annoncé, Siri n’utilisera donc pas les app intents pour analyser ce qui se passe à l’écran et agir en conséquence.

Plusieurs hypothèses circulent pour expliquer ce retard, souvent liées à la volonté de concilier expériences riches basées sur l’IA et respect strict de la vie privée, deux axes parfois contradictoires chez Apple. Cela dit, seules les équipes de Cupertino peuvent vraiment lever le voile. Ce qu’elles ont fini par faire.

Juste après la keynote, une discussion à bâtons rompus a eu lieu avec Craig Federighi, vice-président senior en charge des logiciels, et Greg Joswiak, vice-président global marketing d’Apple. L’échange, conduit avec le rédacteur en chef monde de Tom’s Guide, Mark Spoonauer, a couvert l’ensemble des annonces faites pendant les 90 minutes de présentation.

La première question a porté sur Apple Intelligence, l’état actuel de Siri, et ce que les utilisateurs d’iPhone peuvent espérer cette année ou l’an prochain. Federighi s’est montré étonnamment transparent, dévoilant la stratégie d’Apple autour de Siri, de l’intelligence artificielle, et de ses ambitions.

Loin d’être un coup d’épée dans l’eau

Lance Ulanoff, Mark Spoonauer, Craig Federighi, Greg Joswiak

De gauche à droite : Lance Ulanoff et Mark Spoonauer discutent avec Craig Federighi et Greg Josiwak. (Image credit: Apple)

WWDC 2025

(Image credit: Lance Ulanoff / Future)

Craig Federighi a d’abord rappelé ce qui avait déjà été accompli avec Apple Intelligence – et il faut reconnaître que cela représente un volume considérable.

« L’objectif était de créer une plateforme complète permettant des expériences vraiment personnelles et intégrées au sein du système d’exploitation », a-t-il expliqué, en référence à la présentation initiale d’Apple Intelligence à la WWDC 2024.

À l’époque, Apple avait dévoilé des outils d’aide à l’écriture, de résumé de texte, de gestion des notifications, des souvenirs vidéo, la recherche sémantique dans la photothèque et une fonction de suppression d’éléments sur les photos. Tous ces outils ont bien été livrés. Mais dès leur développement, Apple a compris, selon Federighi, que l’on pouvait bâtir sur cette base – avec des modèles de langage intégrés à l’appareil, un cloud privé pour le calcul, une indexation sémantique locale – pour créer un Siri plus intelligent.

Excès de confiance ?

L’an dernier, Apple était convaincu de sa capacité à proposer une nouvelle version de Siri capable de mieux comprendre le contexte d’une conversation, de gérer les erreurs de langage, d’interagir par écrit, avec une toute nouvelle interface. Et tous ces éléments ont bel et bien été livrés.

« Nous avons aussi parlé d’une capacité plus large à déclencher des actions sur l’appareil grâce aux intentions d’applications orchestrées par Siri », a poursuivi Federighi. « On évoquait aussi la possibilité d’exploiter des connaissances personnelles issues de cet index sémantique, comme par exemple : "Quel est ce podcast que Joz m’a envoyé ?" – et que Siri puisse le retrouver, qu’il soit dans les messages ou dans les mails, et éventuellement agir à partir de là. C’est cette partie-là que nous n’avons pas encore livrée. »

Les faits sont connus : Apple avait trop promis. L’arrivée d’une version enrichie de Siri, prévue pour fin 2024, n’a jamais eu lieu, et la firme l’a reconnu au printemps 2025. Pourquoi ? Le mystère restait entier jusqu’à présent. En règle générale, Apple n’a pas l’habitude de présenter des produits ou fonctionnalités sans être certain de pouvoir les livrer à temps.

Cette fois, Craig Federighi a accepté de détailler ce qui n’avait pas fonctionné, et comment Apple comptait rebondir.

« En développant cette fonctionnalité, nous avons identifié deux étapes, deux architectures distinctes pour Siri », a-t-il expliqué. « Une version 1 fonctionnelle était prête à l’approche de la conférence, et nous avions bon espoir de la livrer, idéalement pour décembre, ou au plus tard au printemps. C’est dans cette optique qu’elle a été annoncée lors de la WWDC : le monde voulait savoir ce qu’Apple préparait avec Apple Intelligence et vers quoi cela allait. »

Le récit de deux architectures

Siri being enabled on an iPhone

(Image credit: Apple)

Pendant le développement de cette première architecture de Siri, Apple travaillait déjà en parallèle sur une seconde, baptisée V2 par Federighi – une structure plus profonde, pensée pour offrir l’éventail complet de fonctionnalités visées.

Ce qui avait été montré à la WWDC 2024 reposait donc sur cette architecture V1, utilisée comme socle pour poursuivre les travaux en vue du lancement complet de Siri enrichi par Apple Intelligence.

« Pendant des mois, nous avons cherché à améliorer son fonctionnement sur un plus grand nombre d’apps, à la rendre plus efficace pour la recherche », a précisé Federighi. « Mais nous avons vite compris que les limites de l’architecture V1 ne permettaient pas d’atteindre le niveau de qualité que nos clients attendent. Pousser cette version aurait conduit à une déception. Il a donc été décidé de basculer vers l’architecture V2. »

« Dès que cette décision a été prise, au printemps, nous avons averti que cette version ne sortirait pas, et que les efforts seraient recentrés sur ce nouveau socle. »

« Nous avons compris que […] si nous livrions cette version dans son état actuel, elle ne serait pas à la hauteur des attentes des utilisateurs, ni des standards d’Apple. Il fallait donc passer à l’architecture V2. »

Craig Federighi, Apple

Ce changement de cap et les leçons tirées de cette transition ont conduit Apple à ne plus reproduire la même erreur. Plus question d’annoncer une date de sortie que l’entreprise ne pourrait pas garantir. Désormais, Apple ne « communiquera pas de date en avance », a expliqué Federighi, « tant que l’architecture V2 ne sera pas prête à être partagée. »

Federighi a même plaisanté en disant qu’il « pourrait » en faire une démonstration, mais qu’il ne le ferait pas. Plus sérieusement, il a précisé que « cette architecture V2 est déjà fonctionnelle en interne, mais pas encore au niveau de qualité requis pour en faire une véritable fonctionnalité Apple. La date de sortie sera annoncée quand la version pourra être testée par tout le monde. »

Lorsqu’il lui a été demandé si cette V2 constituait une refonte complète de Siri, Federighi a rectifié : « L’architecture V2 ne part pas de zéro. La V1 représentait en quelque sorte la moitié de cette nouvelle structure. Nous avons construit sur cette base, en l’étendant pour en faire une architecture homogène et cohérente sur l’ensemble de l’expérience Siri. Cela nous permet d’atteindre un niveau de qualité bien supérieur, avec des capacités accrues. »

Une autre stratégie de l’IA

Lance Ulanoff, Mark Spoonauer, Craig Federighi, Greg Joswiak

(Image credit: Apple)

Certains pourraient voir dans ce retard un faux pas stratégique. Mais la vision d’Apple en matière d’IA diffère radicalement de celle d’OpenAI ou de Google Gemini. L’enjeu ne tourne pas autour d’un chatbot unique ou surpuissant. Siri n’a jamais été le cœur du projet.

Federighi ne conteste pas que « l’intelligence artificielle est une technologie de rupture […] tout ce qui découle de cette architecture aura un impact sur l’industrie et l’économie pendant des décennies, comme ce fut le cas d’Internet ou de la mobilité. Cela influencera les produits Apple, mais aussi bien au-delà. »

Apple veut être un acteur de cette révolution, mais à ses conditions, en priorisant l’utilisateur, et surtout, sa vie privée. Siri, dans cette vision, n’est pas une fin en soi.

« L’intelligence artificielle est une technologie de rupture […] elle influencera les produits Apple, et bien au-delà. »

Craig Federighi, Apple

« Dès le départ avec Apple Intelligence, il était clair qu’il ne s’agissait pas de créer un simple chatbot. Mais quand certaines fonctions liées à Siri n’ont pas été dévoilées, certains se sont demandé ce qu’il s’était passé. Ils attendaient leur chatbot Apple. Ce n’était pas le but, et ça ne l’est toujours pas. »

Alors, quel est le véritable objectif ? Il semble clair, à en croire la WWDC 2025 : Apple veut intégrer l’intelligence artificielle dans l’ensemble de ses plateformes. Pas besoin d’ouvrir une application comme ChatGPT pour utiliser l’IA : elle est partout, de façon invisible. « C’est conçu pour vous accompagner là où vous êtes, sans vous obliger à quitter ce que vous faites pour ouvrir une app de chat », résume Federighi.

Apple reconnaît néanmoins l’attrait des bots conversationnels. « Beaucoup de gens trouvent ça utile pour organiser leurs idées, faire du brainstorming […]. Ce sont de belles avancées », reconnaît Federighi. « Est-ce que c’est la priorité d’Apple ? L’avenir le dira. Mais ce n’est pas ce que nous cherchions à faire pour l’instant. »

L’interview complète de Federighi et Joswiak est à retrouver ci-dessous.

WWDC INTERVIEW: Craig & Joz on Why Siri's Not Ready, AI Vision and iPadOS Shocker! - YouTube WWDC INTERVIEW: Craig & Joz on Why Siri's Not Ready, AI Vision and iPadOS Shocker! - YouTube
Watch On

Vous aimerez aussi

TOPICS
Adrien Bar Hiyé
Senior Editor

Quand je ne suis pas en train de plonger dans le monde fascinant de la finance et des nouvelles technologies, vous me trouverez probablement en train de parcourir le globe ou de conquérir de nouveaux mondes virtuels sur ma console de jeux.

Avec la contribution de