Visual Intelligence fait l'objet d'une mise à jour majeure avec iOS 26, et j'ai hâte de l'utiliser à nouveau
Cela vous donnera envie d'utiliser cette fonctionnalité.

Comme nous nous y attendions, la WWDC 2025, et plus particulièrement le discours d'ouverture, s'est déroulée sans aucune annonce officielle concernant Siri. Apple continue de travailler sur cette mise à jour intégrant l'IA, qui vise essentiellement à rendre l'assistant virtuel beaucoup plus convivial et réactif. Lance Ulanoff, rédacteur en chef de TechRadar, a dévoilé les raisons de ce retard après s'être entretenu avec Craig Federighi.
Même sans Siri doté d'IA, Apple a tout de même apporté une mise à jour assez importante à Apple Intelligence, mais pas nécessairement là où on s'y attendait. Il s'agit d'une mise à jour de Visual Intelligence, une fonctionnalité exclusive à la gamme iPhone 16, à l'iPhone 15 Pro et à l'iPhone 15 Pro Max, qui gagne en intelligence et offre un nouveau mode de recherche, le tout intégré à la puissance d'une capture d'écran.
Il s'agit d'une fonctionnalité complémentaire à l'ensemble original de Visual Intelligence : une pression longue sur le bouton Camera Control (ou la personnalisation du bouton Action sur le 15 Pro) affiche une vue en direct de l'appareil photo de votre iPhone et vous permet de prendre une photo, mais aussi de « demander » ou « rechercher » ce que votre iPhone voit.
Il s'agit en quelque sorte d'une version plus basique de Google Lens, dans la mesure où vous pouvez identifier des plantes, des animaux domestiques et effectuer des recherches visuelles. La plupart de ces fonctionnalités ne changeront pas avec iOS 26, mais vous pourrez utiliser Visual Intelligence pour les captures d'écran. Après une brève démonstration lors de la WWDC 2025, j'ai hâte de l'utiliser à nouveau.
Visual Intelligence rend les captures d'écran beaucoup plus exploitables et pourrait vous faire gagner de l'espace sur votre iPhone... surtout si votre application Photos ressemble à la mienne et regorge de captures d'écran. Le grand effort d'Apple ici est de nous donner un avant-goût de la conscience à l'écran.
La capture d'écran d'une conversation Messages avec l'affiche d'une soirée cinéma à venir dans la démo que j'ai vue m'a donné un aperçu de la nouvelle interface. Il s'agit de l'interface classique de capture d'écran de l'iPhone, mais en bas à gauche se trouvent les boutons familiers « Demander » et « Rechercher », tandis qu'au milieu se trouve une suggestion d'Apple Intelligence qui peut varier en fonction de ce que vous capturez.
Dans ce cas, il s'agissait de « Ajouter au calendrier », ce qui m'a permis de créer facilement une invitation avec le nom de la soirée cinéma à la date et à l'heure souhaitées, ainsi que le lieu. En substance, cela consiste à identifier les éléments de la capture d'écran et à extraire les informations pertinentes.
Plutôt sympa ! Plutôt que de simplement prendre une capture d'écran de l'image, vous pouvez ajouter un événement à votre calendrier en quelques secondes. Cette fonctionnalité intègre également une fonctionnalité que beaucoup de propriétaires d'iPhone apprécieront, même si les téléphones Android comme les meilleurs Pixel ou le Galaxy S25 Ultra le font déjà depuis un certain temps.
Apple Intelligence vous proposera ces suggestions lorsqu'elle les jugera pertinentes. Il peut s'agir de créer une invitation ou un rappel, de traduire d'autres langues vers votre langue préférée, de résumer un texte ou même de le lire à haute voix.
Tout cela est très pratique, mais imaginons que vous parcouriez TikTok ou Instagram Reels et que vous voyiez un produit, peut-être une jolie chemise boutonnée ou une affiche qui attire votre attention. Visual Intelligence a la solution, et c'est en quelque sorte la réponse d'Apple à la fonction « Circle to Search » d'Android.
Vous faites une capture d'écran, puis, une fois celle-ci prise, il vous suffit de faire glisser votre doigt sur la partie de l'image que vous souhaitez rechercher. L'effet à l'écran est similaire à celui obtenu lorsque vous sélectionnez un objet à supprimer dans « Nettoyer » de l'application Photos, mais ensuite, vous pouvez effectuer une recherche via Google ou ChatGPT. D'autres applications peuvent également opter pour cette API mise à disposition par Apple.
Et c'est là que ça devient vraiment intéressant : vous pourrez faire défiler tous les endroits disponibles pour effectuer votre recherche, comme Etsy ou Amazon. Je pense que cette fonctionnalité sera très appréciée des utilisateurs lorsqu'elle sera disponible, même si ce n'est pas une raison suffisante pour acheter un iPhone compatible avec Visual Intelligence... du moins, pas encore.
De plus, si vous préférez rechercher uniquement la capture d'écran dans son intégralité, vous pouvez utiliser les boutons « Demander » et « Rechercher ». Ceux-ci vous permettent d'utiliser Google ou ChatGPT. Au-delà de la capacité d'analyser et de suggérer à partir de captures d'écran ou d'effectuer des recherches à partir d'une sélection, Apple étend également les types d'éléments que Visual Intelligence peut reconnaître, au-delà des animaux domestiques et des plantes, aux livres, aux monuments et aux œuvres d'art.
Tout n'était pas disponible dès le lancement, mais Apple travaille clairement à l'extension des capacités de Visual Intelligence et à l'amélioration des fonctionnalités d'Apple Intelligence. Étant donné que cela nous donne un aperçu de la reconnaissance à l'écran, je suis très enthousiaste.
Vous pourriez aimer

Jacob Krol is the US Managing Editor, News for TechRadar. He’s been writing about technology since he was 14 when he started his own tech blog. Since then Jacob has worked for a plethora of publications including CNN Underscored, TheStreet, Parade, Men’s Journal, Mashable, CNET, and CNBC among others.
He specializes in covering companies like Apple, Samsung, and Google and going hands-on with mobile devices, smart home gadgets, TVs, and wearables. In his spare time, you can find Jacob listening to Bruce Springsteen, building a Lego set, or binge-watching the latest from Disney, Marvel, or Star Wars.