iOS 26 potenzia Visual Intelligence: ecco perché è una delle novità più interessanti

Visual Intelligence providing a summary in iOS 26
(Immagine:: Jacob Krol/Future)

Come previsto, la WWDC 2025 si è conclusa senza un vero aggiornamento su Siri. La tanto attesa versione potenziata dall’intelligenza artificiale non è ancora pronta. Secondo quanto riportato da Lance Ulanoff, la causa del ritardo è legata a decisioni interne e limiti tecnici ancora da superare, come confermato dallo stesso Craig Federighi.

Apple però non è rimasta ferma sul fronte AI: l’evoluzione si è vista soprattutto nella Visual Intelligence, una funzione esclusiva per iPhone 16, iPhone 15 Pro e 15 Pro Max (qui trovate i migliori). Con iOS 26, l’IA visiva guadagna consapevolezza del contenuto sullo schermo e un nuovo sistema di ricerca che si attiva direttamente da uno screenshot.

Fino ad oggi, Visual Intelligence permetteva di avviare la fotocamera tramite una pressione prolungata sul tasto Camera Control (o Action Button personalizzato) per riconoscere elementi in tempo reale: animali, piante, oggetti. In pratica, una sorta di Google Lens semplificato.

La vera novità è che ora potremo fare lo stesso anche con gli screenshot. In una breve dimostrazione alla WWDC, Apple ha mostrato quanto sia immediato “chiedere” o “cercare” informazioni partendo da un’immagine salvata. È una funzione apparentemente minore, ma promette di cambiare il modo in cui si interagisce con il contenuto visivo su iPhone.

In attesa del debutto del nuovo Siri, iOS 26 inizia a mostrare cosa significa davvero Apple Intelligence, almeno nei dettagli.

Using Visual Intelligence to add to calendar in iOS 26

(Image credit: Jacob Krol/Future)

Con iOS 26, gli screenshot non sono più solo immagini statiche: diventano interattivi e intelligenti, grazie a una Visual Intelligence potenziata che rende l’iPhone più “consapevole” di ciò che si trova sullo schermo. È un aggiornamento mirato, ma potenzialmente rivoluzionario, soprattutto per chi, come molti, ha la Galleria piena di schermate salvate al volo.

Durante la demo alla WWDC, è bastato fare uno screenshot di una chat iMessage con il volantino di una serata cinema per vedere all’opera la nuova interfaccia. In basso compaiono le opzioni “Ask” a sinistra e “Search” a destra, ma al centro è Apple Intelligence a proporre un suggerimento rilevante: “Aggiungi al calendario”. In un tap, viene creato un evento con nome, data, ora e luogo, tutto estratto in automatico dallo screenshot.

Un sistema che non si limita al calendario: Visual Intelligence può suggerire anche traduzioni, sintesi del testo, lettura vocale o reminder, quando il contenuto lo giustifica.

E se state guardando un Reel su Instagram o un TikTok e vedete qualcosa che vi colpisce – un poster, una camicia, un oggetto – potete fare uno screenshot, selezionare l’area d’interesse col dito, proprio come si fa in “Pulizia” nell’app Foto, e avviare una ricerca tramite Google o ChatGPT. È la versione Apple di Circle to Search di Android, ma con il suo tocco.

Infine, Apple renderà disponibile l’API di questa funzione anche ad app di terze parti, aprendo la porta a un ecosistema ancora più smart.

Non è ancora l’IA rivoluzionaria promessa con il nuovo Siri, ma Visual Intelligence in iOS 26 fa un passo concreto verso l’iPhone realmente intelligente.

Visual Intelligence with a screenshot on an iPhone 16 Pro running iOS 26

(Image credit: Jacob Krol/Future)

Il nuovo sistema di Visual Intelligence su iOS 26 non si limita più a riconoscere piante e animali: ora può identificare libri, monumenti, opere d’arte e molto altro. Ma la vera novità è che non ci si ferma a Google o ChatGPT: dopo aver fatto uno screenshot e selezionato un oggetto, sarà possibile scegliere direttamente la piattaforma su cui cercarlo, come Amazon, Etsy e altre ancora. È una funzione che potrebbe diventare un cult tra gli utenti, anche se non è ancora il motivo definitivo per passare a un iPhone compatibile con Apple Intelligence… almeno per ora.

Se invece preferite cercare partendo dall’intero screenshot, le opzioni “Ask” e “Search” restano a portata di mano, pronte a usare l’IA di ChatGPT o i classici risultati di Google. È un sistema pensato per offrire azioni immediate, intuitive e contestuali, che può trasformare un semplice screenshot in un evento, un acquisto o una scoperta.

Apple sta espandendo questa funzione progressivamente, ma il potenziale è già chiaro: Visual Intelligence è la prima vera manifestazione di "consapevolezza dello schermo" su iPhone. E anche se non tutto è pronto al lancio, la direzione è entusiasmante.

Nato nel 1995 e cresciuto da due genitori nerd, non poteva che essere orientato fin dalla tenera età verso un mondo fatto di videogiochi e nuove tecnologie. Fin da piccolo ha sempre esplorato computer e gadget di ogni tipo, facendo crescere insieme a lui le sue passioni. Dopo aver completato gli studi, ha lavorato con diverse realtà editoriali, cercando sempre di trasmettere qualcosa in più oltre alla semplice informazione. Amante del cioccolato fondente, continua a esplorare nuove frontiere digitali, mantenendo sempre viva la sua curiosità e la sua dedizione al settore.