Apple testa Siri con ChatGPT: più smart grazie alla consapevolezza dello schermo

Two iPhones on a blue background showing Siri and Shortcuts
(Immagine:: Apple)

  • Apple sta sviluppando una funzione di "onscreen awareness" per consentire a Siri di comprendere e interagire con i contenuti attualmente visualizzati sullo schermo.
  • Apple fornirà anche API agli sviluppatori per integrare la funzione onscreen awareness nelle loro app di terze parti e sta attualmente testando l'integrazione con ChatGPT, che consente a Siri di rispondere a domande basate su screenshot.
  • Sebbene non sia disponibile nella beta di iOS 18.2, la "onscreen awareness" potrebbe arrivare in tempo per iOS 18.4 nel 2025.

Tra gli assistenti digitali, Siri ha ottenuto buoni risultati, soprattutto se paragonato a Cortana, il deludente assistente di Microsoft. Ora, Apple sta lavorando per migliorare ulteriormente Siri, arricchendolo con una nuova funzionalità chiamata "onscreen awareness" (consapevolezza dello schermo). Questa funzione mira a migliorare la capacità dell'assistente digitale di comprendere meglio ciò che si sta visualizzando sullo schermo del dispositivo.

Apple ha fornito maggiori dettagli su questa funzionalità in una sezione dedicata della sua documentazione per sviluppatori, spiegando che sarà inclusa nelle versioni beta di iOS per il testing. L'idea di base è che, se si sta guardando un documento o una pagina web e si ha una domanda su ciò che si sta visualizzando, sarà possibile chiedere a Siri di rispondere o di eseguire un'azione in modo più mirato. Per esempio, Siri potrebbe fornire informazioni specifiche sul contenuto che si sta guardando o inviare un contenuto a un’app di terze parti compatibile.

Apple ha introdotto l'idea di "onscreen awareness" nel giugno del 2024, il che indica che la funzione è ancora in fase di sviluppo e test. Se questa funzionalità dovesse funzionare come previsto (un "se" significativo), Siri diventerà più intelligente e non sarà più necessario spiegare in dettaglio ogni azione che si desidera venga eseguita. Ad esempio, sarà possibile avere un documento aperto e chiedere un riassunto senza dover copiare e incollare il testo o descrivere esattamente cosa si vuole.

In sostanza, l'obiettivo di Apple è rendere Siri più interattivo e contestualmente consapevole, permettendo all'assistente di rispondere in modo più preciso e naturale a domande che riguardano il contenuto effettivo che si sta visualizzando sullo schermo.

I piani di Apple per il futuro prossimo di Siri

MacRumors riporta che Apple ha reso disponibili delle nuove API agli sviluppatori, permettendo loro di integrare i contenuti delle loro app con Siri e Apple Intelligence. L’obiettivo è quello di dare agli sviluppatori un ampio anticipo rispetto al rilascio ufficiale della funzione, consentendo loro di rendere le app compatibili con la "consapevolezza su schermo" non appena sarà lanciata ufficialmente. 

Al momento, si sa che Apple sta testando l'integrazione di ChatGPT nell'ultima versione beta di iOS 18.2, insieme ad altri sistemi operativi Apple. Grazie a questa integrazione, Siri sarà in grado di rispondere a domande relative ai contenuti visualizzati sullo schermo (come immagini, PDF e video). Il funzionamento attuale prevede che Siri scatti uno screenshot di ciò che è visibile sullo schermo e lo invii a ChatGPT per ottenere una risposta. Per ora, questa funzione è limitata alla cattura di screenshot, ma rappresenta un primo passo verso una maggiore interazione tra Siri e i contenuti visivi.

La consapevolezza su schermo, tuttavia, si presenta come una funzionalità più avanzata e diretta. Secondo MacRumors, mentre l’integrazione con ChatGPT si basa sull’uso degli screenshot, la consapevolezza su schermo permetterà a Siri di analizzare e interagire direttamente con il contenuto visibile sullo schermo, senza necessità di ulteriori passaggi. Ad esempio, se qualcuno invia un messaggio contenente il suo numero di telefono, sarà possibile semplicemente chiedere a Siri di creare un nuovo contatto, senza dover fornire ulteriori dettagli o seguire una serie di passaggi intermedi. 

In sostanza, la consapevolezza su schermo mira a rendere Siri un assistente ancora più intuitivo e reattivo, in grado di interpretare e rispondere in modo più naturale a comandi basati sul contesto visuale, semplificando e accelerando molte delle operazioni quotidiane su dispositivi Apple.

Riuscirà Siri a sopravvivere e persino a prosperare nell'era dell'intelligenza artificiale?

A quanto pare, l'onscreen awareness non è ancora presente nella beta per sviluppatori di iOS 18.2, e MacRumors ipotizza che potrebbe essere una delle tante funzionalità di Siri che non vedremo per un po'. Tuttavia, la notizia rimane comunque promettente. Secondo alcune previsioni, la consapevolezza sullo schermo potrebbe essere inclusa in iOS 18.4, atteso per la prima metà del 2025.

Se questa ipotesi si dovesse concretizzare, Siri potrebbe diventare un assistente digitale molto più utile e, grazie all'abilità di Apple nel design, potrebbe affermarsi come l'assistente digitale preferito da molti. Questo sviluppo ricorda l'ambizione di Microsoft con il suo Copilot, che, almeno per ora, non ha avuto una grande accoglienza, lasciando così spazio ad Apple per raccogliere il testimone.

TOPICS

Nato nel 1995 e cresciuto da due genitori nerd, non poteva che essere orientato fin dalla tenera età verso un mondo fatto di videogiochi e nuove tecnologie. Fin da piccolo ha sempre esplorato computer e gadget di ogni tipo, facendo crescere insieme a lui le sue passioni. Dopo aver completato gli studi, ha lavorato con diverse realtà editoriali, cercando sempre di trasmettere qualcosa in più oltre alla semplice informazione. Amante del cioccolato fondente, continua a esplorare nuove frontiere digitali, mantenendo sempre viva la sua curiosità e la sua dedizione al settore.