Sam Altman vuole dispositivi AI coccolosi, ma sembra sorveglianza
La tranquillità non dovrebbe richiedere di rinunciare alla propria sfera privata a favore di un dispositivo
l CEO di OpenAI, Sam Altman, ha confermato questa settimana che l'azienda sta sviluppando un dispositivo completamente nuovo, incentrato sull'AI. Secondo lui, questo sarà in netto contrasto con il disordine e il caos generato dai nostri telefoni e dalle applicazioni. Anzi, ha paragonato l'esperienza d'uso a "sedersi nella cabina più bella in riva a un lago e in montagna, e godersi semplicemente la pace e la calma". Ma comprendere l'utente nel contesto e analizzare abitudini, stati d'animo e routine sembra più intimo di quanto non lo sia la relazione tra la maggior parte delle persone e i propri cari, figuriamoci con un pezzo di hardware.
La sua retorica nasconde una realtà molto diversa. Un dispositivo progettato per monitorare costantemente la tua vita, per raccogliere dettagli su dove ti trovi, cosa fai, come parli e altro ancora, suona soffocante. Avere un osservatore elettronico che assorbe ogni sfumatura del tuo comportamento e si adatta alla tua vita può sembrare accettabile, finché non si considera il percorso che questi dati compiono per fornire l'analisi.
Definire "rasserenante" un dispositivo è come chiudere gli occhi e sperare di essere invisibili. È sorveglianza, volontaria, ma onnicomprensiva. La promessa di serenità sembra una copertura intelligente per la rinuncia alla privacy e per qualcosa di peggio. La consapevolezza del contesto 24 ore su 24 e 7 giorni su 7 non è sinonimo di pace.
Gli occhi dell'AI puntati su di te
La solitudine e la pace si basano su un senso di sicurezza. Un dispositivo che afferma di offrirmi calma dissolvendo quei confini non fa che espormi. L'analogia di Altman della "cabina in riva al lago" è seducente. Chi non ha mai sognato di sfuggire al costante ping delle notifiche, agli annunci lampeggianti, al caos algoritmico delle app moderne, e di allontanarsi da tutto questo per rifugiarsi in un luogo di pace? Ma la serenità costruita sull'osservazione costante è un'illusione.
Non si tratta solo di scetticismo verso i migliori gadget a energia solare o la tecnologia. Qui risiede un paradosso profondamente radicato. Più questo dispositivo diventa consapevole del contesto e reattivo, più informazioni ottiene su di te. Più informazioni ha, maggiore è il potenziale di intrusione.
La versione di calma che Altman sta cercando di venderci dipende da una discrezione indefinita. Dobbiamo fidarci delle persone giuste con tutti i nostri dati e credere che un algoritmo, e l'azienda che lo gestisce, tratteranno sempre le nostre informazioni personali con riguardo e attenzione. Dobbiamo fidarci che non useranno mai questi dati come strumento di influenza, che non li utilizzeranno mai per influenzare i nostri pensieri, le nostre decisioni, le nostre scelte politiche, le nostre abitudini di acquisto, le nostre relazioni.
È una richiesta enorme, anche prima di considerare la storia di Altman in materia di diritti di proprietà intellettuale.
Iscriviti per ricevere ultime notizie, recensioni, opinioni, offerte tecnologiche e altro ancora.
Vedere e prendere
La solitudine e la pace si basano su un senso di sicurezza. Un dispositivo che afferma di offrirmi calma dissolvendo quei confini non fa che espormi. L'analogia di Altman della "cabina in riva al lago" è seducente. Chi non ha mai sognato di sfuggire al costante ping delle notifiche, agli annunci lampeggianti, al caos algoritmico delle app moderne, e di allontanarsi da tutto questo per rifugiarsi in un luogo di pace? Ma la serenità costruita sull'osservazione costante è un'illusione.
Non si tratta solo di scetticismo verso i gadget. Qui risiede un paradosso profondamente radicato. Più questo dispositivo diventa consapevole del contesto e reattivo, più informazioni ottiene su di te. Più informazioni ha, maggiore è il potenziale di intrusione.
La versione di calma che Altman sta cercando di venderci dipende da una discrezione indefinita. Dobbiamo fidarci delle persone giuste con tutti i nostri dati e credere che un algoritmo, e l'azienda che lo gestisce, tratteranno sempre le nostre informazioni personali con riguardo e attenzione. Dobbiamo fidarci che non useranno mai questi dati come strumento di influenza, che non li utilizzeranno mai per influenzare i nostri pensieri, le nostre decisioni, le nostre scelte politiche, le nostre abitudini di acquisto, le nostre relazioni.
È una richiesta enorme, anche prima di considerare la storia di Altman in materia di diritti di proprietà intellettuale.

Eric Hal Schwartz is a freelance writer for TechRadar with more than 15 years of experience covering the intersection of the world and technology. For the last five years, he served as head writer for Voicebot.ai and was on the leading edge of reporting on generative AI and large language models. He's since become an expert on the products of generative AI models, such as OpenAI’s ChatGPT, Anthropic’s Claude, Google Gemini, and every other synthetic media tool. His experience runs the gamut of media, including print, digital, broadcast, and live events. Now, he's continuing to tell the stories people want and need to hear about the rapidly evolving AI space and its impact on their lives. Eric is based in New York City.