Il rilevamento dell'età di ChatGPT fa cilecca: adulti bloccati nella "modalità adolescenti"
Il sistema di rilevamento dell'età di OpenAI si sta trasformando in un vero grattacapo per la moderazione.
Sign up for breaking news, reviews, opinion, top tech deals, and more.
You are now subscribed
Your newsletter sign-up was successful
- ChatGPT ha lanciato a livello globale la sua nuova funzione di previsione dell'età in vista del debutto della nuova Modalità Adulti.
- Alcuni utenti adulti vengono erroneamente etichettati come adolescenti.
- Gli utenti, frustrati, temono che le procedure per superare queste restrizioni imprecise possano violare la loro privacy.
Il nuovo modello di intelligenza artificiale per la previsione dell'età di ChatGPT è in fase di distribuzione globale, ma si sta dimostrando fin troppo zelante nel tentativo di individuare gli utenti minorenni per attivare automaticamente i filtri sui contenuti della "modalità adolescenti".
L'idea di utilizzare l'IA per identificare i minori e indirizzarli verso una versione dedicata del chatbot ha una sua logica, specialmente in vista dell'imminente lancio della modalità per adulti di ChatGPT. OpenAI è convinta che i propri modelli siano in grado di dedurre l'età probabile di un utente basandosi sul comportamento e sul contesto.
Tuttavia, sembra che ChatGPT non stia applicando queste misure protettive solo agli under 18. Diversi abbonati adulti si sono ritrovati declassati alla versione per adolescenti, con restrizioni che impediscono loro di affrontare temi più maturi con l'IA. Si tratta di un problema ricorrente fin da quando OpenAI ha iniziato i test della funzione un paio di mesi fa, ma ciò non ne ha impedito il rilascio su più vasta scala.
I dettagli tecnici di questa funzionalità rimangono poco chiari. OpenAI afferma che il sistema incrocia segnali comportamentali, cronologia dell'account, pattern di utilizzo e, occasionalmente, analisi del linguaggio per stimare l'età. In caso di incertezza, il modello sceglie la strada della massima prudenza. All'atto pratico, questo significa che gli account più recenti, gli utenti attivi in orari notturni o chiunque ponga domande su temi rilevanti per i giovani rischiano di finire nella rete di protezione, anche se sono abbonati alla versione Pro da molto tempo.
Conferma dell'identità tramite IA
A prima vista, sembra il classico caso in cui le buone intenzioni si scontrano con un'implementazione approssimativa. OpenAI punta chiaramente a creare un'esperienza più sicura per i più giovani, data la crescente diffusione dello strumento in ambito educativo, nei contesti familiari e nei progetti creativi degli adolescenti.
Per gli utenti segnalati erroneamente, l'azienda afferma che la risoluzione è semplice: è possibile confermare la propria età tramite uno strumento di verifica nelle impostazioni. OpenAI si affida a un servizio terzo, Persona, che in alcuni casi può richiedere l'invio di un documento d'identità ufficiale o di un video-selfie per confermare l'identità dell'utente. Per molti, tuttavia, il problema principale non è il passaggio burocratico in più, ma il fatto di essere stati "fraintesi" da un chatbot e di dover fornire ulteriori dati personali per smentire tale valutazione.
We’re rolling out age prediction on ChatGPT to help determine when an account likely belongs to someone under 18, so we can apply the right experience and safeguards for teens.Adults who are incorrectly placed in the teen experience can confirm their age in Settings > Account.…January 20, 2026
La richiesta di un documento d'identità, anche se opzionale e anonimizzata, solleva interrogativi sulla raccolta dei dati, sulla privacy e sulla possibilità che si tratti di un espediente per introdurre politiche di verifica dell'età più aggressive in futuro. Alcuni utenti ritengono che OpenAI stia tastando il terreno per una conferma totale dell'identità con il pretesto della sicurezza dei minori, mentre altri temono che il modello possa essere addestrato, in parte, proprio sui materiali inviati, nonostante le smentite della società.
Iscriviti per ricevere ultime notizie, recensioni, opinioni, offerte tecnologiche e altro ancora.
"Un ottimo modo per costringere le persone a caricare selfie", ha scritto un utente su Reddit. "Se [OpenAI] mi chiede un selfie, annullerò l'abbonamento e cancellerò l'account", ha scritto un altro. "Capisco perché lo facciano, ma per favore trovate un modo meno invasivo".
In una nota sul proprio sito di assistenza, OpenAI ha precisato di non visualizzare mai direttamente il documento o l'immagine stessa. Persona si limita a confermare se l'account appartiene a un adulto e trasmette un semplice responso positivo o negativo. L'azienda afferma inoltre che tutti i dati raccolti durante questo processo vengono eliminati dopo la verifica e che l'unico obiettivo è correggere le classificazioni errate.
La tensione tra l'obiettivo di OpenAI di creare un'IA personalizzata e la necessità di sovrapporre meccanismi di sicurezza reattivi che non allontanino gli utenti è evidente. Inoltre, le spiegazioni dell'azienda su quanto possa dedurre di una persona basandosi sui segnali comportamentali potrebbero non soddisfare tutti.
YouTube, Instagram e altre piattaforme hanno provato strumenti simili di stima dell'età e tutti hanno dovuto affrontare lamentele da parte di adulti accusati di essere minorenni. Ma ora che ChatGPT è diventato un compagno abituale nelle aule scolastiche, negli uffici domestici e persino nelle sessioni di terapia, l'idea di un filtro IA invisibile che improvvisamente ti tratti come un bambino appare particolarmente invadente.
OpenAI dichiara che continuerà a perfezionare il modello e a migliorare il processo di verifica basandosi sui feedback degli utenti. Tuttavia, l'utente medio che cerca consigli sull'abbinamento dei vini e si sente dire di essere troppo giovane per bere potrebbe semplicemente abbandonare ChatGPT per il fastidio. Nessun adulto sarà felice di essere scambiato per un bambino, specialmente da un robot digitale.

Eric Hal Schwartz is a freelance writer for TechRadar with more than 15 years of experience covering the intersection of the world and technology. For the last five years, he served as head writer for Voicebot.ai and was on the leading edge of reporting on generative AI and large language models. He's since become an expert on the products of generative AI models, such as OpenAI’s ChatGPT, Anthropic’s Claude, Google Gemini, and every other synthetic media tool. His experience runs the gamut of media, including print, digital, broadcast, and live events. Now, he's continuing to tell the stories people want and need to hear about the rapidly evolving AI space and its impact on their lives. Eric is based in New York City.