ChatGPT avrà controlli parentali per i minori: ecco come funzionano

ChatGPT
(Immagine:: Shutterstock)

OpenAI sta introducendo nuovi aggiornamenti di sicurezza per ChatGPT, pensati per proteggere in particolare gli adolescenti e le persone che affrontano crisi emotive. L’azienda ha annunciato l’arrivo di controlli parentali che permetteranno ai genitori di collegare i propri account a quelli dei figli a partire dai 13 anni. In questo modo potranno limitare alcune funzioni e ricevere avvisi in tempo reale se l’IA rileva messaggi problematici che potrebbero indicare depressione o altri segnali di disagio.

L’aggiornamento rappresenta un riconoscimento del fatto che i teenager stanno già utilizzando ChatGPT e, in certi casi, lo trattano come un amico o un confidente. Sebbene non sia citato direttamente, la decisione sembra anche una risposta a recenti episodi di cronaca in cui alcune persone hanno attribuito il suicidio di un familiare alle interazioni con un chatbot.

Emotionally safe models

Per adulti e adolescenti, OpenAI ha annunciato che inizierà a instradare le conversazioni più delicate — quelle che riguardano temi di salute mentale o ideazione suicidaria — attraverso una versione specializzata del modello di ChatGPT. Questo modello utilizza un approccio chiamato deliberative alignment, progettato per rispondere con maggiore cautela, resistere ai prompt manipolativi e rispettare rigorosamente le linee guida di sicurezza.

Per rendere possibile il nuovo sistema, OpenAI ha creato due strutture di supporto: l’Expert Council on Well-Being and AI e il Global Physician Network, che riunisce oltre 250 professionisti medici specializzati in salute mentale, dipendenze e cura degli adolescenti. Questi esperti contribuiranno a definire come rilevare i segnali di disagio, come l’IA debba rispondere e come debbano funzionare le escalation nei momenti di rischio reale.

Da tempo i genitori si preoccupano di tempo trascorso davanti agli schermi e contenuti online, ma con l’IA entra in gioco un nuovo fattore: non solo cosa vede un ragazzo, ma con chi parla. Quando quel “chi” è un modello linguistico avanzato, capace di esprimersi come se provasse empatia pur restando un algoritmo, la questione diventa molto più complessa.

Finora la sicurezza dell’IA è stata gestita in maniera prevalentemente reattiva, ma i nuovi strumenti segnano un passo verso un approccio più proattivo nella prevenzione dei danni. L’obiettivo è ridurre al minimo i casi in cui il sistema debba inviare messaggi d’allerta ai genitori o spingersi a chiedere a un adolescente di pensare ai propri cari. Potrà sembrare invadente o sgradito, ma se queste funzioni riusciranno a deviare un grido d’aiuto dal baratro, sarà comunque un risultato positivo.

TOPICS

Nato nel 1995 e cresciuto da due genitori nerd, non poteva che essere orientato fin dalla tenera età verso un mondo fatto di videogiochi e nuove tecnologie. Fin da piccolo ha sempre esplorato computer e gadget di ogni tipo, facendo crescere insieme a lui le sue passioni. Dopo aver completato gli studi, ha lavorato con diverse realtà editoriali, cercando sempre di trasmettere qualcosa in più oltre alla semplice informazione. Amante del cioccolato fondente, continua a esplorare nuove frontiere digitali, mantenendo sempre viva la sua curiosità e la sua dedizione al settore.