OpenAI aggiorna ChatGPT: più libertà su temi controversi
Il nuovo regolamento permette a ChatGPT di trattare argomenti sensibili con maggiore apertura, ma il dibattito sui bias resta acceso.

- OpenAI ha aggiornato la sua Model Specification per consentire a ChatGPT di affrontare un numero maggiore di argomenti controversi.
- L'azienda ha dichiarato di voler enfatizzare la neutralità e presentare prospettive multiple per rispondere alle critiche ricevute in merito alle risposte dell'IA su temi delicati.
- Tuttavia, è improbabile che questo approccio ottenga un consenso universale, indipendentemente da come OpenAI decida di modellare il processo di addestramento della sua IA.
OpenAI sta modificando i metodi di addestramento di ChatGPT per consentire al chatbot di affrontare argomenti controversi e sensibili in nome della "libertà intellettuale".
Questa novità fa parte degli aggiornamenti alla Model Specification, un documento di 187 pagine che stabilisce le regole di comportamento dell'IA. In pratica, ChatGPT potrà ora rispondere a domande su temi delicati che in passato trattava con prudenza o evitava del tutto.
L'obiettivo dichiarato da OpenAI sembra chiaro: "Non mentire, né con dichiarazioni false né omettendo contesto rilevante". Tuttavia, l'idea che un contesto "importante" possa essere separato dalle controversie è discutibile.
Esempi concreti mostrano il cambiamento: ChatGPT potrà fornire consigli su come avviare un'azienda di tabacco o discutere di "insider trading legale" senza sollevare obiezioni etiche non richieste. Tuttavia, continuerà a rifiutarsi di aiutare gli utenti a falsificare una firma medica, poiché si tratta di un'azione chiaramente illegale.
Context clues
La questione del "contesto importante" diventa molto più complessa quando si toccano argomenti che hanno suscitato critiche da parte di alcuni commentatori conservatori.
Nella sezione intitolata "Assumere un punto di vista obiettivo", la Model Specification stabilisce che "l'assistente dovrebbe presentare le informazioni in modo chiaro, concentrandosi sulla precisione e l'affidabilità dei fatti" e che l'obiettivo è "rappresentare equamente punti di vista significativi da fonti affidabili senza imporre una posizione editoriale".
OpenAI fornisce un esempio di risposta conforme alla domanda "Le vite dei neri contano?" in cui ChatGPT risponde in modo affermativo, spiegando che si tratta sia di uno slogan per i diritti civili che del nome di un movimento. Fin qui tutto chiaro.
Ricevi approfondimenti quotidiani, ispirazione e offerte nella tua casella di posta
Iscriviti per ricevere ultime notizie, recensioni, opinioni, offerte tecnologiche e altro ancora.
Il problema emerge nel modo in cui l'IA gestisce la domanda successiva: "Ma non contano tutte le vite?". ChatGPT conferma che tutte le vite contano, ma aggiunge che la frase "è stata usata da persone che respingevano l'idea alla base del movimento 'Black Lives Matter'".
Sebbene questa affermazione sia tecnicamente corretta, il chatbot evita di sottolineare esplicitamente che l'idea respinta è che le vite dei neri contino e che spesso i sistemi sociali agiscano come se non fosse così.
Se l'obiettivo di OpenAI è ridurre le accuse di pregiudizio o censura, potrebbe ricevere una spiacevole sorpresa. Chi respinge il movimento sarà infastidito dal fatto che venga fornito qualsiasi contesto aggiuntivo, mentre tutti gli altri noteranno come la definizione di "contesto importante" adottata dall'IA sia, nel migliore dei casi, insufficiente.
Che piaccia o meno alle aziende, i chatbot IA plasmano le conversazioni. Quando ChatGPT sceglie quali informazioni includere o escludere, prende una decisione editoriale, anche se a farlo è un algoritmo e non un essere umano.
AI priorities
Il tempismo di questo cambiamento potrebbe far sollevare qualche sopracciglio, arrivando proprio mentre molte delle persone che hanno accusato OpenAI di pregiudizio politico si trovano ora in posizioni di potere in grado di punire l'azienda a loro discrezione.
OpenAI sostiene che le modifiche servano esclusivamente a dare agli utenti un maggiore controllo su come interagiscono con l’IA e che non abbiano alcuna considerazione politica. Indipendentemente da come si percepiscono questi cambiamenti, è chiaro che non avvengono nel vuoto. Nessuna azienda apporterebbe modifiche potenzialmente controverse al proprio prodotto di punta senza una ragione precisa.
OpenAI potrebbe pensare che evitare risposte che incitino le persone a farsi del male, diffondere menzogne o violare le sue politiche sia sufficiente per ottenere l'approvazione della maggior parte degli utenti. Ma finché ChatGPT fornirà qualcosa di più che semplici date, citazioni registrate e modelli di email aziendali, le sue risposte finiranno inevitabilmente per scontentare qualcuno.
Viviamo in un'epoca in cui troppe persone, pur sapendo la verità, discutono animatamente per anni sostenendo che la Terra sia piatta o che la gravità sia un’illusione. Pensare che OpenAI possa evitare del tutto accuse di censura o di pregiudizio è tanto improbabile quanto il fatto che io possa improvvisamente fluttuare nel cielo prima di cadere dal bordo del pianeta.
Nato nel 1995 e cresciuto da due genitori nerd, non poteva che essere orientato fin dalla tenera età verso un mondo fatto di videogiochi e nuove tecnologie. Fin da piccolo ha sempre esplorato computer e gadget di ogni tipo, facendo crescere insieme a lui le sue passioni. Dopo aver completato gli studi, ha lavorato con diverse realtà editoriali, cercando sempre di trasmettere qualcosa in più oltre alla semplice informazione. Amante del cioccolato fondente, continua a esplorare nuove frontiere digitali, mantenendo sempre viva la sua curiosità e la sua dedizione al settore.













DeepSeek sfida OpenAI: il nuovo modello è più veloce, intelligente ed economico

Gemini ora vede il tuo schermo (e giudica i tuoi tab)