ChatGPT diventa più affidabile grazie al nuovo software Nvidia

(Immagine:: Getty Images)

Nvidia è nota al grande pubblico per la produzione di alcune delle migliori schede video sul mercato. Tuttavia, anche se molti collegano le GPU Nvidia unicamente al gaming, questi componenti hanno un ruolo cruciale nell'addestramento dei modelli di intelligenza artificiale generativa che sono alla base di chatbot come ChatGPT. 

L'azienda si è recentemente affacciata nel mondo dell'AI annunciando l'arrivo di un nuovo software che potrebbe incrementare notevolmente l'affidabilità dei chatbot evitando che vadano fuori tema o inventino informazioni di sana pianta.

Il nuovo ‘NeMo Guardrails’ è un software progettato per garantire che le applicazioni intelligenti basate su grandi modelli linguistici (LLM), come i chatbot AI, siano "accurate, appropriate, in linea con l'argomento e sicure"

I cosiddetti "guardrail" servono a eliminare le informazioni inappropriate o imprecise generate dal chatbot, a impedire che arrivino all'utente e a informare il bot che l'output specifico non era corretto in modo che possa migliorare in futuro. Sarà come un ulteriore livello di accuratezza e sicurezza che non richiede la correzione da parte dell'utente.

Il software è open-source può essere utilizzato dagli sviluppatori AI per impostare tre tipi di limiti: linee guida di attualità, sicurezza e protezione.

Cosa sono i "guardrail"?

I guardrail, o vincoli, impediranno al bot AI di addentrarsi in argomenti che non sono correlati o necessari a soddisfare la richiesta dell'utente. Nel comunicato di Nvidia, viene fornito l'esempio di un bot del servizio clienti che non riesce a rispondere a domande mirate sul meteo. Se ad esempio fate una domanda sulla storia delle bevande energetiche, con i guardrail sarà difficile che ChatGPT inizi a parlarvi del mercato azionario. In sostanza, il chatbot dovrebbe essere in grado di rimanere sul tema, piuttosto che perdersi in inutili divagazioni.

Questo sarebbe utile in molti modelli AI di grandi dimensioni come Bing Chat di Microsoft, noto per le sue frequenti divagazioni.

Il sistema di sicurezza Nvidia serve anche a combattere la disinformazione e i momenti di momentanea pazzia che si verificano in alcuni casi, garantendo che l'AI risponda con informazioni accurate e appropriate. 

Ciò significa che i cosiddetti guardrail vieteranno il linguaggio inappropriato, rafforzeranno le citazioni di fonti credibili e impediranno l'uso di fonti fittizie o illegittime. Questo aspetto è particolarmente utile per ChatGPT, dato che abbiamo già analizzato molti casi di bot che inventano contenuti quando non sanno cosa rispondere.

Inoltre, il sistema di sicurezza Nvidia impedirà al bot di collegarsi ad applicazioni esterne "ritenute a rischio", ovvero tutte le applicazioni o i software con cui non ha ricevuto l'autorizzazione esplicita di interagire, come le applicazioni bancarie o i vostri file personali. 

Polizia Morale

Nvidia afferma che praticamente tutti gli sviluppatori di software potranno utilizzare NeMo Guardrails, in quanto accessibile e compatibile con un'ampia gamma di applicazioni abilitate all'LLM, per cui siamo certi che in futuro lo troveremo su gran parte dei chatbot.

Questo non è solo un "aggiornamento" importante sul fronte dell'intelligenza artificiale, ma è anche una dimostrazione di forza di Nvidia. Un software dedicato al monitoraggio e alla correzione di modelli come ChatGPT, dettati da severe linee guida degli sviluppatori, è il modo migliore per garantire l'affidabilità dei chatbot rendendoli molto più sicuri da utilizzare e promuovendone l'uso anche in ambito professionale.

Detto questo, non essendoci linee guida prestabilite, saremo sempre soggetti alla moralità e alle priorità degli sviluppatori, piuttosto che al giudizio di un "giudice imparziale". Nvidia, allo stato attuale, sembra voler porre l'accento sulla sicurezza e la protezione degli utenti, ma non c'è alcuna garanzia che queste priorità non cambino o che gli sviluppatori che utilizzano il software possano avere idee o preoccupazioni morali diverse.

Marco Silvestri
Senior Editor

Marco Silvestri è un Senior Editor di Techradar Italia dal 2020. Appassionato di fotografia e gaming, ha assemblato il suo primo PC all'età di 12 anni e, da allora, ha sempre seguito con passione l'evoluzione del settore tecnologico. Quando non è impegnato a scrivere guide all'acquisto e notizie per Techradar passa il suo tempo sulla tavola da skate, dietro la lente della sua fotocamera o a scarpinare tra le vette del Gran Sasso.

Con il supporto di