Meta stabilisce i limiti dell'IA con il Frontier AI Framework
Meta pubblica nuove linee guida sui rischi dell'IA, con particolare attenzione a sicurezza informatica e minacce biologiche, stabilendo criteri per bloccare modelli potenzialmente pericolosi.

Meta ha sollevato alcune preoccupazioni sul futuro dell'intelligenza artificiale, nonostante le dichiarazioni di Mark Zuckerberg sulla volontà di rendere l'intelligenza artificiale generale accessibile a tutti.
Il recente Frontier AI Framework, pubblicato dall'azienda, analizza rischi rilevanti legati all'intelligenza artificiale, tra cui possibili impatti sulla sicurezza informatica e il potenziale utilizzo nel settore delle armi chimiche e biologiche.
Rendendo pubbliche queste linee guida, Meta punta a collaborare con altri leader del settore per anticipare e ridurre tali minacce, studiando scenari estremi e definendo soglie di rischio accettabili.
Meta vuole evitare esiti "catastrofici" dell'IA
Sostenendo che la condivisione dell'intelligenza artificiale non sia una scelta, ma una necessità, Meta ha spiegato in un post sul blog come rendere pubblica la ricerca permetta alle organizzazioni di apprendere dalle reciproche analisi e favorisca il progresso tecnologico.
Il sistema adottato prevede esercitazioni periodiche di valutazione delle minacce per integrare l'analisi dei rischi legati all'intelligenza artificiale. Questo approccio verrà applicato anche nel caso in cui un modello venga identificato come capace di superare le attuali capacità avanzate, trasformandosi in un potenziale pericolo.
Queste valutazioni, realizzate con il contributo di specialisti interni ed esterni, possono condurre a tre livelli di criticità. Se la minaccia è considerata critica, lo sviluppo del modello viene interrotto. Se il rischio è elevato, il modello non viene rilasciato nella sua forma attuale. Se la minaccia è moderata, si analizzano ulteriormente le strategie di pubblicazione.
Tra i possibili pericoli figurano l’individuazione e l’uso di vulnerabilità informatiche sconosciute, truffe automatizzate e la creazione di agenti biologici pericolosi.
Sei un professionista? Iscriviti alla nostra Newsletter
Iscriviti alla newsletter di Techradar Pro per ricevere tutte le ultime notizie, opinioni, editoriali e guide per il successo della tua impresa!
Nel documento, Meta sottolinea che, pur concentrandosi sulla prevenzione di scenari estremi, l’obiettivo dello sviluppo di sistemi avanzati di intelligenza artificiale resta quello di offrire enormi vantaggi alla società.
L’azienda ha dichiarato che aggiornerà il suo quadro di riferimento con il contributo di accademici, decisori politici, associazioni civili, governi e la più ampia comunità dell'intelligenza artificiale, adattandolo ai progressi della tecnologia.
Nato nel 1995 e cresciuto da due genitori nerd, non poteva che essere orientato fin dalla tenera età verso un mondo fatto di videogiochi e nuove tecnologie. Fin da piccolo ha sempre esplorato computer e gadget di ogni tipo, facendo crescere insieme a lui le sue passioni. Dopo aver completato gli studi, ha lavorato con diverse realtà editoriali, cercando sempre di trasmettere qualcosa in più oltre alla semplice informazione. Amante del cioccolato fondente, continua a esplorare nuove frontiere digitali, mantenendo sempre viva la sua curiosità e la sua dedizione al settore.