OpenAI ammette che i nuovi modelli potrebbero rappresentare un rischio "elevato" per la sicurezza informatica
Modelli migliori significano anche rischi maggiori
- OpenAI avverte che i futuri LLM potrebbero facilitare lo sviluppo di zero-day o il cyber-spionaggio avanzato.
- L'azienda sta investendo in strumenti difensivi, controlli di accesso e un programma di sicurezza informatica a livelli.
- Il nuovo Frontier Risk Council guiderà le salvaguardie e la capacità responsabile attraverso i modelli di frontiera.
I futuri Modelli Linguistici di Grandi Dimensioni (LLM) di OpenAI potrebbero rappresentare rischi più elevati per la sicurezza informatica, poiché, in teoria, potrebbero essere in grado di sviluppare exploit remoti zero-day funzionanti contro sistemi ben difesi, o assistere significativamente in campagne di cyber-spionaggio complesse e furtive.
Questo è quanto affermato da OpenAI stessa che, in un recente blog, ha dichiarato che le capacità informatiche nei suoi modelli AI stanno "avanzando rapidamente".
Anche se questo potrebbe sembrare sinistro, OpenAI sta in realtà valutando la situazione da una prospettiva positiva, affermando che i progressi portano anche "benefici significativi per la cyber-difesa".
Il "problema" del browser
Per prepararsi in anticipo ai futuri modelli che potrebbero essere abusati in questo modo, OpenAI ha dichiarato che sta "investendo nel rafforzamento dei modelli per attività di sicurezza informatica difensiva e nella creazione di strumenti che consentano ai difensori di eseguire più facilmente flussi di lavoro come l'auditing del codice e la patching delle vulnerabilità".
Il modo migliore per procedere, secondo il blog, è una combinazione di controlli di accesso, hardening dell'infrastruttura, controlli di uscita e monitoraggio.
Inoltre, OpenAI ha annunciato che introdurrà presto un programma che dovrebbe dare agli utenti e ai clienti che lavorano su attività di cybersecurity l'accesso a capacità migliorate, in modo articolato su diversi livelli.
Infine, il gigante dell'IA sostenuto da Microsoft ha detto di voler istituire un gruppo consultivo chiamato Frontier Risk Council. Questo gruppo dovrebbe essere composto da esperti e professionisti di sicurezza informatica di grande esperienza e, dopo un focus iniziale sulla cybersecurity, dovrebbe espandere il suo raggio d'azione altrove.
Iscriviti alla newsletter di Techradar Pro per ricevere tutte le ultime notizie, opinioni, editoriali e guide per il successo della tua impresa!
"I membri forniranno consulenza sul confine tra capacità utili e responsabili e potenziale uso improprio, e questi apprendimenti informeranno direttamente le nostre valutazioni e salvaguardie. Condivideremo presto maggiori informazioni sul consiglio", si legge nel blog.
OpenAI ha anche affermato che l'uso improprio informatico potrebbe essere fattibile "da qualsiasi modello di frontiera nel settore", motivo per cui è parte del Frontier Model Forum, dove condivide conoscenze e migliori pratiche con i partner del settore.
"In questo contesto, la modellazione delle minacce aiuta a mitigare il rischio identificando come le capacità dell'IA potrebbero essere utilizzate come arma, dove esistono colli di bottiglia critici per diversi attori della minaccia e come i modelli di frontiera potrebbero fornire un significativo uplift."
Via Reuters
Sead is a seasoned freelance journalist based in Sarajevo, Bosnia and Herzegovina. He writes about IT (cloud, IoT, 5G, VPN) and cybersecurity (ransomware, data breaches, laws and regulations). In his career, spanning more than a decade, he’s written for numerous media outlets, including Al Jazeera Balkans. He’s also held several modules on content writing for Represent Communications.