Gli sviluppatori non si fidano del codice generato dall'IA, ma molti ammettono di non controllarlo comunque
Il 96% degli sviluppatori ammette di non fidarsi completamente del codice generato dall'IA
Sign up for breaking news, reviews, opinion, top tech deals, and more.
You are now subscribed
Your newsletter sign-up was successful
- Il 96% degli sviluppatori non si fida completamente dell'IA, il 52% non controlla sempre gli errori
- La maggior parte degli utenti di ChatGPT e Perplexity accede all'IA tramite un account personale
- Contrariamente alle tendenze, l'esposizione dei dati e le vulnerabilità rappresentano grandi preoccupazioni
L'ultima indagine di Sonar, lo State of Code Developer Survey, ha rilevato che quasi la totalità degli sviluppatori (96%) dichiara di non fidarsi completamente della correttezza funzionale del codice generato dall'IA, nonostante l'uso diffuso; dato ancora peggiore, molti non controllano adeguatamente il codice prodotto dall'intelligenza artificiale.
Attualmente, si stima che circa il 42% del codice scritto dagli sviluppatori sia generato dall'IA (un aumento significativo rispetto al solo 6% del 2023), ma si prevede che questa quota salirà a circa il 65% entro il 2027.
Eppure, nemmeno la metà di loro (48%) controlla sempre il lavoro dell'IA prima di effettuarne il commit, evidenziando un enorme potenziale per l'introduzione di bug e vulnerabilità.
Gli sviluppatori non controllano il codice generato dall'IA prima di utilizzarlo
Mentre tre su cinque (59%) affermano di dedicare un impegno "moderato" o "sostanziale" al controllo del codice generato dall'IA, due su cinque (38%) concordano sul fatto che la verifica richieda più tempo rispetto all'equivalente codice scritto da un essere umano. Inoltre, poiché il codice generato utilizza un'enorme mole di dati provenienti da internet per formulare i propri output, tre su cinque (61%) concordano sul fatto che spesso sembri corretto, ma non lo sia.
Questo studio trova conferma in una recente ricerca separata pubblicata da CodeRabbit, la quale rivela che l'IA genera 1,7 volte più problemi (e 1,7 volte più problemi gravi) rispetto agli esseri umani.
Le tendenze attuali mostrano che gli strumenti di IA sono maggiormente utilizzati nella prototipazione (88%) e nel software di produzione internet (83%), ambiti che potrebbero non sembrare così critici, ma quasi altrettanti sviluppatori li utilizzano per app rivolte ai clienti (73%). GitHub Copilot (75%) e ChatGPT (74%) sono di gran lunga gli assistenti più comunemente usati.
Andando oltre, Sonar ha scoperto che più di uno sviluppatore su tre (35%) utilizza i propri account personali anziché quelli approvati dall'azienda: una cifra che sale al 52% tra gli utenti di ChatGPT e al 63% per gli estimatori di Perplexity. Ciò rappresenta un ulteriore rischio per le informazioni aziendali potenzialmente riservate o sensibili.
Iscriviti alla newsletter di Techradar Pro per ricevere tutte le ultime notizie, opinioni, editoriali e guide per il successo della tua impresa!
Infatti, nonostante quanto riscontrato da Sonar sull'uso dell'IA tra gli sviluppatori, l'esposizione dei dati (57%), le vulnerabilità lievi (47%) e le vulnerabilità gravi (44%) figurano tra le preoccupazioni principali.
"Generare codice più velocemente è solo metà della battaglia", conclude il rapporto. "Il vero valore deriva dalla capacità di fidarsi e verificare quel codice in modo efficiente."
With several years’ experience freelancing in tech and automotive circles, Craig’s specific interests lie in technology that is designed to better our lives, including AI and ML, productivity aids, and smart fitness. He is also passionate about cars and the decarbonisation of personal transportation. As an avid bargain-hunter, you can be sure that any deal Craig finds is top value!
