AI e rischi annessi, Microsoft limita l'accesso alle API di Azure
I dubbi sulla sicurezza dei sistemi AI avanzati si moltiplicano
Cosa è successo? Microsoft ha deciso di limitare l'accesso ad alcuni strumenti AI per tutelare i consumatori a rischio.
Perché è importante? I rischi annessi ai sistemi AI stanno aumentando ed è necessario agire al più presto per regolamentarli.
Microsoft ha deciso di limitare l'accesso agli strumenti AI (Intelligenza Artificiale) progettati per prevedere le emozioni, il sesso e l'età dei soggetti analizzando le immagini, e a breve limiterà l'uso dei suoi modelli di riconoscimento facciale e di generazione audio presenti su Azure.
Lo scorso martedì, l'azienda ha condiviso un documento PDF sul cosiddetto "Responsible AI Standard" che contiene delle linee guida per un uso responsabile dell'intelligenza artificiale, e assicura di voler ridurre al minimo i rischi connessi all'uso delle sue tecnologie AI.
Tale mossa si è rivelata necessaria in quanto, al momento, non esiste una legislazione adeguata a regolamentare l'uso della tecnologia di apprendimento automatico. Pertanto, in assenza di leggi specifiche, Microsoft ha deciso di agire per conto suo a tutela del consumatore.
A tale scopo, Microsoft sta limitando l'accesso agli strumenti AI capaci di classificare il sesso, l'età e le emozioni delle persone e di analizzare il loro sorriso, i peli del viso, i capelli e il trucco tramite la Face API di Azure. I nuovi clienti Microsoft non potranno utilizzare l'API presente nel cloud Microsoft, mentre gli utenti già iscritti avranno tempo fino al 30 giugno 2023 per migrare su altri servizi prima che il software venga ufficialmente ritirato.
Tali funzionalità, una volta rimosse da Azure, continueranno comunque ad essere utilizzate da Microsoft per altre API come Seeing AI, un'app capace di identificare e descrivere persone e oggetti pensata per le persone ipovedenti.
Da anni è in corso un dibattito sull'accuratezza e sul valore dei modelli di apprendimento automatico utilizzati per prevedere i sentimenti e le reazioni delle persone, più volte oggetto di preoccupazioni relative alla privacy. Si teme infatti che i software AI possano rendere la vita difficile ad alcuni soggetti a causa di classificazioni errate, motivo per cui Microsoft sostiene sia necessaria una regolamentazione che limiti l'uso della tecnologia ai soli "addetti ai lavori".
Tra gli altri strumenti Microsoft considerati rischiosi compaiono il riconoscimento facciale (che può risultare utile nell'ambito della videosorveglianza, ma presenta notevoli rischi per la privacy se usato in maniera errata) e la generazione di voci realistiche tramite sistemi AI (vietata dalla legge in mancanza del consenso del soggetto).
Ricevi approfondimenti quotidiani, ispirazione e offerte nella tua casella di posta
Iscriviti per ricevere ultime notizie, recensioni, opinioni, offerte tecnologiche e altro ancora.
I nuovi clienti dovranno fare richiesta per utilizzare tali strumenti, dopodiché sarà Microsoft a valutare la regolarità delle applicazioni. A partire dal 30 giugno 2023, anche i clienti esistenti dovranno ottenere un permesso per continuare a utilizzare questi strumenti per i loro prodotti
Nell'ambito di un intervista rilasciata al New York Times, Natasha Crampton, Responsabile Capo dell'intelligenza artificiale di Microsoft, ha concluso la sua riflessione affermando che:
"Questo è un periodo critico per la definizione delle norme in materia di IA" ... "Speriamo di poter utilizzare il nostro standard per contribuire alla necessaria discussione sugli standard che le aziende tecnologiche devono rispettare".
Fonte: The Register
Marco Silvestri è un Senior Editor di Techradar Italia dal 2020. Appassionato di fotografia e gaming, ha assemblato il suo primo PC all'età di 12 anni e, da allora, ha sempre seguito con passione l'evoluzione del settore tecnologico. Quando non è impegnato a scrivere guide all'acquisto e notizie per Techradar passa il suo tempo sulla tavola da skate, dietro la lente della sua fotocamera o a scarpinare tra le vette del Gran Sasso.