Skip to main content

AI e rischi annessi, Microsoft limita l'accesso alle API di Azure

Azure Nasa quantum
(Image credit: Microsoft )

Cosa è successo? Microsoft ha deciso di limitare l'accesso ad alcuni strumenti AI per tutelare i consumatori a rischio.

Perché è importante? I rischi annessi ai sistemi AI stanno aumentando ed è necessario agire al più presto per regolamentarli.

Microsoft ha deciso di limitare l'accesso agli strumenti AI (Intelligenza Artificiale) progettati per prevedere le emozioni, il sesso e l'età dei soggetti analizzando le immagini, e a breve limiterà l'uso dei suoi modelli di riconoscimento facciale e di generazione audio presenti su Azure.

Lo scorso martedì, l'azienda ha condiviso un documento PDF (opens in new tab) sul cosiddetto "Responsible AI Standard" che contiene delle linee guida per un uso responsabile dell'intelligenza artificiale, e assicura di voler ridurre al minimo i rischi connessi all'uso delle sue tecnologie AI.

Tale mossa si è rivelata necessaria in quanto, al momento, non esiste una legislazione adeguata a regolamentare l'uso della tecnologia di apprendimento automatico. Pertanto, in assenza di leggi specifiche, Microsoft ha deciso di agire per conto suo a tutela del consumatore.

"L'esigenza di linee guida pratiche sta crescendo," ... "L'AI sta diventando parte integrante della nostra vita, eppure non ci sono ancora leggi adeguate. Non sono al passo con i rischi specifici dei sistemi AI o con le esigenze della società. Se da un lato vediamo segnali di espansione dell'azione governativa sui sistemi AI, dall'altro vogliamo riconoscere le nostre responsabilità. Riteniamo pertanto che sia necessario lavorare per garantire che i sistemi di AI vengano progettati responsabilmente."

Natasha Crampton

A tale scopo, Microsoft sta limitando l'accesso agli strumenti AI capaci di classificare il sesso, l'età e le emozioni delle persone e di analizzare il loro sorriso, i peli del viso, i capelli e il trucco tramite la Face API di Azure. I nuovi clienti Microsoft non potranno utilizzare l'API presente nel cloud Microsoft, mentre gli utenti già iscritti avranno tempo fino al 30 giugno 2023 per migrare su altri servizi prima che il software venga ufficialmente ritirato.

Tali funzionalità, una volta rimosse da Azure, continueranno comunque ad essere utilizzate da Microsoft per altre API come Seeing AI, un'app capace di identificare e descrivere persone e oggetti pensata per le persone ipovedenti.

Da anni è in corso un dibattito sull'accuratezza e sul valore dei modelli di apprendimento automatico utilizzati per prevedere i sentimenti e le reazioni delle persone, più volte oggetto di preoccupazioni relative alla privacy. Si teme infatti che i software AI possano rendere la vita difficile ad alcuni soggetti a causa di classificazioni errate, motivo per cui Microsoft sostiene sia necessaria una regolamentazione che limiti l'uso della tecnologia ai soli "addetti ai lavori". 

Tra gli altri strumenti Microsoft considerati rischiosi compaiono il riconoscimento facciale (che può risultare utile nell'ambito della videosorveglianza, ma presenta notevoli rischi per la privacy se usato in maniera errata) e la generazione di voci realistiche tramite sistemi AI (vietata dalla legge in mancanza del consenso del soggetto). 

I nuovi clienti dovranno fare richiesta per utilizzare tali strumenti, dopodiché sarà Microsoft a valutare la regolarità delle applicazioni. A partire dal 30 giugno 2023, anche i clienti esistenti dovranno ottenere un permesso per continuare a utilizzare questi strumenti per i loro prodotti 

Nell'ambito di un intervista rilasciata al New York Times, Natasha Crampton, Responsabile Capo dell'intelligenza artificiale di Microsoft, ha concluso la sua riflessione affermando che:

 "Questo è un periodo critico per la definizione delle norme in materia di IA" ... "Speriamo di poter utilizzare il nostro standard per contribuire alla necessaria discussione sugli standard che le aziende tecnologiche devono rispettare".


Fonte: The Register (opens in new tab)