Skip to main content

IBM annuncia lo stop a ricerca, sviluppo e fornitura della tecnologia di riconoscimento facciale

Facial recognition
(Image credit: Shutterstock)

Il CEO di IBM Arvind Krishna, per mezzo di una lettera inviata ai membri del Congresso degli Stati Uniti (l'organo legislativo del governo federale degli USA), ha dichiarato che l’azienda ha cessato ufficialmente di effettuare ricerca, sviluppo e fornitura della propria tecnologia di riconoscimento facciale.

Mentre gli Stati Uniti si trovano a dover fare i conti con una vera e propria guerra civile innescata dall’omicidio di George Floyd, che ha portato a una maggiore riflessione da parte di tutto il mondo nei confronti di un tema delicato come quello del razzismo, Krishna si è dichiarato favorevole al Justice in Policing Act (la riforma statunitense che coinvolge i diritti civili e quelli degli organi di polizia) e ha invitato il popolo a una maggiore responsabilità. 

"IBM si oppone fermamente e non perdonerà l'uso di tecnologie offerte da altri fornitori, tra cui quella di riconoscimento facciale, che portino alla sorveglianza di massa, la profilazione razziale, le violazioni dei diritti umani e delle libertà fondamentali o con qualsiasi scopo che non sia coerente con i nostri valori e Principi di Fiducia e Trasparenza", ha affermato Krishna nella lettera. "Riteniamo che sia giunto il momento di avviare un dialogo nazionale su se e come la tecnologia di riconoscimento facciale debba essere impiegata dalle forze dell'ordine nazionali". 

Riconoscimento facciale, una scienza non esatta 

I notevoli passi in avanti fatti dall’intelligenza artificiale nell’ultimo decennio hanno portato a miglioramenti anche nel software di riconoscimento facciale. Tuttavia, capita spesso che i fornitori di questa tecnologia siano aziende private soggette a una scarsa regolamentazione e supervisione. Ciò conduce a una certa inaffidabilità degli strumenti di riconoscimento facciale che, in caso di errore, portano a violazioni di sicurezza o a errate applicazioni di legge. Nel peggiore dei casi, si rischia di scaturire in pregiudizi etnici, con la tecnologia che si trasforma in un pericolo potenziale per i diritti civili.

Come riportato dal sito The Verge, nel 2018, un pool di ricercatori del Massachusetts Institute of Technology di Cambridge ha condotto un progetto denominato Gender Shades, che ha dimostrato come il software di riconoscimento facciale di molti sistemi commerciali sia soggetto a distorsioni. 

Nel dicembre 2019, invece, uno studio condotto dal National Institute of Standards and Technology (un'agenzia del governo degli Stati Uniti d'America che si occupa della gestione delle tecnologie) ha individuato "prove empiriche dell'esistenza di discriminanti demografiche nella maggior parte degli algoritmi di riconoscimento facciale che abbiamo studiato”.

Patrick Grother, uno degli informatici a capo della ricerca del NIST, ha poi aggiunto: “Questi dati saranno utili ai responsabili della politica, agli sviluppatori e agli utenti per riflettere sui limiti e sull'uso appropriato di questi algoritmi."

La tecnologia di riconoscimento facciale presenta anche altri limiti di accuratezza che potrebbero condurre a potenziali violazioni della privacy. Uno dei maggiori esempi è rappresentato da Rekognition, la tecnologia sviluppata da Amazon che, nel corso di alcuni esperimenti condotti dall’American Civil Liberties Union (un'organizzazione non governativa per la difesa dei diritti civili e le libertà individuali negli USA) nel 2018, ha fatto registrare scambi di persona abbastanza grossolani.

Come riportato in un articolo del quotidiano La Repubblica, l’affidabilità di Rekognition è stata testata attraverso un confronto tra un database di 25000 foto segnaletiche di criminali e i volti dei 535 parlamentari del Congresso degli Stati Uniti. In ventotto occasioni il software ha associato erroneamente il volto di un politico a quello di un malvivente. 

In base al risultato di questo esperimento, “non è difficile immaginare un futuro in cui le persone verranno interrogate o perquisite solo perché un software ha trovato una corrispondenza tra il loro viso e quelli di un archivio di criminali. Un futuro in cui “un’identificazione, che sia accurata o meno, potrebbe costare la libertà o persino la vita” a un cittadino innocente.

I casi Facebook e… IBM 

Neanche Facebook è riuscita a scampare alla gogna dell’errato utilizzo del riconoscimento facciale: nel gennaio 2020, nell’ambito di una causa legale con diverse associazioni dell’Illinois, l’azienda di Zuckerberg è stata punita con il pagamento della somma di 550 milioni di dollari per aver violato una legge statale che consente alle aziende tecnologiche di raccogliere dati biometrici, come le impronte digitali o i tratti del volto, previa concessione scritta obbligatoria.

La stessa IBM è stata nell’occhio del ciclone nel 2019 per aver utilizzato un database di oltre 99 milioni di foto degli utenti del sito web Flickr, senza però richiedere alcun permesso. L’azienda ha difeso la legittimità della propria azione affermando che le foto sono condivise con licenza Creative Commons (che rende lecito l’utilizzo purché non a scopo di lucro). 

Se siete curiosi di scoprire se le vostre foto figurano nel database Flickr in possesso di IBM, potete utilizzare lo strumento online messo a disposizione dall’emittente statunitense NBC. Nel caso in cui non vogliate che queste vengano utilizzate da IBM, non dovete far altro che contattare l'azienda statunitense e indicare i link dei contenuti da eliminare. 

Fate attenzione, però: le foto scompariranno dal database IBM, ma saranno ancora a disposizione delle società di ricerca che hanno utilizzato finora la tecnologia di riconoscimento facciale del colosso statunitense. 

Fonte: The Verge