I terribili avvertimenti di un dirigente di AI sul futuro sono agghiaccianti, ma la sua soluzione è peggiore del problema

Scary AI
(Immagine:: Shutterstock)

L'IA sta creando un futuro pieno di incertezze, con problemi che Chen Deli, ricercatore senior di DeepSeek, ritiene che le aziende tecnologiche siano le più adatte a risolvere. DeepSeek è una delle start-up di IA più in voga in Cina, sebbene stia affrontando alcune difficoltà politiche e tecniche, ma per una start-up che ha scosso i mercati globali con un modello di IA a basso costo che ha stimolato un'ondata di open-sourcing da parte di concorrenti come OpenAI, DeepSeek è stata insolitamente silenziosa. Quindi, quando uno dei suoi leader avverte che l'IA potrebbe eliminare la maggior parte dei posti di lavoro nei prossimi due decenni e causare grandi sconvolgimenti per i quali la società non è pronta, la gente presta attenzione.

La "fase di luna di miele" in cui ci troviamo ora finirà e le persone si troveranno di fronte a un'ondata di licenziamenti abbastanza vasta da rimodellare contratti e istituzioni sociali. Ha fatto sembrare la situazione simile a una Peste Nera meno immediatamente letale per il modo in cui riscriverebbe la vita delle persone. Non è certamente l'affermazione più bizzarra. Ma la proposta di Chen di salvatori aziendali sembra insensata come qualsiasi allucinazione dell'IA.

L'IA definisce già il tono per ciò che vediamo online, ciò che acquistiamo e come ci comportiamo, con le aziende tecnologiche che monetizzano ogni parte di noi e dei nostri dati possibile. L'idea che queste stesse aziende, isolate da una supervisione significativa e vincolate solo ai margini di profitto, fungano da custodi altruisti di una società caotica, è ridicola. Semmai, hanno reso abbondantemente chiaro che daranno la priorità alla crescita, alle entrate e a tutto il resto al di sopra degli esseri umani e del più ampio progetto di civiltà, anche quando il danno collaterale è ovvio.

L'intelligenza umana che regola quella artificiale

A onor del vero, i regolatori pubblici non ci hanno esattamente abbagliato con la loro rapidità o la loro competenza. L'AI Act dell'UE è un buon passo, ma non sufficiente da solo, e i quadri normativi statunitensi sono frammentati e per lo più reattivi. L'udienza media del Congresso sull'IA è una cupa parata di buzzword e dirigenti tecnologici che annuiscono educatamente a legislatori che non capiscono di cosa stiano parlando. La Cina, dove ha sede DeepSeek, è stata più aggressiva in alcune aree, ma è difficile sostenere che il controllo autoritario centralizzato sia il modello migliore per la governance tecnologica. Le preoccupazioni sulla sorveglianza e le limitazioni della libertà di parola non diventano più facili da accettare solo perché c'è un essere umano che firma le regole.

L'attuale stato della regolamentazione è disomogeneo, incoerente e spesso troppo lento. Ma questo non significa che la risposta sia quella di cedere le redini agli sviluppatori come se fossero neutrali e benevoli. Non sono i tuoi amici o i tuoi rappresentanti. Non sono certamente adatti a essere custodi fisici e civili dell'umanità. Sono attori commerciali con prodotti da vendere e parametri trimestrali da raggiungere. Quando la situazione si fa difficile, appianeranno qualsiasi scrupolo etico finché non si adatterà perfettamente a una presentazione.

Non si possono mitigare i danni quando l'atto stesso della mitigazione minaccia il proprio modello di business. Se un sistema di assunzione basato sull'IA si rivela discriminatorio, correggerlo costa denaro. Se un generatore di contenuti automatizzato inonda il web di sludge (fango) di bassa qualità, spegnerlo influisce sulle entrate. Non c'è alcun incentivo a fare la cosa giusta a meno che qualcuno non li costringa, e a quel punto, di solito, è troppo tardi.

L'industria tecnologica ha dimostrato ripetutamente di non essere attrezzata per autoregolamentarsi in un modo che dia la priorità al bene pubblico rispetto al guadagno privato. Infatti, la sola idea che gli architetti della disruzione debbano anche essere incaricati di costruire ciò che sostituisce il vecchio ordine dovrebbe terrorizzare chiunque sia mai stato dalla parte sbagliata dell'algoritmo di una piattaforma.

Non è contro il progresso, è a favore dell'umanità

Niente di tutto ciò vuole dire che l'IA non abbia un incredibile potenziale positivo o che richiedere misure di salvaguardia significhi essere anti-tecnologia. Nonostante la confusione sul termine, vale la pena ricordare che nemmeno i Luddisti erano contro la tecnologia; erano contro lo sfruttamento. Le loro proteste non riguardavano i telai, ma i proprietari delle fabbriche che usavano quei telai per sottocostare la manodopera specializzata e imporre condizioni di lavoro miserabili.

Chen Deli fa bene a lanciare l'allarme, ma si sbaglia su chi dovrebbe tenere la campana. Gli whistleblower non tendono a emergere dai consigli di amministrazione. Non abbiamo ancora un quadro coerente di come debba essere una governance responsabile dell'IA. Abbiamo dei pezzi, ma nessun tessuto connettivo per far attecchire quelle idee, e ci manca il coraggio politico per imporle alle persone che detengono più potere.

Eppure, non sono del tutto pessimista. I framework di cui abbiamo bisogno potrebbero esistere. Potrebbero essere costruiti da coalizioni di governi, società civile, ricercatori indipendenti e, sì, anche alcune voci di principio provenienti dal mondo tecnologico. Ma vedranno la luce solo se un numero sufficiente di persone li richiederà.

Se il prossimo decennio porterà davvero il tipo di trasformazione che Deli prevede, avremo bisogno di qualcosa di più delle promesse aziendali. Avremo bisogno di regole con i denti per preservare la sicurezza e la dignità dell'umanità senza cercare di farne un prodotto in vendita.

TOPICS
Eric Hal Schwartz
Contributor

Eric Hal Schwartz is a freelance writer for TechRadar with more than 15 years of experience covering the intersection of the world and technology. For the last five years, he served as head writer for Voicebot.ai and was on the leading edge of reporting on generative AI and large language models. He's since become an expert on the products of generative AI models, such as OpenAI’s ChatGPT, Anthropic’s Claude, Google Gemini, and every other synthetic media tool. His experience runs the gamut of media, including print, digital, broadcast, and live events. Now, he's continuing to tell the stories people want and need to hear about the rapidly evolving AI space and its impact on their lives. Eric is based in New York City.