ChatGPT : OpenAI fait pression sur l'Union européenne pour éviter une réglementation trop sévère

ChatGPT
(Crédit photo: unsplash)

 

L'intelligence artificielle, avec ChatGPT en tête, rencontre un succès mondial. Si Elon Musk pense que l'IA pourrait devenir la "nounou de l'humanité", d'autres s'en inquiètent. D'éminents chercheurs ont même mis en garde contre un "risque d'extinction". Ainsi, plusieurs gouvernements commencent à prendre des mesures afin de réguler l'IA. L'Italie a d'ailleurs tout simplement bloqué ChatGPT sur son territoire, avant de faire marche arrière. Mais face à l'Union européenne, OpenAI ne compte pas se laisser faire.

Le patron d'OpenAI, Sam Altman, aurait ainsi demandé aux législateurs d'apporter plusieurs modifications à une version préliminaire de la loi européenne sur l'IA. Celle-ci, qui vise à mieux réglementer l'utilisation de l'intelligence artificielle, a été approuvée par le Parlement européen le 14 juin dernier. Il semblerait que les efforts de l'entrepreneur aient payé, certains changements suggérés par l'OpenAI ayant finalement été incorporés dans la législation. 

 OpenAI, Microsoft et Google font pression sur l'UE 

 

Les législateurs ont longuement débattu de l'élargissement des termes de la loi sur l'IA afin de désigner tous les systèmes d'IA à usage général (GPAI), tels que ChatGPT et DALL-E de l'OpenAI, comme étant "à haut risque". Les systèmes d'IA concernés seraient ainsi soumis aux obligations les plus strictes en matière de sécurité et de transparence.

OpenAI se serait ainsi battue à plusieurs reprises pour que ses systèmes d'IA générative ne soient pas classés dans cette catégorie. L'entreprise de Sam Altman aurait été suivie de près par Google et Microsoft, qui ont également fait pression sur l'UE pour réduire l'impact de la loi sur l'IA sur les entreprises construisant des GPAI.

OpenAI aurait ainsi déclaré : "OpenAI déploie principalement des systèmes d'IA à usage général - par exemple, notre modèle de langage GPT-3 peut être utilisé pour une grande variété de cas d'utilisation impliquant le langage, tels que le résumé, la classification, les questions et réponses, et la traduction [...] En soi, GPT-3 n'est pas un système à haut risque, mais possède des capacités qui peuvent potentiellement être employées dans des cas d'utilisation à haut risque."

Source : theverge

Jean-Sébastien Champeau
Senior Editor

Passionné par les technologies de pointe, dont l’aérospatial et l’intelligence artificielle, je ne rate jamais une occasion de partager les dernières nouvelles avec les lecteurs de TechRadar. J’affectionne par ailleurs grandement (un peu trop, peut-être ?) les jeux-vidéos, anciens comme nouveaux.