Créer du code à l'aide d'une IA, une fausse bonne idée

Trois personnes travaillant sur un problème devant un écran de PC.
(Crédit photo: Shutterstock)

Une nouvelle étude menée par un groupe de chercheurs affiliés à Stanford a révélé que les outils d'IA générant du code, tels que Github Copilot, peuvent présenter plus de risques pour la sécurité que ne le pensent de nombreux utilisateurs.

L'étude a porté spécifiquement sur Codex, un produit d'OpenAI, dont Elon Musk est l'un des cofondateurs.

Codex alimente la plateforme GitHub Copilot, propriété de Microsoft, qui est conçue pour faciliter le codage et le rendre plus accessible en traduisant le langage naturel en code et en suggérant des modifications en fonction du contexte.

Les problèmes de codage de l'IA

Le principal co-auteur de l'étude, Neil Perry, explique que "les systèmes de génération de code ne remplacent pas actuellement les développeurs humains".

L'étude a demandé à 47 développeurs aux compétences diverses d'utiliser Codex pour résoudre des problèmes de sécurité, en utilisant les langages de programmation Python, JavaScript et C. Elle a conclu que les participants qui ont utilisé Codex étaient plus susceptibles d'écrire du code non sécurisé que les autres.

Perry explique : "Les développeurs qui utilisent [les outils de codage] pour accomplir des tâches en dehors de leurs propres domaines d'expertise devraient s'inquiéter, et ceux qui les utilisent pour accélérer des tâches pour lesquelles ils sont déjà compétents devraient soigneusement revérifier leurs résultats et le contexte dans lequel ils sont utilisés dans le projet global."

Ce n'est pas la première fois que des outils de codage alimentés par l'IA font l'objet d'un examen minutieux. En fait, GitHub, l'entreprise de Microsoft, a fait l'objet de poursuites judiciaires pour avoir utilisé des licences open-source dans l'une de ses solutions pour améliorer la qualité du code dans Copilot, sans créditer le travail de leurs auteurs. Le résultat a été un procès avec à la clé 9 milliards de dollars de dommages et intérêts demandés pour 3,6 millions de violations individuelles de la section 1202.

Pour l'instant, les outils de génération de code alimentés par l'IA doivent être considérés comme une aide permettant d'accélérer la programmation plutôt que comme un remplacement total. Toutefois, si l'on en croit le développement de ces dernières années, ils pourraient bientôt remplacer le codage traditionnel.

Via TechCrunch

Craig Hale

With several years’ experience freelancing in tech and automotive circles, Craig’s specific interests lie in technology that is designed to better our lives, including AI and ML, productivity aids, and smart fitness. He is also passionate about cars and the decarbonisation of personal transportation. As an avid bargain-hunter, you can be sure that any deal Craig finds is top value!