Grâce à Nvidia, nous pourrions bien dire adieu aux bizarreries de ChatGPT

Une main de robot tendue vers un panneau jaune portant la mention "Caution" en lettres noires.
(Crédit photo: Getty Images)

Nvidia est le géant technologique à l'origine des GPU qui alimentent nos jeux, font tourner nos suites créatives et, depuis peu, jouent un rôle crucial dans l'entraînement des modèles d'IA générative derrière les chatbots tels que ChatGPT. L'entreprise a plongé plus profondément dans le monde de l'IA avec l'annonce d'un nouveau logiciel qui pourrait résoudre un problème majeur des chatbots : celui de dérailler et d'être un peu... étranges.

Récemment annoncés, les ‘NeMo Guardrails sont une boîte à outils open source conçue pour garantir que les applications intelligentes alimentées par de grands modèles de langage (LLM), comme les chatbots d'IA, sont "précises, appropriées, pertinentes et sûres". Essentiellement, ce type d'outil est là pour éliminer les informations inappropriées ou inexactes générées par le chatbot, les empêcher d'atteindre l'utilisateur et informer le chatbot que le résultat spécifique était mauvais. C'est comme une couche supplémentaire de précision et de sécurité, sans qu'il soit nécessaire pout l'utilisateur d'effectuer une correction.

Le logiciel libre peut être utilisé par les développeurs d'IA pour définir trois types de limites pour les modèles d'IA : Les directives relatives aux thèmes, à la sécurité et à la sûreté. Nous allons détailler chacun d'entre eux et expliquer pourquoi ce type de logiciel est à la fois une nécessité et une responsabilité.

Quels sont les garde-fous ?

Les garde-fous thématiques empêcheront l'IA d'aborder des sujets dans des domaines qui ne sont pas liés ou nécessaires à l'utilisation ou à la tâche. Dans la déclaration de Nvidia, on nous donne l'exemple d'un robot de service à la clientèle qui ne répondrait pas à des questions sur le temps qu'il fait. Si vous parlez de l'histoire des boissons énergisantes, vous ne voudriez pas que ChatGPT commence à vous parler de la bourse. En gros, il s'agit de ne pas s'écarter du sujet.

Cela serait utile pour les grands modèles d'IA comme le Bing Chat de Microsoft, qui a la réputation de s'écarter parfois du sujet, et pourrait certainement nous permettre d'éviter davantage d'inexactitudes.

Le garde-fou de sécurité s'attaquera à la désinformation et aux "hallucinations" - oui, les hallucinations - et veillera à ce que l'IA réponde avec des informations exactes et appropriées. Cela signifie qu'il interdira tout langage inapproprié, renforcera les citations de sources crédibles et empêchera l'utilisation de sources fictives ou illégitimes. Cela est particulièrement utile pour ChatGPT, car nous avons vu de nombreux exemples sur Internet où le robot inventait des citations lorsqu'on le lui demandait.

Quant aux garde-fous de sécurité, ils empêchent simplement le robot d'accéder aux applications externes "jugées dangereuses", c'est-à-dire aux applications ou logiciels avec lesquels il n'a pas reçu l'autorisation explicite d'interagir, comme une application bancaire ou vos fichiers personnels. Cela signifie que vous obtiendrez des informations rationalisées, précises et sûres à chaque fois que vous utiliserez le robot.

Police de la moralité

Nvidia affirme que pratiquement tous les développeurs de logiciels peuvent utiliser les Guardrails NeMo, car ils sont simples à utiliser et fonctionnent avec une large gamme d'applications compatibles LLM, de sorte que nous devrions, espérons-le, commencer à les voir s'infiltrer dans davantage de chatbots dans un avenir proche.

Il ne s'agit pas seulement d'une "mise à jour" intégrale sur le front de l'IA, elle est aussi incroyablement impressionnante. Un logiciel dédié à la surveillance et à la correction de modèles tels que ChatGPT, dicté par des directives strictes de la part des développeurs, est le meilleur moyen de garder les choses sous contrôle sans avoir à se soucier de le faire soi-même.

Cela dit, comme il n'existe pas de directives fermes, nous sommes tributaires de la moralité et des priorités des développeurs plutôt que d'être guidés par des préoccupations réelles en matière de bien-être. Nvidia, dans l'état actuel des choses, semble avoir placé la sécurité et la protection des utilisateurs au cœur du logiciel, mais rien ne garantit que ces priorités ne changeront pas, ou que les développeurs qui utilisent le logiciel puissent avoir des lignes directrices ou des préoccupations morales différentes.

Muskaan Saxena
Computing Staff Writer

Muskaan is TechRadar’s UK-based Computing writer. She has always been a passionate writer and has had her creative work published in several literary journals and magazines. Her debut into the writing world was a poem published in The Times of Zambia, on the subject of sunflowers and the insignificance of human existence in comparison. Growing up in Zambia, Muskaan was fascinated with technology, especially computers, and she's joined TechRadar to write about the latest GPUs, laptops and recently anything AI related. If you've got questions, moral concerns or just an interest in anything ChatGPT or general AI, you're in the right place. Muskaan also somehow managed to install a game on her work MacBook's Touch Bar, without the IT department finding out (yet).