ChatGPT a créé son propre langage pour prolonger la conversation et cela devient un peu effrayant

ChatGPT vient de créer sa propre langue
(Crédit photo: Shutterstock / Family Stock)

Ce n'est pas (encore) Skynet, mais ChatGPT vient d'inventer son propre langage pour prolonger ses conversations actuellement limitées à 8K. Les utilisateurs de ChatGPT ont découvert que GPT-4 est capable de compresser une longue conversation et de créer une sorte de langage de compression que vous pouvez ensuite utiliser comme nouvelle invite. 

Lorsque cette invite est saisie en tant que nouveau message dans le chat, cela recrée la  conversation. Ce qui vous permet non seulement de reprendre là où vous vous étiez arrêté, mais aussi de prolonger la conversation ChatGPT au-delà de la limite de mots imposée.

Comme vous le savez, ChatGPT a une limite de mots - bien que les rapports semblent varier quant au nombre précis imposé. Certains disent que GPT-4 vous autorise environ 25 000 mots, tandis que l'auteur Jeremy Nguyen dit qu'il s'agit d'environ 8 000 000 mots. La plupart des utilisateurs n'atteignent pas cette limite, mais cela signifie que si la conversation en cours dure trop longtemps, ChatGPT peut tout simplement s'interrompre, même au milieu d'une phrase. Vous devrez alors entamer une nouvelle conversation, ce qui peut être extrêmement frustrant si vous n'avez pas terminé et que vous avez besoin de plus d'informations.

Baptisé Shogtongue par gfodor sur Twitter, ce nouveau langage de compression vous permet de contourner la limite du nombre de mots afin de poursuivre votre conversation, ce qui est extrêmement utile, surtout si votre requête s'est transformée en quelque chose de complexe ou si vous avez simplement besoin d'un meilleur ami qui se souviendra de tout ce que vous lui avez dit par le passé.

GPT-4 a encore besoin d'un contexte

Selon M. Nguyen, ChatGPT ne crée pas simplement un message compressé pour vous lorsqu'il est à court de mots. Vous devez lui demander de compresser la conversation en cours avec des instructions très spécifiques. 

Dans son exemple, il a précisé que la compression devait être "sans perte, mais qu'elle devait aboutir au nombre minimum de tokens qui pourraient être introduits tels quels dans un LLM comme le vôtre et produire le même résultat". Il lui a également demandé d'utiliser différentes langues, différents symboles et "d'autres éléments d'amorçage".

Il faut faire de même lorsque l'on saisit ce message compressé dans un nouveau chat pour lui donner un coup de main - bien qu'il semble que certains utilisateurs de GPT-4 ne le fassent pas, l'ajout d'un contexte permet simplement de minimiser les erreurs.

Il convient de noter que ce langage n'est pas encore infaillible. Selon Nguyen, GPT-3.5 est incapable de lire le langage compressé, et "GPT-4 via API se bat". Il fonctionne mieux avec GPT-4, qui est une version raffinée de ses prédécesseurs, via ChatGPT. Donc, si vous pensez que la conversation sera longue et alambiquée et que Proust en serait fier, vous feriez mieux de vous en tenir à ce chatbot.

Michelle Rae Uy
Contributor

Michelle Rae Uy is the former Computing Reviews and Buying Guides Editor at TechRadar. She's a Los Angeles-based tech, travel and lifestyle writer covering a wide range of topics, from computing to the latest in green commutes to the best hiking trails. She's an ambivert who enjoys communing with nature and traveling for months at a time just as much as watching movies and playing sim games at home. That also means that she has a lot more avenues to explore in terms of understanding how tech can improve the different aspects of our lives.