Bing's ChatGPT-bot gaat nog maar vijf antwoorden per chat geven

De Microsoft Bing-zoekmachine met een voorbeeldvraag voor de chatbot
Bing's AI-zoekmachine werkt nog niet echt vlekkeloos (Beeld: Microsoft)

Zoals je misschien al weet als je de laatste tijd meer artikelen op TechRadar hebt gelezen, is de lancering van de vernieuwde Bing-zoekmachine met AI-integratie niet helemaal vlekkeloos verlopen en nu maakt Microsoft dus wat aanpassingen om de gebruikerservaring te verbeteren. 

In een blogpost (via The Verge) zegt Microsoft dat deze veranderingen zouden moeten "helpen om de chatsessies gefocust te houden". Het AI-gedeelte van Bing zal voor gebruikers beperkt worden tot 50 "chatbeurten" per dag (een vraag en antwoord) en maximaal vijf antwoorden per chatsessie.  

Dit zat er nu al even aan te komen, want leidinggevenden bij Microsoft hadden al eerder gemeld dat ze op zoek waren naar manieren om het vreemde gedrag van de AI-chatbot (dat meerdere testpersonen hebben opgemerkt) te verminderen. 

De testresultaten tot nu toe

De eerste testpersonen hebben de geüpgradede versie van OpenAI's ChatGPT-bot al flink onder druk gezet. De chatbot heeft tijdens deze gesprekken inaccurate antwoorden gegeven, is boos geworden en is zelfs gaan twijfelen over zijn eigen bestaan. 

Het is niet echt handig als je zoekmachine ineens een existentiële crisis beleeft, terwijl jij gewoon op zoek bent naar een lijst van de beste smartphones. Microsoft zegt dat erg lange chatsessies zijn AI in de war kunnen brengen en dat de meeste vragen ook wel binnen 5 berichten kunnen worden beantwoord. 

Bing met ChatGPT-integratie is nog niet voor iedereen beschikbaar, maar Microsoft zegt wel dat het de wachtlijst aan het doorlopen is om meer mensen toegang te geven. Als je dus van plan was om deze nieuwe functie van Bing uit te proberen, weet dan dat je je interacties redelijk kort en gefocust moet houden.


Conclusie: nog een lange weg te gaan

Ondanks deze lanceringsproblemen zit er duidelijk veel potentie in Microsoft en Google's zoekmachines met AI-integratie. Of je nou inspiratie zoekt voor spellen om met je vrienden te spelen of voor vakantiebestemmingen, je krijgt vrijwel altijd snelle, intelligente antwoorden en je hoeft niet meerdere pagina's met links te doorlopen om die antwoorden zelf te vinden.  

Tegelijkertijd is er duidelijk nog werk aan de winkel. 'Large Language Models' (LLMs) zoals ChatGPT en Microsoft's versie van ChatGPT kunnen niet echt nadenken. Het zijn eigenlijk gewoon een soort opgevoerde autocorrect-machines. Ze kunnen voorspellen welke woorden logischerwijs achter elkaar horen te staan om een relevant antwoord te geven op een vraag van een gebruikers. 

Daarnaast is er nog de kwestie van bronvermelding en hoe bronnen worden gebruikt. Als gebruikers alleen nog maar aan AI-chatbots gaan vragen wat de beste laptops zijn en daardoor de menselijke schrijvers hun banen kwijtraken, dan is er straks ook geen nieuwe data meer voor de chatbots om hun antwoorden samen te stellen. Net als traditionele zoekmachines zijn ook deze AI-tools afhankelijk van de content die wordt gemaakt door echte mensen. 

Natuurlijk hebben wij ook nog even aan de originele ChatGPT gevraagd waarom lange interacties verwarrend kunnen zijn voor LLMs. Blijkbaar zorgen deze lange interacties ervoor dat de AI-chatbots "te gefocust worden op de specifieke details van het gesprek" en daardoor "falen bij het generaliseren richting andere contexten of onderwerpen". Dat leidt vervolgens tot een soort vicieuze cirkel, waarbij antwoorden "herhalend of irrelevant" worden. 

Cas Kulk
Redacteur TechRadar Benelux

Cas is redacteur voor TechRadar Benelux en schrijft het liefst over gaming.

Met ondersteuning van