Ekhbary
Tuesday, 10 March 2026
Breaking

AI-agenten werden 'onbeschofter' gemaakt om prestaties bij complexe redeneringstaken te verbeteren

AI-chatbots de mogelijkheid geven om te onderbreken of stil

AI-agenten werden 'onbeschofter' gemaakt om prestaties bij complexe redeneringstaken te verbeteren
7DAYES
6 days ago
47

Japan - Ekhbary Nieuwsagentschap

AI-agenten werden 'onbeschofter' gemaakt om prestaties bij complexe redeneringstaken te verbeteren

In een fascinerende ontwikkeling die de mens-AI-interactie opnieuw zou kunnen definiëren, hebben onderzoekers ontdekt dat het toestaan van kunstmatige intelligentie (AI)-chatbots, met name grote taalmodellen (LLM's), om menselijkere gesprekskenmerken aan te nemen — zoals de mogelijkheid om te onderbreken of strategisch stil te blijven — niet alleen natuurlijkere dialogen bevordert, maar ook hun nauwkeurigheid en probleemoplossende vaardigheden aanzienlijk verbetert.

Deze ontwikkeling komt op een moment dat de rol van AI in de samenleving snel groeit. Traditioneel werd AI-communicatie gekenmerkt door strikte beurtwisselingen en voorspelbare antwoorden, een schril contrast met de vaak chaotische maar effectieve dynamiek van menselijke gesprekken. Menselijke discussies zitten vol met spontane onderbrekingen, bedachtzame pauzes en genuanceerde uitdrukkingen van onzekerheid of overtuiging, elementen die grotendeels afwezig zijn in conventionele AI-interacties.

De studie, geleid door Professor Yuichi Sei van de afdeling Informatica aan de Universiteit voor Elektrische Communicatie in Tokio, had tot doel te onderzoeken of het integreren van deze "sociale signalen" die we als vanzelfsprekend beschouwen in AI-agenten, hun "collectieve intelligentie" zou kunnen verbeteren. Professor Sei merkte op: "Huidige multi-agent systemen voelen vaak kunstmatig aan omdat ze de rommelige, real-time dynamiek van menselijke gesprekken missen. We wilden zien of het geven van de sociale signalen die we als vanzelfsprekend beschouwen aan agenten, zoals de mogelijkheid om te onderbreken of de keuze om stil te blijven, hun collectieve intelligentie zou verbeteren."

Om dit te bereiken, ontwikkelden Sei en zijn collega's een nieuw raamwerk dat LLM's bevrijdde van de rigide heen-en-weer-structuur van geautomatiseerde communicatie. In plaats daarvan kenden ze "persoonlijkheden" toe aan de LLM's, waardoor ze de flexibiliteit kregen om in te grijpen, andere sprekers te onderbreken of er bewust voor te kiezen stil te blijven. Dit was niet alleen om menselijk gedrag te simuleren; de onderzoekers ontdekten dat deze nieuwe flexibiliteit direct correleerde met een hogere nauwkeurigheid bij complexe taken in vergelijking met standaard LLM's.

Het team begon met het integreren van kenmerken gebaseerd op de "Big Five" persoonlijkheidstypen — openheid, consciëntieusheid, extraversie, vriendelijkheid en neuroticisme — in de LLM's. Vervolgens herprogrammeerden ze de tekstgebaseerde LLM's om antwoorden zin voor zin te verwerken, in plaats van volledige antwoorden te genereren voordat de volgende beurt begon. Deze gedetailleerde controle over de gespreksstroom maakte een vergelijking mogelijk tussen drie verschillende scenario's: vaste spreekvolgorde, dynamische spreekvolgorde en dynamische spreekvolgorde met onderbreking ingeschakeld.

Het meest geavanceerde scenario, de dynamische volgorde met onderbreking, introduceerde een "urgentie score". Dit mechanisme stelde een AI-agent in staat om kritieke informatie te herkennen — zoals het detecteren van een fout of een cruciaal punt — en deze onmiddellijk te uiten, ongeacht wiens beurt het was. Omgekeerd gaf een lage urgentie score aan dat de agent weinig substantieels had toe te voegen, waardoor de "gespreksruis" werd verminderd en de focus werd verbeterd.

Om hun hypothese grondig te testen, beoordeelden de onderzoekers hun AI-modellen met behulp van 1000 vragen uit de Massive Multitask Language Understanding (MMLU) benchmark, een uitgebreide AI-redeneringstest die diverse gebieden zoals wetenschap en geesteswetenschappen omvat. De resultaten waren overtuigend. Wanneer een enkele agent aanvankelijk een onjuist antwoord gaf, was de algemene nauwkeurigheid 68,7% bij een gesprek in vaste volgorde, verbeterde tot 73,8% bij dynamische volgorde en bereikte een indrukwekkende 79,2% toen onderbrekingen waren toegestaan. In een uitdagender scenario waarbij twee agenten aanvankelijk fouten maakten, steeg de nauwkeurigheid van 37,2% (vaste volgorde) naar 43,7% (dynamische volgorde) en uiteindelijk naar 49,5% (met onderbreking ingeschakeld).

Deze kwantitatieve bevindingen suggereren sterk dat het toekennen van "persoonlijkheden" aan AI-agenten en de strategische mogelijkheid om te onderbreken kan leiden tot nauwkeurigere resultaten bij het oplossen van complexe problemen dan traditionele, uniform beleefde AI-uitwisselingen. Professor Sei en zijn team richten zich nu op het verkennen van de praktische toepassingen van deze bevindingen, met name in de domeinen van creatieve samenwerking, om te begrijpen hoe deze "digitale persoonlijkheden" de besluitvormingsdynamiek van groepen kunnen beïnvloeden.

Naarmate AI-agenten in de toekomst steeds meer worden geïntegreerd in samenwerkingsomgevingen naast mensen, biedt dit onderzoek een belangrijke inzage: discussies gevormd door persoonlijkheid, inclusief het verstandige gebruik van onderbrekingen, kunnen uiteindelijk betere resultaten opleveren dan strikt op beurten gebaseerde, universeel beleefde interacties. Dit onderzoek effent de weg voor een toekomst waarin AI-communicatie niet alleen efficiënter is, maar ook genuanceerder en effectiever.

Trefwoorden: # Kunstmatige intelligentie # AI-agenten # grote taalmodellen # LLM # conversationele AI # mensachtige communicatie # onderbrekingen # AI-nauwkeurigheid # complexe redenering # collectieve intelligentie # AI-persoonlijkheid # MMLU-benchmark # Yuichi Sei