- Chain-of-thought prompting helpt AI-modellen om stap voor stap te redeneren, waardoor ze complexe taken nauwkeuriger oplossen dan alleen het voorspellen van het volgende woord.
- Het is vooral geschikt voor meerstapsproblemen, zoals wiskunde, logische puzzels of procedurele taken, maar overbodig voor eenvoudige feitelijke of enkelvoudige vragen.
- Prompt chaining verschilt van chain-of-thought prompting doordat een taak wordt opgesplitst in meerdere aparte prompts, terwijl chain-of-thought binnen één prompt-antwoord blijft.
Als je een GPT-chatbot zoals ChatGPT hebt gebruikt, heb je waarschijnlijk gemerkt dat de kwaliteit van de output varieert.
Soms levert het precies wat je nodig hebt. Andere keren heb je het idee dat de ‘intelligentie’ van AI wat overdreven is.
Je kunt je ChatGPT-vaardigheden verbeteren door slimmer te prompten. Chain-of-thought prompting stimuleert LLM-agents om een taak stap voor stap te doorlopen voordat ze een antwoord genereren.
Nieuwere AI-modellen en functies bouwen chain-of-thought reasoning nu direct in, zodat hun modellen automatisch redeneren over het probleem zonder extra instructies.
Wat is chain-of-thought prompting?
Chain-of-thought prompting is een prompt engineering-techniek in AI waarbij modellen worden geïnstrueerd om complexe taken op te splitsen en stap voor stap te redeneren voordat ze antwoorden.
Je hoort misschien ook de term ‘chain-of-thought reasoning’. Dit verwijst naar het stapsgewijze proces waarmee het model een taak doorredeneert.
De OpenAI o1-modellen hebben geen chain-of-thought prompting nodig, omdat ze deze redenering al ingebouwd hebben. Maar je kunt chain-of-thought prompting gebruiken bij elke LLM-gestuurde chatbot.
Hoe werkt chain-of-thought-redenering?
Chain-of-thought redeneren betekent dat een probleem wordt opgedeeld in kleinere, logische stappen die de AI-chatbot vervolgens één voor één oplost.
Eerst identificeert de AI de belangrijkste onderdelen van het probleem. Vervolgens verwerkt het elk onderdeel op volgorde, waarbij het rekening houdt met hoe de ene stap naar de volgende leidt. Elke stap bouwt voort op de vorige, zodat de AI stapsgewijs naar een logische conclusie werkt.
Voorbeelden van chain-of-thought prompting
De beroemde ‘aardbei’-prompt
ChatGPT en andere LLM’s hebben bekende zwakke punten. Eén daarvan is dat ze niet goed kunnen tellen hoeveel ‘R’s er in het woord ‘strawberry’ zitten. (Waarschijnlijk de reden achter de codenaam Strawberry voor de o1-modellen.)
ChatGPT-4o gebruikt geen chain-of-thought redenering. In plaats daarvan verwijst het naar zijn trainingsdata en genereert het een antwoord op basis van de waarschijnlijkheid dat elk woord op het vorige volgt. Het klinkt meestal correct, maar het probeert alleen menselijke taal na te bootsen – het redeneert of onderzoekt niet echt.
Wanneer je ChatGPT-4o de bekende aardbeienvraag stelt, kan het geen correct antwoord geven:

Je kunt echter een chain-of-thought prompting techniek gebruiken om de door LLM aangedreven chatbot tot het juiste antwoord te laten komen:

De nieuwste versie van ChatGPT, aangedreven door OpenAI o1-preview, is het eerste grote LLM dat chain-of-thought-redenering gebruikt zonder extra prompts.
Het vindt het antwoord direct, omdat het automatisch dezelfde stappen volgt als in de tweede ChatGPT-4o-prompt hierboven. Het enige verschil is dat dit proces nu zonder extra prompts gebeurt.

Wiskunde
Als je een oudere versie van ChatGPT een rekensom uit een basisschoolboek vroeg, had hij het niet altijd goed.
Wiskundige problemen in meerdere stappen vereisen redeneren, wat eerdere LLM’s niet konden. Je kon elke stap van het probleem opsplitsen, maar als je de juiste stappen niet kende, kon een LLM niet helpen.
ChatGPT-4o kan het antwoord op de vraag beredeneren door de stappen in het probleem op te splitsen:

AI Agents gekoppeld aan Hubspot
Voor een praktijkvoorbeeld: stel je een LLM-gestuurde AI-agent voor die is geïntegreerd met Hubspot. Een salesteam gebruikt deze AI-agent om nieuwe leads te verwerken die via verschillende kanalen binnenkomen.
Scenario
Een verkoper stuurt een nieuwe lead naar de AI-agent en vraagt deze om de lead in Hubspot te registreren en een eerste contactmail te sturen, maar niet invullen als de lead werkt bij een bedrijf dat al prospect is.

LLM zonder chain-of-thought redenering
De LLM-gestuurde AI-agent registreert de lead en stuurt de e-mail zonder te controleren of het bedrijf al een prospect is, waardoor de belangrijkste voorwaarde wordt gemist.
LLM met chain-of-thought redenering
De door LLM aangedreven AI-agent controleert of het bedrijf al een prospect is voordat hij actie onderneemt. Is het een prospect, dan slaat hij registratie en e-mailen over; zo niet, dan registreert hij de lead en stuurt de e-mail, precies volgens de instructies van de verkoper.
Wanneer gebruik je chain of thought prompting?
Chain-of-thought prompting werkt het beste bij scenario’s die stapsgewijze redenering vereisen.
Goede kandidaten zijn taken die logische afleidingen, rekenproblemen, procedurele taken of situaties met meerdere stappen vereisen.
Maar wacht: redeneren klinkt geweldig – waarom zou ik het dan niet altijd gebruiken?
Goede vraag. Niet alle vragen vereisen redenering. Bijvoorbeeld:
- Eenvoudige feitelijke vragen, zoals ‘Wat is de hoofdstad van Canada?’
- Eenvoudige vraagstukken, zoals ‘Wat is 145 + 37?’
- Contentgeneratie, zoals ‘Schrijf een beleefde e-mail van drie zinnen om mijn collega te vragen of het project al af is.’
Prompting veranderen versus chain-of-thought prompting
Hoewel de namen op elkaar lijken, zijn prompt chaining en chain-of-thought prompting verschillende strategieën om generatieve AI-resultaten te verbeteren.
Chain-of-thought prompting
Met chain-of-thought prompting begeleidt een gebruiker de AI om de redenering achter het antwoord in één reactie uit te leggen. Zo loopt de AI elk stapje van het probleemoplossingsproces door, maar dan in één prompt en antwoord.
Een voorbeeld van een chain-of-thought prompt in één bericht:
"Een HR-team moet 5 prestatiebeoordelingen van medewerkers uitvoeren. Elke beoordeling duurt 30 minuten en ze hebben 15 minuten voorbereidingstijd nodig. Senior beoordelingen kosten 10 minuten extra per stuk. Hoe lang duurt het om 5 senior- en 25 juniorbeoordelingen af te ronden? Leg je redenering stap voor stap uit."
Prompt chaining
Bij prompt chaining wordt de taak opgesplitst in afzonderlijke stappen met meerdere prompts, waarbij elke prompt voortbouwt op het vorige resultaat. Dit helpt om de AI te structureren en te begeleiden bij een complexe taak die waarschijnlijk redenering vereist.
De eerste prompt kan er zo uitzien:
Prompt 1: Identificeer de belangrijkste uitdagingen waar een bedrijf tegenaan loopt bij de overgang naar werken op afstand.
Uitvoer:
- Communicatieproblemen
- Productiviteit behouden
- Technologische infrastructuur
- Medewerkersbetrokkenheid
De volgende prompts kunnen dieper ingaan op deze onderwerpen. Bijvoorbeeld:
Prompt 2: Leg uit hoe een bedrijf oplossingen kan vinden voor communicatieproblemen bij de overstap naar werken op afstand.
Na de volgende uitvoer kan de volgende schakel in de keten zijn:
Prompt 3: Wat zijn de veelvoorkomende uitdagingen waar bedrijven tegenaan lopen bij het implementeren van deze oplossingen?
Hoewel de twee op elkaar lijken, hanteren ze verschillende benaderingen om de meest diepgaande en relevante content uit generatieve AI-tools te halen.
Chain-of-thought prompting op Botpress
Botpress-gebruikers kennen al een functie die gebruikmaakt van chain-of-thought redenering.
De Autonomous Node werd in juli 2024 geïntroduceerd op Botpress, een platform voor het bouwen van AI-agents. De Autonomous Node kan meerstapsworkflows automatiseren en zelfstandig beslissingen nemen.
Een Autonomous Node kan worden aangemaakt en aangestuurd met één simpele tekstregel, zoals: ‘Jouw doel is om gekwalificeerde leads te genereren. Maak leads aan in Salesforce wanneer een gebruiker koopintentie toont.’
De AI-agent die je bouwt met deze Autonomous Node zal verschillende acties ondernemen om zijn doel te bereiken, onafhankelijk van door mensen ontworpen workflows. Hij kan ook schakelen tussen verschillende LLM’s, afhankelijk van de behoefte aan snelheid of kracht.
Bouw een aangepaste autonome agent
Botpress is het enige AI-agentplatform waarmee je echt autonome agents kunt bouwen.
Het open en flexibele Botpress Studio biedt eindeloze toepassingsmogelijkheden in allerlei sectoren, van HR tot leadgeneratie. Met onze bibliotheek van kant-en-klare integraties en uitgebreide tutorials kunnen gebruikers eenvoudig AI-agents vanaf nul bouwen.
Begin vandaag nog met bouwen. Het is gratis.
Of neem contact op met ons salesteam.
Veelgestelde vragen
1. Is chain-of-thought prompting alleen nuttig voor AI-modellen, of weerspiegelt het ook hoe mensen problemen oplossen?
Chain-of-thought prompting is nuttig voor zowel AI-modellen als mensen, omdat het nabootst hoe mensen complexe problemen aanpakken door stap voor stap te redeneren.
2. Hoe verschilt chain-of-thought redeneren van gewoon ‘stap voor stap denken’?
Hoewel "stap voor stap denken" een algemene aanpak is, is chain-of-thought-redenering gestructureerder en bewuster. Het moedigt een AI-model aan om tussenstappen expliciet te benoemen in plaats van direct tot een conclusie te springen.
3. Waarom gebruiken sommige LLM's standaard geen chain-of-thought redenering?
Sommige LLM’s, vooral oudere of kleinere modellen, gebruiken standaard geen chain-of-thought-redenering omdat ze niet zijn getraind op het produceren van meerstapsantwoorden, maar zich richten op het voorspellen van waarschijnlijke antwoorden op basis van trainingsdata.
4. Is chain-of-thought prompting een vorm van het 'trainen' van het model tijdens het gebruik?
Nee, chain-of-thought prompting is geen vorm van training; het verandert de gewichten of kennis van het model niet. Het stuurt het gedrag van het model tijdens het uitvoeren aan door gestructureerd redeneren via de prompt te stimuleren.
5. Verbetert chain-of-thought prompting altijd de nauwkeurigheid?
Chain-of-thought prompting verbetert niet altijd de nauwkeurigheid. Het helpt vooral bij taken die meerstapsredenering vereisen, maar bij eenvoudige taken kan het juist onnodige complexiteit toevoegen en de prestaties verminderen.





.webp)
