- Human-in-the-loop (HITL) combineert menselijk toezicht met AI-systemen om de nauwkeurigheid te verbeteren.
- Mensen grijpen in door gegevens te annoteren, AI-uitvoer te beoordelen, escalaties af te handelen en modelverbeteringen te begeleiden.
- HITL verhoogt de betrouwbaarheid, vermindert vooroordelen, maakt continu leren mogelijk en maakt AI-systemen transparanter.
- Use cases zijn onder andere zelfrijdende auto's, bots in de detailhandel, risicocontroles in de financiële sector en beslissingen in de gezondheidszorg.
Als je erover denkt om je bedrijf te verbeteren met AI, ben je niet de enige. Nu AI-chatbots het snelst groeiende communicatiekanaal zijn, zijn ze niet langer een luxe - ze worden verwacht.
Maar het opgeven van die controle kan eng aanvoelen. Cruciale handelingen overdragen aan een zogenaamd 'black box algoritme' kan aanvoelen als een grote sprong in het diepe.
En dat is ook zo, daarom vertrouwen bedrijven op menselijke tussenkomst om AI te sturen. Bijna alle AI-agentframeworks bevatten human-in-the-loop - menselijk toezicht op AI-activiteiten.

In dit artikel leg ik uit wat het is, hoe het werkt en geef ik enkele voorbeelden van hoe menselijke tussenkomst dagelijks wordt gebruikt om gebruikers meer controle te geven over AI chatbots en agents.
Wat is human-in-the-loop?
Human-in-the-loop (HITL) is een gezamenlijke benadering van AI waarbij menselijke input wordt gebruikt om de mogelijkheden van AI te verbeteren of uit te breiden. Dit kan in de vorm van door mensen geannoteerde gegevens, gecorrigeerde modeluitvoer of het door mensen laten uitvoeren van complete taken in gevallen waarin de AI onzeker is of ineffectief wordt geacht.
De term kan een beetje dubbelzinnig zijn. Technisch gezien verwijst het naar elke menselijke betrokkenheid in de levenscyclus van AI-toepassingen, van het labelen van gegevens en het evalueren van modellen tot actief leren en escalaties.
Wanneer AI-aanbieders HITL-functionaliteit aanbieden, betekent dit in de praktijk meestal dat er toezicht is op de AI-uitvoer: de mogelijkheid om reacties te bekijken en chatbotinteracties te escaleren naar menselijke agenten.
Hoe zijn mensen "in the loop" bij AI?
Een goed geoliede AI-pijplijn heeft verschillende ingangen voor mensen.
AI wordt getraind om patronen te ontdekken in zijn trainingsgegevens en deze patronen vervolgens te generaliseren naar nieuwe, ongeziene gegevens. Wij bepalen welke gegevens het model ziet, maar niet welke patronen het uit de gegevens haalt.
Bij elke stap in het proces - gegevensverzameling, training en implementatie - is het aan de mensen om ervoor te zorgen dat het model werkt zoals verwacht.
Afhankelijk van waar en hoe dit menselijk ingrijpen plaatsvindt, kan het onder een van de volgende categorieën vallen:
Feedback geven voor continu leren
Weet je wanneer ChatGPT je vraagt welke van twee antwoorden beter is? Feedback kan worden behandeld als nieuwe gegevens waarop het model kan trainen.

Feedback hoeft echter niet expliciet te zijn.
Denk aan aanbevelingen voor sociale media. Een voorspellend model stelt voortdurend inhoud voor op basis van je geschiedenis. Terwijl je het platform gebruikt, wordt je keuze van inhoud gebruikt als gegevens om het aanbevelingsmodel voortdurend te trainen.
In dit geval ben jij de mens. En door de app te gebruiken, dien je als gids voor toekomstige aanbevelingen.
Hier is de cirkel rond: het model wordt getraind op gegevens, gebruikers interageren met het model en deze interacties creëren op hun beurt gegevens waarop het model opnieuw wordt getraind.
Omgaan met geëscaleerde situaties
HITL gaat niet noodzakelijk over het verbeteren van het systeem. Soms gaat het erom moeilijke gevallen aan mensen over te laten.
Denk eens aan een chatbot voor klantenondersteuning. Hij neemt een groot deel van het werk van je team over door 95% van de vragen duidelijk, beknopt en nauwkeurig te beantwoorden.
Maar dan is er nog die 5%.
Sommige gevallen zijn zo hyperspecifiek of obscuur dat ze buiten het blikveld van de AI vallen. Hoewel menselijke tussenkomst het model in dit geval niet verbetert, is dit een geweldig voorbeeld van de manier waarop mensen en machine learning symbiotisch kunnen samenwerken.
Gegevens annoteren voor training
Technisch gesproken is vrijwel alle machinaal leren gebouwd met een HITL-mechanisme. Als we het over HITL hebben, hebben we het daarom vooral over de bovenstaande categorieën.
Dat gezegd hebbende, zou ik nalatig zijn als ik niet de aandacht zou vestigen op de menselijke arbeid en expertise in de lus van machinaal leren.
Gegevens vormen de ruggengraat van AI en zijn afhankelijk van mensen. AI-modellen worden getraind om labels te voorspellen op basis van invoergegevens. Labels zijn de verwachte output van de AI en het is aan ons mensen om ze te maken.
Enkele voorbeelden van menselijke labeling zijn:
- Reacties op prompts met de hand schrijven om grote taalmodellenLLMs) te trainen
- Transcriberen van audiobestanden voor spraakherkenningsmodellen.
- Objecten in afbeeldingen annoteren voor objectdetectiemodellen
- Voorbeeldmails markeren als spam of niet-spam voor de spamdetector van een e-mailclient
Modelprestaties evalueren
Het leeuwendeel van de tijd die wordt besteed aan het bouwen van AI-modellen is het uitzoeken hoe je ze beter kunt maken. Hoewel er eindeloos veel statistieken zijn die je kunt berekenen, zoals precisie en recall, is er deskundig inzicht nodig om erachter te komen hoe het model werkt en, nog belangrijker, wat je eraan kunt doen.
Een onderzoeker kan bijvoorbeeld merken dat het model goed is in het identificeren van afbeeldingen van honden, maar niet van hotdogs. Dat kan meestal worden opgelost door meer of andere afbeeldingen van hotdogs toe te voegen.
Soms heeft een chatmodel moeite met het onthouden van informatie uit eerdere berichten. Een onderzoeker zal dit meestal aanpakken door aanpassingen op laag niveau te maken aan de architectuur of generatiemethode van het model.
De voordelen van AI door mensen
AI mag dan ongelooflijk efficiënt en effectief zijn in het herkennen van subtiele patronen, maar mensen zijn slim.
HITL gaat over het combineren van menselijke nuance met de efficiëntie van AI-workflowautomatisering, zodat antwoorden worden afgestemd op de ervaring die gebruikers en leveranciers zoeken.
1. Nauwkeurigheid en betrouwbaarheid
Dit is een no brainer. Wat is er beter dan gewone AI? AI die is gecorrigeerd.
Het is niet alleen geoptimaliseerd om randgevallen aan te pakken, maar het is ook betrouwbaar in de zin dat gebruikers weten dat de uitvoer continu wordt beoordeeld en verbeterd.

2. Beperking van vertekeningen
Gegevens zijn onvolmaakt en modelresultaten zullen dat weerspiegelen. Vooringenomenheid - de voorkeur geven aan bepaalde resultaten boven andere - is een probleem bij machinaal leren en AI.
Dingen zoals het genereren van racistisch beladen afbeeldingen of het bepalen van beroepskwalificaties op basis van geslacht zijn voorbeelden van de manier waarop AI vooroordelen weerspiegelt die aanwezig zijn in de trainingsgegevens.
HITL laat mensen deze problemen signaleren en het model sturen in de richting van eerlijkere resultaten.
3. Voortdurende verbetering en aanpassingsvermogen
Training is niet voorbij alleen omdat een model in productie is. HITL laat het model verder trainen op nieuwe gegevens om beter te generaliseren over ongeziene gevallen.
Het bewerken van gegenereerde tekst of het volgen van de inhoudskeuzes van gebruikers levert bijvoorbeeld meer gegevens op die het model kan gebruiken om te verbeteren.
Maar het is niet genoeg dat een model verbetert; het moet ook veranderen.
Het is makkelijk om de manieren waarop we ons aanpassen aan een steeds veranderende wereld als vanzelfsprekend te beschouwen. Met AI is dit niet vanzelfsprekend. HITL combineert expertise en een genuanceerd oordeel om de output van een model in lijn te houden met de tijd.
4. Transparantie en vertrouwen
Het betrekken van mensen maakt de beslissingen van de AI transparanter. Als mensen uitkomsten corrigeren of gevallen met een lage zekerheid oplossen, kunnen gebruikers er zeker van zijn dat ze te maken hebben met een verstandig algoritme.
Het houdt ons de AI de baas en niet andersom.
Gebruikscases van mens-in-de-lus
1. Zelfrijdend

Met een verwachte marktwaarde van 3,9 biljoenUSD in de komende tien jaar zou zelfsturing wel eens de volgende grote stap in AI kunnen zijn. Het maakt gebruik van objectdetectiemodellen en moment-per-moment besluitvorming om het rijden van een persoon te simuleren.
Maar voor zoiets hands-offs is het behoorlijk afhankelijk van mensen. Modellen observeren voortdurend menselijke rijpatronen en vergelijken hun besluitvorming met hun eigen voorspellingen.
2. Detailhandel
Een retailchatbot is een geweldige manier om klantinteracties te automatiseren en toch een persoonlijke ervaring te bieden. Met HITL kun je die ervaring soepel laten verlopen en afstemmen op je bedrijf. Je kunt bijvoorbeeld:
- De productaanbevelingen van de bot beoordelen en corrigeren
- Laat de klant zijn basisbehoeften bespreken voordat hij wordt doorverbonden met een menselijke agent
3. Financiën
Financiële chatbots zijn een geweldige manier om een zwaluwstaart te vormen tussen AI-automatisering en menselijke expertise.
Fraudedetectiesystemen zijn geweldig in het opsporen van verdachte activiteiten in transacties. Maar niet alle verdachte activiteiten zijn kwaadaardig en je wilt niet dat je kaart wordt geannuleerd telkens als je een andere koffie bestelt.
HITL kan gevallen met een lage zekerheid en een laag risico overdragen aan mensen.
Risicobeoordeling van leningen is een ander gebied waarop AI uitblinkt - het is geweldig in het berekenen van waarschijnlijkheden op basis van allerlei schijnbaar ongerelateerde gegevens. Die gegevens bevatten echter bijna zeker een bepaalde vooringenomenheid.
Voor het handhaven van eerlijkheid en het beperken van vooroordelen is vaak de hulp van een echt persoon nodig.
4. Gezondheidszorg

De reddit-gebruiker wiens leven werd gered door Claude zal de eerste zijn die het potentieel van AI in de gezondheidszorg bepleit.
Medische AI-chatbots hebben een deel van het potentieel laten zien, maar het gaat verder dan dat: AI kan helpen een diagnose te stellen op basis van een MRI-uitslag, of follow-ups voorstellen op basis van testresultaten. Maar ik ben er nog niet klaar voor om artsen te vergeten.
HITL biedt het beste van twee werelden: gevallen opvangen die artsen misschien over het hoofd hebben gezien, terwijl ze toch de eindbeslissing kunnen nemen.
Gebruik menselijk aangepaste AI vandaag nog
Botpress heeft duizenden bots ingezet met naadloos menselijk toezicht en is het meest flexibele AI-agentplatform op de markt.
Botpress wordt geleverd met een HITL-integratie, visuele drag-and-drop bouwer en inzetbaarheid op alle populaire communicatiekanalen (waaronder Slack, Telegram, WhatsApp, web), dus het gebruik van AI betekent niet dat je je persoonlijke touch moet opgeven.
Begin vandaag nog met bouwen. Het is gratis.
FAQs
Hoe weet ik of mijn AI-systeem menselijke betrokkenheid nodig heeft?
Uw AI-systeem heeft waarschijnlijk menselijke betrokkenheid nodig als het beslissingen neemt waar veel op het spel staat, vaak dubbelzinnige of zeldzame situaties tegenkomt, het risico loopt op bevooroordeelde of schadelijke output, of op gebieden werkt waar absolute nauwkeurigheid en menselijk oordeel essentieel zijn voor naleving of het vertrouwen van klanten.
Kan human-in-the-loop worden gebruikt in niet-technische bedrijfsprocessen, of alleen in AI-modellen?
Human-in-the-loop kan worden gebruikt in niet-technische bedrijfsprocessen zoals het beoordelen van klachten van klanten of het modereren van inhoud, omdat het betekent dat menselijk oordeel wordt toegevoegd aan een geautomatiseerde workflow waar machinebeslissingen alleen mogelijk onvoldoende zijn.
Betekent het gebruik van human-in-the-loop dat mijn AI-systeem minder geavanceerd is?
Het gebruik van human-in-the-loop betekent niet dat je AI-systeem minder geavanceerd is. Het laat zien dat je prioriteit geeft aan veiligheid en eerlijkheid door de snelheid en patroonherkenning van AI te combineren met menselijk oordeel voor genuanceerde beslissingen, wat vaak essentieel is.
Is human-in-the-loop AI kosteneffectief voor kleine bedrijven, of alleen voor grote ondernemingen?
Human-in-the-loop AI wordt steeds rendabeler voor kleine bedrijven omdat je met moderne tools mensen selectief kunt inschakelen voor lastige gevallen, waardoor de arbeidskosten tot een minimum worden beperkt en de nauwkeurigheid en het vertrouwen toch verbeteren zonder dat je een groot personeelsbestand nodig hebt.
Hoeveel kost het om menselijke processen toe te voegen aan een AI-systeem?
Het toevoegen van menselijke processen kan variëren van minimale kosten - als je af en toe intern personeel inzet - tot aanzienlijke kosten, die kunnen oplopen tot honderden of duizenden dollars per maand als je speciale beoordelaars of gespecialiseerde aannemers nodig hebt, waarbij de kosten grotendeels worden bepaald door het volume en de complexiteit van de taken die mensen moeten uitvoeren.