- RAG combineert het ophalen van betrouwbare gegevens met het genereren van LLM , zodat AI-antwoorden accuraat en relevant zijn en gebaseerd op echte bedrijfskennis.
- In tegenstelling tot pure LLMs vermindert RAG hallucinaties door antwoorden te verankeren in specifieke documenten, databases of goedgekeurde inhoud.
- RAG ondersteunt actuele informatie, waardoor AI-systemen vragen kunnen beantwoorden over recente veranderingen of niche-onderwerpen die verder gaan dan de statische trainingsgegevens van een LLM.
- Het onderhouden van een RAG-systeem houdt in dat de gegevens vers worden gehouden, dat de output wordt gecontroleerd en dat de opvraagmethoden worden verfijnd voor de beste prestaties in de loop van de tijd.
Met RAG kunnen organisaties AI aan het werk zetten - met minder risico dan bij het traditionele gebruik van LLM .
De generatie met terugvinding wordt steeds populairder naarmate meer bedrijven AI-oplossingen introduceren. Vroege chatbots voor bedrijven zagen riskante fouten en hallucinaties.
RAG stelt bedrijven in staat om de kracht van LLMs te benutten en tegelijkertijd generatieve output te baseren op hun specifieke bedrijfskennis.
Wat is ophalen-augmenteren-generatie?
Retrieval-augmented generation (RAG) in AI is een techniek die a) het ophalen van relevante externe informatie en b) door AI gegenereerde antwoorden combineert, waardoor de nauwkeurigheid en relevantie worden verbeterd.

In plaats van te vertrouwen op het genereren van grote taalmodellen (LLMs), worden de reacties van RAG-modellen geïnformeerd door kennisbestanden die worden gedicteerd door de bouwer van de AI-agent, zoals de webpagina van een bedrijf of een HR-beleidsdocument.
RAG werkt in twee stappen:
1. Ophalen
Het model zoekt en haalt relevante gegevens op uit gestructureerde of ongestructureerde bronnen (bijv. databases, PDF's, HTML-bestanden of andere documenten). Deze bronnen kunnen gestructureerd (bijv. tabellen) of ongestructureerd (bijv. goedgekeurde websites) zijn.
2. Generatie
Na het ophalen wordt de informatie ingevoerd in de LLM. De LLM gebruikt de informatie om een antwoord in natuurlijke taal te genereren, waarbij de goedgekeurde gegevens worden gecombineerd met zijn eigen linguïstische capaciteiten om nauwkeurige, mensachtige en merkeigen antwoorden te genereren.
Voorbeelden van RAG-gebruiksgevallen
Wat is het nut van RAG? Het stelt organisaties in staat om relevante, informatieve en accurate output te leveren.
RAG is een directe manier om het risico op onnauwkeurige LLM output of hallucinaties te verminderen.
Voorbeeld 1: Advocatenkantoor
Een advocatenkantoor zou een RAG in een AI-systeem kunnen gebruiken om:
- Zoeken naar relevante jurisprudentie, precedenten en juridische uitspraken in documentendatabases tijdens onderzoek.
- Samenvattingen maken van zaken door de belangrijkste feiten uit dossiers en uitspraken uit het verleden te halen.
- Medewerkers automatisch voorzien van relevante regelgevingsupdates.
Voorbeeld 2: Makelaar
Een makelaar zou een RAG in een AI-systeem kunnen gebruiken om:
- Gegevens samenvatten uit de transactiegeschiedenis van onroerend goed en misdaadstatistieken uit de buurt.
- Beantwoord juridische vragen over vastgoedtransacties door de plaatselijke wet- en regelgeving aan te halen.
- Stroomlijn taxatieprocessen door gegevens te halen uit rapporten over de staat van het pand, markttrends en historische verkopen.
Voorbeeld 3: E-commercewinkel
Een e-commerce zou een RAG in een AI-systeem kunnen gebruiken om:
- Verzamel productinformatie, specificaties en beoordelingen uit de bedrijfsdatabase voor gepersonaliseerde productaanbevelingen.
- Bestelgeschiedenis ophalen om aangepaste winkelervaringen te genereren die zijn afgestemd op de voorkeuren van de gebruiker.
- Genereer gerichte e-mailcampagnes door klantsegmentatiegegevens op te halen en te combineren met recente aankooppatronen.
Voordelen van RAG

Zoals iedereen die vragen heeft gesteld aan ChatGPT of Claude weet, heeft LLMs minimale beveiligingen ingebouwd.
Zonder goed toezicht kunnen ze onnauwkeurige of zelfs schadelijke informatie produceren, waardoor ze onbetrouwbaar worden voor echte toepassingen.
RAG biedt een oplossing door reacties te baseren op betrouwbare, actuele gegevensbronnen, waardoor deze risico's aanzienlijk worden verminderd.
Voorkom hallucinaties en onnauwkeurigheden
Traditionele taalmodellen genereren vaak hallucinaties - antwoorden die overtuigend klinken maar feitelijk onjuist of irrelevant zijn.
RAG vermindert hallucinaties door reacties te baseren op betrouwbare en hyperrelevante gegevensbronnen.
De opvraagstap zorgt ervoor dat het model verwijst naar accurate, actuele informatie, wat de kans op hallucinaties aanzienlijk verkleint en de betrouwbaarheid verhoogt.
Actuele informatie ophalen
Hoewel LLMs een krachtig hulpmiddel is voor veel taken, zijn ze niet in staat om nauwkeurige informatie te verschaffen over zeldzame of recente informatie - waaronder bedrijfskennis op maat.
Maar met RAG kan het model real-time informatie ophalen uit elke bron, inclusief website, tabellen of databases.
Dit zorgt ervoor dat zolang een waarheidsbron wordt bijgewerkt, het model zal reageren met actuele informatie.
Communiceren in complexe contexten
Een andere zwakte van het traditionele gebruik van LLM is het verlies van contextuele informatie.
LLMs moeite om context te behouden in lange of complexe gesprekken. Dit resulteert vaak in onvolledige of gefragmenteerde antwoorden.
Maar een RAG-model maakt contextbewustzijn mogelijk door informatie rechtstreeks uit semantisch gekoppelde gegevensbronnen te halen.
Met extra informatie die specifiek gericht is op de behoeften van gebruikers - zoals een verkoopchatbot die is uitgerust met een productcatalogus - kunnen AI-agenten met RAG deelnemen aan contextuele conversaties.
Hoe werkt RAG?

1. Document uploaden
Eerst uploadt de bouwer een document of bestand naar de bibliotheek van zijn AI-agent. Het bestand kan een webpagina, PDF of ander ondersteund formaat zijn, dat deel uitmaakt van de kennisbank van de AI.
2. Documentconversie
Aangezien er veel soorten bestanden zijn - PDF's, webpagina's, enz. - converteert het systeem deze bestanden naar een gestandaardiseerd tekstformaat, zodat de AI ze gemakkelijker kan verwerken en er relevante informatie uit kan halen.
3. Bundeling en opslag
Het geconverteerde document wordt vervolgens opgesplitst in kleinere, hanteerbare stukken, of chunks. Deze chunks worden opgeslagen in een database, zodat de AI-agent efficiënt kan zoeken en relevante delen kan ophalen tijdens een zoekopdracht.
4. Gebruikersvraag
Nadat de kennisbanken zijn opgezet, kan een gebruiker een vraag stellen aan de AI-agent. De vraag wordt verwerkt met behulp van natuurlijke taalverwerking (NLP) om te begrijpen wat de gebruiker vraagt.
5. Ophalen van kennis
De AI-agent doorzoekt de opgeslagen chunks met behulp van opvraagalgoritmes om de meest relevante informatie uit de geüploade documenten te vinden die de vraag van de gebruiker kan beantwoorden.
6. Generatie
Tot slot genereert de AI-agent een antwoord door de opgehaalde informatie te combineren met zijn taalmodelcapaciteiten, waardoor een samenhangend, contextueel accuraat antwoord ontstaat op basis van de zoekopdracht en de opgehaalde gegevens.
Geavanceerde RAG-functies
Als je geen ontwikkelaar bent, ben je misschien verbaasd dat niet alle RAG gelijk is.
Verschillende systemen zullen verschillende RAG-modellen bouwen, afhankelijk van hun behoefte, gebruikssituatie of vaardigheid.
Sommige AI-platforms bieden geavanceerde RAG-functies die de nauwkeurigheid en betrouwbaarheid van je AI-software verder kunnen verbeteren.
Semantisch vs. naïef chunking
Bij naïef chunking wordt een document opgesplitst in stukken met een vaste grootte, zoals een tekst in stukken van 500 woorden knippen, ongeacht de betekenis of context.
Semantisch chunking daarentegen verdeelt het document in zinvolle secties op basis van de inhoud.
Het houdt rekening met natuurlijke onderbrekingen, zoals alinea's of onderwerpen, en zorgt ervoor dat elke brok een samenhangend stuk informatie bevat.
Verplichte citaten
Voor sectoren die risicovolle gesprekken automatiseren met AI, zoals de financiële sector of de gezondheidszorg, kunnen citaten helpen om gebruikers vertrouwen te geven bij het ontvangen van informatie.
Ontwikkelaars kunnen hun RAG-modellen de opdracht geven om citaten te geven bij alle verzonden informatie.
Als een werknemer een AI-chatbot bijvoorbeeld om informatie vraagt over ziektekosten, kan de chatbot antwoorden en een link geven naar het relevante document over de secundaire arbeidsvoorwaarden.
Een aangepaste RAG AI-agent bouwen
Combineer de kracht van de nieuwste LLMs met jouw unieke bedrijfskennis.
Botpress is een flexibel en eindeloos uitbreidbaar AI-chatbotplatform.
Gebruikers kunnen elk type AI-agent of chatbot bouwen voor elke use case - en het biedt het meest geavanceerde RAG-systeem op de markt.
Integreer je chatbot in elk platform of kanaal, of kies uit onze kant-en-klare integratiebibliotheek. Ga aan de slag met tutorials van het Botpress YouTube-kanaal of met gratis cursussen van Botpress Academy .
Begin vandaag nog met bouwen. Het is gratis.
FAQs
1. Waarin verschilt RAG van het afstemmen van een LLM?
Met RAG kunt u de basis LLM onaangetast laten en alleen relevante informatie ophalen bij het opvragen, terwijl de fijnafstemming het model daadwerkelijk verandert door het te trainen op uw gegevens. RAG is veel sneller en flexibeler voor updates.
2. Welke soorten gegevensbronnen zijn niet geschikt voor RAG?
Rommelige, verouderde of te complexe documenten (zoals gescande afbeeldingen of PDF's zonder tekst) kunnen problematisch zijn, net als bronnen met te veel dubbelzinnigheid of tegenstrijdige informatie.
3. Hoe verhoudt RAG zich tot in-context leertechnieken zoals prompt engineering?
Prompt engineering werkt door voorbeelden direct in de prompt te proppen, maar RAG schaalt beter door externe kennis dynamisch op te halen, zodat je niet zo snel tegen tokenlimieten aanloopt en je een veel grotere informatiebank kunt aanboren.
4. Kan ik RAG gebruiken met LLMs van derden, zoals OpenAI, Anthropic of Mistral?
Absoluut, je kunt een RAG-systeem aansluiten op de meeste populaire LLMs via hun API's. Je handelt het ophalen zelf af en stuurt alleen de uiteindelijke prompt (met context) naar het model. Je handelt het ophalen zelf af en stuurt alleen de uiteindelijke prompt (met context) naar het model.
5. Hoe ziet lopend onderhoud eruit voor een AI-agent met RAG?
U zult uw kennisbank fris willen houden door nieuwe documenten opnieuw te indexeren, de prestaties te controleren om slechte of ontbrekende reacties op te vangen en af en toe de instellingen voor chunking of ophalen aan te passen om de relevantie te verbeteren.