Computers blinken uit in het reageren op programmeerinstructies en vooraf bepaalde commando's in gewone taal, maar we zijn nog maar net begonnen met het begrijpen van natuurlijke taal.
Een eenvoudig commando als "Hang de telefoon op" heeft bijvoorbeeld historische en spreektaalcontexten die de betekenis ervan bepalen. De menselijke geest begrijpt deze zin snel, maar computers misschien niet.
Gelukkig geeft de vooruitgang in natuurlijke taalverwerking (NLP) computers een voorsprong in hun begrip van de manieren waarop mensen van nature communiceren via taal.
Succes op dit gebied creëert talloze nieuwe zakelijke mogelijkheden in onder andere klantenservice, kennisbeheer en gegevensvastlegging. Het begrijpen van natuurlijke taal staat centraal in wat Botpress als bedrijf wil bereiken - machines helpen om mensen beter te begrijpen is het doel dat onze ontwikkeling van conversationele AI inspireert.
Hoewel het implementeren van natuurlijke taalmogelijkheden toegankelijker is geworden, blijven hun algoritmen voor veel ontwikkelaars een "black box", waardoor deze teams niet optimaal gebruik kunnen maken van deze functies. Begrijpen hoe het werkt is essentieel om te bepalen wat voor soort trainingsgegevens ze gaan gebruiken om deze intelligente machines te trainen. Het selecteren en toepassen van de juiste trainingsgegevens is cruciaal voor succes.
In dit artikel bespreken we de basisprincipes van natuurlijke taal en hun mogelijkheden. We onderzoeken ook een aantal belangrijke use cases en geven aanbevelingen over hoe je aan de slag kunt gaan met je eigen natuurlijke taaloplossingen.
Wat is natuurlijke taalverwerking?
Natural Language Processing is een deelgebied van kunstmatige intelligentie dat de interacties tussen een computer en menselijke taal bestudeert. Het is een studiegebied dat linguïstische en computerwetenschappen combineert. Het doel van NLP is om invoer in natuurlijke taal om te zetten in gestructureerde gegevens. Het gebruikt een veelheid aan taken om dat te doen, zoals: part-of-speech tagging, named entity recognition, syntactic parsing, en nog veel meer.
Wat is Natural Language Understanding (NLU)?
Natural Language Understanding gaat over het begrijpen van taal. Net als wij kan de technologie iets horen of lezen zonder het te begrijpen. De NLU is de technologie die gespreksinterfaces aandrijft. Zonder het begripsgedeelte is een gesprek bijna onmogelijk of in het beste geval onhandig.
Hoe werkt NLU?
Net als andere AI-oplossingen vereist deze technologie training. Intentiedetectie is afhankelijk van de trainingsgegevens die worden aangeleverd door de ontwikkelaar van de chatbot en van de keuze van technologieën door de engineers van het platform. Deze specialisten moeten trainingsgegevens leveren om ervoor te zorgen dat de tool gebruikers begrijpt binnen de context van zijn functie - of die nu bestaat uit het bedienen van externe klanten of het helpen van interne gebruikers met kennisbeheer. Zelfs met training raakt NLU de weg kwijt als de conversaties zich verwijderen van de kernfuncties en algemener worden.
Gelukkig kunnen deze technologieën zeer effectief zijn in specifieke use cases. Het optimaliseren en uitvoeren van trainingen ligt niet buiten het bereik van de meeste ontwikkelaars en zelfs niet-technische gebruikers. Recente doorbraken op het gebied van AI, die deels te danken zijn aan de exponentiële groei in de beschikbaarheid van rekenkracht, maken het toepassen van deze oplossingen eenvoudiger, toegankelijker en betaalbaarder dan ooit.
"Om dat begrip te krijgen, moeten machines in staat zijn om spraakdelen te begrijpen en te genereren, entiteiten te extraheren en te begrijpen, betekenissen van woorden te bepalen en veel ingewikkelder verwerkingsactiviteiten te gebruiken om concepten, zinnen, begrippen en grammatica met elkaar te verbinden tot het grotere geheel van bedoeling en betekenis." Forbes, "Machines die menselijke spraak kunnen begrijpen: The Conversational Pattern Of AI," juni 2020
Taal is complex - complexer dan we ons misschien realiseren - dus het is ook complex om software te maken die alle nuances kan weergeven en met succes de menselijke intentie achter die taal kan bepalen. Maar net als bij menselijke intelligentie kan een machine deze complexiteit overwinnen door AI voldoende te trainen (als de trainingsgegevens goed genoeg zijn).
Het trainen van AI heeft specifieke vereisten die uniek zijn voor het gebruik en de context van elke AI. Laten we bijvoorbeeld aannemen dat we van plan zijn een chatbot te trainen die NLU gebruikt om te werken in een klantenservice voor vliegreizen. De chatbot zal de natuurlijke taal van klanten verwerken om hen te helpen vluchten te boeken en hun reisschema's aan te passen.
In dit geval moet een chatbotontwikkelaar het natuurlijke taalalgoritme van de machine voorzien van intentiegegevens. Deze gegevens bestaan uit veelgebruikte zinnen die reisklanten kunnen gebruiken om hun boekingen te maken of te wijzigen. Het natuurlijke taalalgoritme, een machine-leerfunctie, traint zichzelf op de gegevens zodat de conversatie-assistent zinnen kan herkennen met vergelijkbare betekenissen maar verschillende woorden.
Idealiter zal deze training de conversatieassistent uitrusten om de meeste klantenscenario's af te handelen, zodat menselijke agenten zich niet hoeven bezig te houden met vervelende gesprekken waarbij diepere menselijke capaciteiten niet nodig zijn. Ondertussen kan de conversatieassistent complexere scenario's overdragen aan menselijke agenten (bv. gesprekken die menselijke empathie vereisen). Zelfs met deze mogelijkheden moeten ontwikkelaars het algoritme blijven voorzien van diverse gegevens, zodat het zijn interne model kan kalibreren om gelijke tred te houden met veranderingen in klantgedrag en bedrijfsbehoeften.
Hiervoor brengt een methode genaamd woordvectorisatie woorden of zinnen in kaart in overeenkomstige "vectoren" - echte getallen die de machines kunnen gebruiken om uitkomsten te voorspellen, woordovereenkomsten te identificeren en semantiek beter te begrijpen. Woordvectorisatie breidt het vermogen van machines om natuurlijke taal te begrijpen enorm uit, wat het vooruitstrevende karakter en toekomstige potentieel van deze technologieën illustreert.
Tips om je dataset samen te stellen
- Houd het bij één concept per intentie (een intentie bevat meerdere uitingen)
- Probeer synoniemen te mengen in de uitingen
- Schrijf je uitspraken in de taal die je persona zou gebruiken
- Entiteiten gebruiken
- Vermijd spelfouten en grammaticafouten
Hier is onze complete handleiding om een trainingsdataset voor je chatbot te maken.
Deel dit op:
Bouw gratis je eigen gepersonaliseerde AI-chatbot
Begin met het bouwen van een gepersonaliseerde GPT bot met onze intuïtieve drag & drop interface.
Begin - het is gratis! 🤖Geen creditcard nodig
Blijf op de hoogte van het laatste nieuws over AI chatbots