Binibigyang-daan ng RAG ang mga organisasyon na gamitin ang AI - na may mas kaunting panganib kaysa sa tradisyonal LLM paggamit.
Ang retrieval-augmented generation ay nagiging mas sikat habang mas maraming negosyo ang nagpapakilala ng mga AI solution. Ang mga naunang chatbot ng enterprise ay nakakita ng mga mapanganib na pagkakamali at guni-guni.
Ang RAG ay nagpapahintulot sa mga kumpanya na gamitin ang kapangyarihan ng LLMs habang pinagbabatayan ang generative output sa kanilang partikular na kaalaman sa negosyo.
Ano ang retrieval-augmented generation?
Ang retrieval-augmented generation (RAG) sa AI ay isang diskarteng pinagsasama-sama ang a) pagkuha ng nauugnay na panlabas na impormasyon at b) mga tugon na binuo ng AI, pagpapabuti ng katumpakan at kaugnayan.
Sa halip na umasa sa pagbuo ng malalaking modelo ng wika ( LLMs ), ang mga tugon mula sa mga modelo ng RAG ay alam ng mga base ng kaalaman na idinidikta ng tagabuo ng ahente ng AI – tulad ng webpage ng kumpanya o isang dokumento ng patakaran sa HR.
Ang RAG ay gumagana sa dalawang pangunahing hakbang:
1. Pagbawi
Hinahanap at kinukuha ng modelo ang nauugnay na data mula sa mga structured o unstructured na source (hal. mga database, PDF, HTML file, o iba pang mga dokumento). Ang mga mapagkukunang ito ay maaaring nakabalangkas (hal. mga talahanayan) o hindi nakabalangkas (hal. mga naaprubahang website).
2. Henerasyon
Pagkatapos makuha, ang impormasyon ay ipinadala sa LLM . Ang LLM ginagamit ang impormasyon upang makabuo ng tugon sa natural na wika, na pinagsasama-sama ang naaprubahang data sa sarili nitong mga kakayahan sa wika upang lumikha ng tumpak, tulad ng tao, at mga sagot sa tatak.
Mga halimbawa ng RAG use case
Ano ang silbi ng RAG? Nagbibigay-daan ito sa mga organisasyon na magbigay ng may-katuturan, nagbibigay-kaalaman, at tumpak na output.
Ang RAG ay isang direktang paraan upang bawasan ang panganib ng hindi tumpak LLM output o guni-guni.
Halimbawa 1: Law Firm
Maaaring gumamit ang isang law firm ng RAG sa isang AI system upang:
- Maghanap ng mga may-katuturang batas ng kaso, nauna, at legal na pasya mula sa mga database ng dokumento sa panahon ng pananaliksik.
- Bumuo ng mga buod ng kaso sa pamamagitan ng pagkuha ng mga pangunahing katotohanan mula sa mga file ng kaso at mga nakaraang desisyon.
- Awtomatikong magbigay sa mga empleyado ng may-katuturang mga update sa regulasyon.
Halimbawa 2: Ahensya ng Real Estate
Maaaring gumamit ang isang ahensya ng real estate ng RAG sa isang AI system upang:
- Ibuod ang data mula sa mga kasaysayan ng transaksyon ng ari-arian at mga istatistika ng krimen sa kapitbahayan.
- Sagutin ang mga legal na tanong tungkol sa mga transaksyon sa ari-arian sa pamamagitan ng pagbanggit sa mga lokal na batas at regulasyon sa ari-arian.
- I-streamline ang mga proseso ng pagtatasa sa pamamagitan ng pagkuha ng data mula sa mga ulat sa kundisyon ng ari-arian, mga uso sa merkado, at mga makasaysayang benta.
Halimbawa 3: Tindahan ng E-Commerce
Maaaring gumamit ang isang e-commerce ng RAG sa isang AI system upang:
- Ipunin ang impormasyon ng produkto, mga detalye, at mga review mula sa database ng kumpanya upang ipaalam ang mga personalized na rekomendasyon ng produkto.
- Kunin ang history ng order para makabuo ng mga customized na karanasan sa pamimili na iniayon sa mga kagustuhan ng user.
- Bumuo ng mga naka-target na kampanya sa email sa pamamagitan ng pagkuha ng data ng pagse-segment ng customer at pagsasama nito sa mga kamakailang pattern ng pagbili.
Mga benepisyo ng RAG
Tulad ng alam ng sinumang nagtanong ChatGPT o Claude, LLMs may kaunting mga pananggalang na nakapaloob.
Kung walang wastong pangangasiwa, maaari silang makagawa ng hindi tumpak o kahit na nakakapinsalang impormasyon, na ginagawa itong hindi maaasahan para sa mga pag-deploy sa totoong mundo.
Nag-aalok ang RAG ng solusyon sa pamamagitan ng pagpapatibay ng mga tugon sa mga pinagkakatiwalaan, napapanahon na mga pinagmumulan ng data, na makabuluhang binabawasan ang mga panganib na ito.
Pigilan ang mga guni-guni at mga kamalian
Ang mga tradisyonal na modelo ng wika ay kadalasang gumagawa ng mga guni-guni — mga tugon na mukhang nakakumbinsi ngunit sa katotohanan ay mali o walang kaugnayan.
Ang RAG ay nagpapagaan ng mga guni-guni sa pamamagitan ng paglalagay ng mga tugon sa maaasahan at hyper-kaugnay na mga mapagkukunan ng data.
Tinitiyak ng hakbang sa pagkuha na ang modelo ay nagre-refer ng tumpak, napapanahon na impormasyon, na makabuluhang binabawasan ang pagkakataon ng mga guni-guni at nagpapataas ng pagiging maaasahan.
Kunin ang up-to-date na impormasyon
Habang LLMs ay isang mahusay na tool para sa maraming gawain, hindi sila makapagbigay ng tumpak na impormasyon tungkol sa bihira o kamakailang impormasyon – kabilang ang pasadyang kaalaman sa negosyo.
Ngunit pinapayagan ng RAG ang modelo na kumuha ng real-time na impormasyon mula sa anumang pinagmulan, kabilang ang website, mga talahanayan, o mga database.
Tinitiyak nito na, hangga't ang isang mapagkukunan ng katotohanan ay na-update, ang modelo ay tutugon sa napapanahong impormasyon.
Makipag-usap sa mga kumplikadong konteksto
Isa pang kahinaan ng tradisyonal LLM ang paggamit ay ang pagkawala ng kontekstwal na impormasyon. LLMs pakikibaka upang mapanatili ang konteksto sa mahaba o kumplikadong mga pag-uusap. Madalas itong nagreresulta sa mga hindi kumpleto o pira-pirasong tugon.
Ngunit ang isang modelo ng RAG ay nagbibigay-daan para sa kamalayan sa konteksto sa pamamagitan ng pagkuha ng impormasyon nang direkta mula sa mga pinagmumulan ng data na naka-link sa semantically.
Sa karagdagang impormasyon na partikular na naglalayong sa mga pangangailangan ng mga user – tulad ng isang chatbot sa pagbebenta na nilagyan ng katalogo ng produkto – pinapayagan ng RAG ang mga ahente ng AI na lumahok sa mga pag-uusap sa konteksto.
Paano gumagana ang RAG, sunud-sunod
1. Pag-upload ng Dokumento
Una, nag-a-upload ang tagabuo ng dokumento o file sa library ng kanilang AI agent. Ang file ay maaaring isang webpage, PDF, o iba pang sinusuportahang format, na bahagi ng knowledge base ng AI.
2. Conversion ng Dokumento
Dahil maraming uri ng mga file – mga PDF, webpage, atbp. – kino-convert ng system ang mga file na ito sa isang standardized na format ng text, na ginagawang mas madali para sa AI na iproseso at makuha ang nauugnay na impormasyon mula sa.
3. Chunking at Storage
Ang na-convert na dokumento ay hinati-hati sa mas maliliit, mapapamahalaang mga piraso, o mga tipak. Ang mga tipak na ito ay nakaimbak sa isang database, na nagbibigay-daan sa ahente ng AI na mahusay na maghanap at kumuha ng mga nauugnay na seksyon sa panahon ng isang query.
4. Tanong ng User
Matapos mai-set up ang mga base ng kaalaman, maaaring magtanong ang isang user sa ahente ng AI. Pinoproseso ang query gamit ang natural language processing (NLP) upang maunawaan kung ano ang tinatanong ng user.
5. Pagkuha ng Kaalaman
Ang ahente ng AI ay naghahanap sa mga nakaimbak na chunks, gamit ang mga retrieval algorithm upang mahanap ang mga pinakanauugnay na piraso ng impormasyon mula sa mga na-upload na dokumento na makakasagot sa tanong ng user.
6. Henerasyon
Panghuli, bubuo ang ahente ng AI ng tugon sa pamamagitan ng pagsasama-sama ng nakuhang impormasyon sa mga kakayahan nitong modelo ng wika, paggawa ng magkakaugnay, tumpak na sagot ayon sa konteksto batay sa query at nakuhang data.
Mga advanced na tampok ng RAG
Kung hindi ka developer, maaari kang mabigla na malaman na hindi lahat ng RAG ay ginawang pantay.
Ang iba't ibang sistema ay bubuo ng iba't ibang modelo ng RAG, depende sa kanilang pangangailangan, kaso ng paggamit, o kakayahan sa kasanayan. Ang ilang mga platform ng AI ay mag-aalok ng mga advanced na tampok ng RAG t
Semantic vs naive chunking
Ang naive chunking ay kapag ang isang dokumento ay nahahati sa mga piraso ng fixed-size, tulad ng pagputol ng text sa mga seksyon ng 500 salita, anuman ang kahulugan o konteksto.
Ang semantic chunking, sa kabilang banda, ay hinahati ang dokumento sa mga makabuluhang seksyon batay sa nilalaman. Isinasaalang-alang nito ang mga natural na pahinga, tulad ng mga talata o paksa, na tinitiyak na ang bawat tipak ay naglalaman ng magkakaugnay na piraso ng impormasyon.
Mga mandatoryong pagsipi
Para sa mga industriya na nag-o-automate ng mga high-risk na pag-uusap gamit ang AI – tulad ng pananalapi o pangangalaga sa kalusugan – ang mga pagsipi ay maaaring makatulong na magtanim ng tiwala sa mga user kapag tumatanggap ng impormasyon.
Maaaring turuan ng mga developer ang kanilang mga modelo ng RAG na magbigay ng mga pagsipi para sa anumang impormasyong ipinadala.
Halimbawa, kung humingi ang isang empleyado sa AI chatbot para sa impormasyon tungkol sa mga benepisyong pangkalusugan, maaaring tumugon ang chatbot at magbigay ng link sa nauugnay na dokumento ng mga benepisyo ng empleyado.
Bumuo ng sarili mong ahente ng AI gamit ang RAG
Pagsamahin ang kapangyarihan ng pinakabago LLMs gamit ang iyong natatanging kaalaman sa negosyo.
Botpress ay isang flexible at walang katapusang napapalawak na AI chatbot platform. Nagbibigay-daan ito sa mga user na bumuo ng anumang uri ng AI agent o chatbot para sa anumang kaso ng paggamit – at nag-aalok ito ng pinaka-advanced na RAG system sa merkado.
Isama ang iyong chatbot sa anumang platform o channel, o pumili mula sa aming pre-built integration library. Magsimula sa mga tutorial mula sa Botpress YouTube channel o may mga libreng kurso mula sa Botpress Academy .
Simulan ang pagtatayo ngayon. Ito'y LIBRE.
Talaan ng mga Nilalaman
Manatiling napapanahon sa pinakabago sa mga ahente ng AI
Ibahagi ito sa: