- يجمع RAG بين الاسترجاع من البيانات الموثوق بها وتوليد LLM الذكاء الاصطناعي ذات الصلة بالموضوع، مما يضمن أن تكون استجابات الذكاء الاصطناعي دقيقة وذات صلة ومرتكزة على معرفة حقيقية بالأعمال.
- وخلافًا لـ LLMs البحتة، يقلل RAG من الهلوسة من خلال تثبيت الإجابات في مستندات أو قواعد بيانات أو محتوى معتمد.
- يدعم RAG المعلومات المحدثة، مما يمكّن أنظمة الذكاء الاصطناعي من الإجابة عن الأسئلة المتعلقة بالتغييرات الحديثة أو الموضوعات المتخصصة التي تتجاوز بيانات التدريب الثابتة الخاصة بـ LLM.
- يتضمن الحفاظ على نظام RAG الحفاظ على تحديث البيانات ومراقبة المخرجات وتحسين طرق الاسترجاع للحصول على أفضل أداء مع مرور الوقت.
يسمح RAG للمؤسسات بوضع الذكاء الاصطناعي في العمل - بمخاطر أقل من الاستخدام التقليدي LLM .
أصبح الجيل المعزز للاسترجاع أكثر شيوعًا مع تزايد عدد الشركات التي تقدم حلول الذكاء الاصطناعي. شهدت روبوتات الدردشة المؤسسية المبكرة أخطاءً وهلوسات محفوفة بالمخاطر.
تسمح RAG للشركات بالاستفادة من قوة LLMs مع تأصيل المخرجات التوليدية في معارفها التجارية المحددة.
ما هو الجيل المعزز بالاسترجاع؟
التوليد المعزّز بالاسترجاع (RAG) في الذكاء الاصطناعي هو تقنية تجمع بين (أ) استرجاع المعلومات الخارجية ذات الصلة و(ب) الاستجابات التي يتم إنشاؤها بواسطة الذكاء الاصطناعي، مما يحسّن الدقة والملاءمة.

فبدلاً من الاعتماد على توليد نماذج لغوية كبيرة (LLMs)، يتم إبلاغ استجابات نماذج RAG من خلال قواعد المعرفة التي يمليها منشئ وكيل الذكاء الاصطناعي - مثل صفحة ويب الشركة أو وثيقة سياسة الموارد البشرية.
يعمل RAG في خطوتين رئيسيتين:
1. الاسترجاع
يقوم النموذج بالبحث عن البيانات ذات الصلة واسترجاعها من مصادر منظمة أو غير منظمة (مثل قواعد البيانات أو ملفات PDF أو ملفات HTML أو مستندات أخرى). يمكن أن تكون هذه المصادر منظمة (مثل الجداول) أو غير منظمة (مثل المواقع الإلكترونية المعتمدة).
2. التوليد
بعد الاسترجاع، يتم تغذية المعلومات في LLM. يستخدم LLM المعلومات لتوليد استجابة باللغة الطبيعية، ويجمع بين البيانات المعتمدة وقدراته اللغوية الخاصة به لإنشاء استجابات دقيقة وشبيهة بالبشرية ومتوافقة مع العلامة التجارية.
أمثلة على حالات استخدام RAG
ما هو الهدف من RAG؟ يتيح للمؤسسات تقديم مخرجات ذات صلة وغنية بالمعلومات ودقيقة.
RAG هي طريقة مباشرة لتقليل خطر عدم دقة الإخراج LLM أو الهلوسة.
مثال 1: مكتب محاماة
قد تستخدم شركة محاماة نظام RAG في نظام الذكاء الاصطناعي من أجل:
- البحث عن السوابق القضائية والسوابق والأحكام القانونية ذات الصلة من قواعد بيانات الوثائق أثناء البحث.
- إنشاء ملخصات القضايا من خلال استخراج الحقائق الأساسية من ملفات القضايا والأحكام السابقة.
- تزويد الموظفين بالتحديثات التنظيمية ذات الصلة تلقائياً.
مثال 2: الوكالة العقارية
قد تستخدم وكالة عقارية نظام RAG في نظام الذكاء الاصطناعي من أجل:
- تلخيص البيانات من تاريخ المعاملات العقارية وإحصاءات الجرائم في الحي.
- أجب عن الأسئلة القانونية حول المعاملات العقارية من خلال الاستشهاد بقوانين ولوائح الملكية المحلية.
- تبسيط عمليات التقييم من خلال سحب البيانات من تقارير حالة العقارات، واتجاهات السوق، والمبيعات التاريخية.
مثال 3: متجر التجارة الإلكترونية
قد تستخدم التجارة الإلكترونية نظام RAG في نظام الذكاء الاصطناعي من أجل:
- اجمع معلومات المنتج ومواصفاته ومراجعاته من قاعدة بيانات الشركة لتقديم توصيات مخصصة للمنتج.
- استرجع سجل الطلبات لإنشاء تجارب تسوق مخصصة مصممة خصيصاً لتناسب تفضيلات المستخدم.
- أنشئ حملات بريد إلكتروني مستهدفة من خلال استرداد بيانات تقسيم العملاء ودمجها مع أنماط الشراء الحديثة.
فوائد RAG

كما يعلم أي شخص استفسر ChatGPT أو كلود يعلم، فإن LLMs لديه الحد الأدنى من الضمانات المضمنة في .
فبدون رقابة مناسبة، يمكن أن تنتج معلومات غير دقيقة أو حتى ضارة، مما يجعلها غير موثوقة لعمليات النشر في العالم الحقيقي.
تقدم RAG حلاً من خلال تأصيل الاستجابات في مصادر بيانات موثوقة وحديثة، مما يقلل من هذه المخاطر بشكل كبير.
الوقاية من الهلوسة وعدم الدقة
وغالباً ما تولد النماذج اللغوية التقليدية الهلوسة - أي الردود التي تبدو مقنعة ولكنها غير صحيحة في الواقع أو غير ذات صلة.
يخفف RAG من الهلوسة من خلال تأصيل الاستجابات في مصادر بيانات موثوقة وذات صلة كبيرة.
تضمن خطوة الاسترجاع رجوع النموذج إلى معلومات دقيقة وحديثة، مما يقلل بشكل كبير من فرصة حدوث الهلوسة ويزيد من الموثوقية.
استرجاع معلومات محدثة
على الرغم من أن LLMs أداة قوية للعديد من المهام، إلا أنها غير قادرة على توفير معلومات دقيقة حول المعلومات النادرة أو الحديثة - بما في ذلك المعرفة التجارية المخصصة.
لكن RAG يسمح للنموذج بجلب المعلومات في الوقت الفعلي من أي مصدر، بما في ذلك الموقع الإلكتروني أو الجداول أو قواعد البيانات.
يضمن ذلك أنه طالما تم تحديث مصدر الحقيقة، سيستجيب النموذج بمعلومات محدثة.
التواصل في سياقات معقدة
من نقاط الضعف الأخرى في استخدام LLM التقليدية فقدان المعلومات السياقية.
يكافح LLMs للحفاظ على السياق في المحادثات الطويلة أو المعقدة. وغالباً ما ينتج عن ذلك ردود غير مكتملة أو مجزأة.
ولكن نموذج RAG يسمح بالوعي بالسياق من خلال سحب المعلومات مباشرةً من مصادر البيانات المرتبطة دلالياً.
من خلال المعلومات الإضافية التي تستهدف احتياجات المستخدمين على وجه التحديد - مثل المبيعات chatbot المجهزة بكتالوج المنتجات - يسمح RAG لوكلاء الذكاء الاصطناعي بالمشاركة في المحادثات السياقية.
كيف يعمل RAG؟

1. تحميل المستندات
أولاً، يقوم المنشئ بتحميل مستند أو ملف إلى مكتبة وكيل الذكاء الاصطناعي. يمكن أن يكون الملف صفحة ويب أو ملف PDF أو أي تنسيق آخر مدعوم، والذي يشكل جزءًا من قاعدة معارف الذكاء الاصطناعي.
2. تحويل المستندات
نظرًا لوجود العديد من أنواع الملفات - ملفات PDF وصفحات الويب وما إلى ذلك. - يقوم النظام بتحويل هذه الملفات إلى تنسيق نصي موحد، مما يسهل على الذكاء الاصطناعي معالجتها واسترجاع المعلومات ذات الصلة منها.
3. التقطيع والتخزين
ثم يتم تقسيم المستند المحوّل إلى أجزاء أو أجزاء أصغر يمكن التحكم فيها. تُخزَّن هذه الأجزاء في قاعدة بيانات، مما يسمح لوكيل الذكاء الاصطناعي بالبحث بكفاءة واسترجاع الأجزاء ذات الصلة أثناء الاستعلام.
4. استعلام المستخدم
بعد إعداد قواعد المعرفة، يمكن للمستخدم طرح سؤال على وكيل الذكاء الاصطناعي. تتم معالجة الاستعلام باستخدام معالجة اللغة الطبيعية (NLP) لفهم ما يطلبه المستخدم.
5. استرجاع المعرفة
يقوم وكيل الذكاء الاصطناعي بالبحث في الأجزاء المخزنة، باستخدام خوارزميات الاسترجاع للعثور على المعلومات الأكثر صلة من المستندات التي تم تحميلها والتي يمكن أن تجيب على سؤال المستخدم.
6. التوليد
أخيراً، سيقوم وكيل الذكاء الاصطناعي بإنشاء استجابة من خلال الجمع بين المعلومات المسترجعة وقدرات النموذج اللغوي الخاص به، وصياغة إجابة متماسكة ودقيقة من حيث السياق بناءً على الاستعلام والبيانات المسترجعة.
ميزات RAG المتقدمة
إذا لم تكن مطورًا، فقد تتفاجأ عندما تعلم أن RAG ليست كلها متساوية.
ستقوم الأنظمة المختلفة ببناء نماذج RAG مختلفة، اعتمادًا على حاجتها أو حالة الاستخدام أو القدرة على المهارات.
ستوفر بعض منصات الذكاء الاصطناعي ميزات RAG المتقدمة التي يمكن أن تعزز دقة وموثوقية برنامج الذكاء الاصطناعي الخاص بك.
التقطيع الدلالي مقابل التقطيع الساذج
التقطيع الساذج هو عندما يتم تقسيم المستند إلى أجزاء ذات حجم ثابت، مثل تقطيع النص إلى أجزاء من 500 كلمة، بغض النظر عن المعنى أو السياق.
من ناحية أخرى، يقوم التقطيع الدلالي بتقسيم المستند إلى أقسام ذات معنى بناءً على المحتوى.
فهو يأخذ في الاعتبار الفواصل الطبيعية، مثل الفقرات أو الموضوعات، مما يضمن احتواء كل جزء على جزء متماسك من المعلومات.
الاستشهادات الإلزامية
بالنسبة للقطاعات التي تعمل على أتمتة المحادثات عالية المخاطر باستخدام الذكاء الاصطناعي - مثل التمويل أو الرعاية الصحية - يمكن أن تساعد الاقتباسات في غرس الثقة لدى المستخدمين عند تلقي المعلومات.
يمكن للمطورين توجيه نماذج RAG الخاصة بهم لتقديم اقتباسات لأي معلومات يتم إرسالها.
على سبيل المثال، إذا طلب أحد الموظفين من الذكاء الاصطناعي chatbot معلومات حول المزايا الصحية، يمكن أن يستجيب chatbot ويوفر رابطًا لوثيقة مزايا الموظف ذات الصلة.
إنشاء وكيل RAG مخصص للذكاء الاصطناعي
اجمع بين قوة أحدث LLMs مع معرفتك المؤسسية الفريدة من نوعها.
Botpress عبارة عن منصة chatbot آلية مرنة وقابلة للتمديد إلى ما لا نهاية.
وهو يتيح للمستخدمين إنشاء أي نوع من وكلاء الذكاء الاصطناعي أو chatbot لية لأي حالة استخدام، كما أنه يوفر نظام RAG الأكثر تقدماً في السوق.
ادمج chatbot الخاص بك مع أي منصة أو قناة، أو اختر من مكتبة التكامل المدمجة مسبقًا. ابدأ مع البرامج التعليمية من قناة يوتيوب Botpress أو مع الدورات التدريبية المجانية من Botpress Academy .
ابدأ البناء اليوم. إنه مجاني.
الأسئلة الأكثر تداولًا
1. كيف يختلف RAG عن الضبط الدقيق لـ LLM
RAG (Retrieval-Augmented Generation) is different from fine-tuning because RAG keeps the original LLM unchanged and injects external knowledge at runtime by retrieving relevant documents. Fine-tuning modifies the model's weights using training data, which requires more compute and must be repeated for every update.
2. What kinds of data sources are not suitable for RAG?
Data sources that are unsuitable for RAG include non-text formats like scanned documents, image-based PDFs, audio files without transcripts, and outdated or conflicting content. These types of data reduce the accuracy of retrieved context.
3. كيف يمكن مقارنة RAG بتقنيات التعلم داخل السياق مثل الهندسة الفورية؟
RAG differs from prompt engineering by retrieving relevant content from a large indexed knowledge base at query time, rather than relying on static, manually embedded examples in the prompt. This allows RAG to scale better and maintain up-to-date knowledge without retraining.
4. هل يمكنني استخدام RAG مع LLMs التابعة لجهات خارجية مثل OpenAI أو Anthropic أو Mistral؟
Yes, you can use RAG with LLMs from OpenAI, Anthropic, Mistral, or others by handling the retrieval pipeline independently and sending the retrieved context to the LLM via its API. RAG is model-agnostic as long as the LLM supports receiving contextual input through prompts.
5. كيف تبدو الصيانة المستمرة لعامل ذكاء اصطناعي مدعوم من RAG؟
Ongoing maintenance for a RAG-enabled AI agent includes updating the knowledge base with new or corrected documents, re-indexing content periodically, evaluating retrieval quality, tuning chunk size and embedding methods, and monitoring the agent's responses for drift or hallucination issues.