- تحدث هلوسة الذكاء الاصطناعي عندما تنتج النماذج بثقة معلومات خاطئة أو مختلقة ناتجة عن ضعف جودة البيانات أو الإفراط في التكييف أو المطالبات الغامضة.
- وتتراوح الهلوسات بين الأخطاء الواقعية والمحتوى المفبرك، ويمكن أن تضر بالثقة، وتكلف الشركات المليارات، أو تنشر معلومات مضللة ضارة.
- تشمل خطوات الوقاية الرئيسية اختيار منصات موثوقة للذكاء الاصطناعي، وإضافة الجيل المعزز للاسترجاع (RAG)، وصياغة مطالبات دقيقة، وإدراج الإشراف البشري.
هل تعتقد أن جواكين فينيكس كان سيقع في حب سكارليت جوهانسون إذا سألها عن عدد حروف الـ Rsفي الفراولة؟ إذا كنت على موقع LinkedIn، فأنت تعلم أن الإجابة هي 3. (أو، كما تعلم، إذا كنت تستطيع القراءة).

ولكن بالنسبة لروبوتات الدردشة الآلية، فإن الأمر ليس بهذه البساطة دائماً.
ربما رأيت أشخاصاً يسخرون من سخافة هلوسات الذكاء الاصطناعي. ولكي نكون منصفين، فإن نموذج الذكاء الاصطناعي الذي يتمتع بمعرفة لا نهاية لها على ما يبدو، ومهارات تفكير شبيهة بمهارات البشر، وتنفيذ المهام بسرعة البرق يفشل في حل مشكلة رياضية على مستوى رياض الأطفال هو، حسناً، نوع من السخافة.
ولكن وراء المرح والألعاب تكمن حقيقة أكثر خطورة - وربما أكثر خبثًا - وراء هذه الألعاب.
في هذا المقال، سأتحدث عن هلوسات الذكاء الاصطناعي - ما هي، وما هي أسبابها، وسبب أهميتها، والتدابير التي يمكنك اتخاذها للوقاية منها.
ما هي هلوسة الذكاء الاصطناعي؟
هلوسة الذكاء الاصطناعي هي عندما يقدم نموذج الذكاء الاصطناعي معلومات غير دقيقة أو مضللة أو ملفقة بالكامل. يمكن أن تبدو هذه المعلومات الخاطئة معقولة، وفي كثير من الحالات، لا يتم اكتشافها.
نظرًا لانتشار استخدام LLMsالنصية التوليدية على نطاق واسع، غالبًا ما يشار إلى الهلوسة في سياق النماذج النصية التوليدية. لكنها في الواقع تشكل خطرًا على أي تطبيق للذكاء الاصطناعي التوليدي.
ما الذي يسبب الهلوسة في الذكاء الاصطناعي؟
تحدث هلوسة الذكاء الاصطناعي عندما تتعلم النماذج أنماطاً خاطئة.

تشير الأنماط، في سياق الذكاء الاصطناعي، إلى قدرته على استخدام أمثلة التدريب الفردية للتعميم عبر بيانات غير مرئية. يمكن أن يكون هذا سلسلة من الكلمات لتكوين استمرار نص، أو توزيع بكسلات الصورة التي تتوافق مع كلب.
في حالة هلوسة LLM اعتبر النموذج أن سلسلة من الكلمات هي الأكثر احتمالاً لمتابعة ما يطلبه المستخدم، على الرغم من أنها خاطئة.
قد يرجع ذلك إلى واحد أو أكثر من الأسباب التالية:
بيانات تدريب منخفضة الجودة

ChatGPT وما شابهها من LLMs يتم تدريبها على الكثير من البيانات. هذه البيانات، على الرغم من وفرتها، غير كاملة بسبب:
- الثغرات في بعض الموضوعات
- انعكاس التحيز في العالم الحقيقي
- معلومات مضللة متعمدة أو هجاء غير ملحوظ
- متحيزة، كما هو الحال في البيانات غير المتوازنة أو "غير المتوازنة".
ضع في اعتبارك سيناريو تم فيه تدريب النموذج على معلومات عن جميع الآلهة اليونانية باستثناء إله يوناني واحد.
فقدرته على رسم روابط إحصائية بين موضوعات تشبه الأساطير الإغريقية - مثل الحب، والأخلاق، والخيانة - قد تجعله يربط بين بعض الأساطير المختلقة التي يعتبرها "محتملة"، نظراً لنموذجه الإحصائي.
ويتضح ذلك أيضًا في توليد الصور، حيث تنتج معظم المطالبات الخاصة بموضوع أنثوي صورًا مفرطة في الجنس. إن التحيز لنوع معين من التصوير يحدد أنواع الصور التي يتم توليدها.
من المحتمل أن يكون تهجئة كلمة " فراولة " قد حدثت في بيانات التدريب في سياق مناقشة حول حرف الراء المزدوج، وهي نقطة سيئة السمعة لدى غير الناطقين باللغة الإنجليزية. في هذه الحالة، من المحتمل أن يكون الرقم 2 أو كلمة "مزدوج" قد ظهر في سياق تهجئة الكلمة.
من ناحية أخرى، من غير المحتمل أن تكون البيانات قد أشارت إلى وجود 3 روبية.
الإخراج سخيف لأن المطلوب هو: تحت أي ظرف من الظروف يكتب شخص ما كلمة ثم يستفسر عن كيفية تهجئتها؟
بنية النموذج وطريقة التوليد
تم بناء النماذج من بنى شبكات عصبية معقدة بشكل مذهل. تؤثر الاختلافات الطفيفة على الطريقة التي تتفاعل بها النماذج مع بيانات التدريب ومطالبات المدخلات. تخضع قدرة النموذج على التخفيف من الهلوسة للتحسين التدريجي من خلال البحث والاختبار الدقيق.
وعلى رأس ذلك كيفية تنفيذ التوليد. كلمة بكلمة (في الواقع كلمة بكلمة)، تتنبأ النماذج بالكلمة الأكثر احتمالاً لاتباعها. لذا، فإن
"الثعلب الأسمر السريع يقفز فوق الثعلب البطيء ____".

ستحدد الكلمة التالية على الأرجح لتكون "كلب". لكن هناك كلمات أخرى ممكنة. والتوليد الذي يعتمد فقط على تحديد الكلمة التالية الأكثر احتمالاً تنتج عنه نتائج غير مثيرة للاهتمام ويمكن التنبؤ بها.
وهذا يعني أنه يجب استخدام أساليب مبتكرة لأخذ العينات للحفاظ على الإجابات مثيرة - ولكن متماسكة. وعند القيام بذلك، تنزلق الواقعية أحيانًا في بعض الأحيان.
الإفراط في التركيب

يحدث الإفراط في التركيب عندما يتم تدريب النموذج على التنبؤ بالبيانات بشكل وثيق لدرجة أنه يفشل في التعميم على المدخلات الجديدة.
لذا، إذا كنتُ عارض أزياء (كما تقول أمي أنه يجب أن أكون كذلك)، فسأكون عارض أزياء مدربًا بشكل صحيح إذا كنتُ سأعرف الكلاب على أنها
فروي، ذو أذنين متدليتين، مرح، وأنف بني صغير ذو أزرار بنية اللون.
ولكنني سأكون مبالغًا إذا تعرفت عليهم فقط على أنهم:
وجود نقطة بنية اللون تحت ذقنه، يجيب على اسم "فرانك"، ويمضغ زوجي الجيد من حذاء نايكي بالكامل.
في سياق LLMعادةً ما يبدو الأمر وكأنه إعادة ترديد المعلومات التي تظهر في بيانات التدريب، بدلًا من التراجع حيث لا يعرف الإجابة.
لنفترض أنك سألت chatbot عن سياسة الإرجاع الخاصة بالشركة. إذا كان لا يعرف، فعليه أن يخبرك. على الرغم من أنه إذا كان أكثر من اللازم، فقد يعيد سياسة شركة مماثلة.
موجهات ضعيفة
تصدر الشركات شهادات في الهندسة السريعة مع العلم أن الذكاء الاصطناعي جيد بقدر جودة مدخلاته.
تكون المطالبة جيدة التشكيل مصاغة بدقة، وتتجنب المصطلحات المتخصصة، وتوفر كل السياق اللازم.
وذلك لأن الهلوسة تحدث على حافة العديد من المخرجات منخفضة الاحتمالية.
لنفترض أنك سألت "ما هي حبكة فتاة القرش؟" الآن، يفكر الإنسان "هاه، فتاة القرش" .في عالم الإحصائيات، الاحتمالات هي
- مغامرات الفتى القرش وفتاة الحمم - فيلم أطفال شهير جداً من عام 2005 يحمل نفس الاسم.
- فيلم رعب/فيلم رعب/إثارة لعام 2024 بعنوان " فتاة القرش " - أقل شهرة ولكنه أكثر حداثة ودقة.
- كتاب للأطفال يحمل نفس الاسم في وقت سابق من هذا العام - والذي قد يكون النموذج قد فهرسه أو لم يفهرسه.
لا يعد أي من هذه الخيارات خيارًا واضحًا، مما يؤدي إلى توزيع احتمالات "مسطح" مع التزام أقل بموضوع واحد أو سرد واحد. من شأن المطالبة الأكثر فعالية أن توفر سياقًا، أي توضيح المثال الذي يشير إليه المستخدم.
قد ينتج عن هذا الحساء من الغموض والغموض والأهمية العرضية استجابة قد تكون مجرد حبكة عامة مختلقة لقصة تتعلق بأسماك القرش.
إن تقليل فرصة إصابتك بالهلوسة يتعلق بتقليل حالة عدم اليقين.
أنواع هلوسات الذكاء الاصطناعي
لقد تحدثت حتى الآن عن الهلوسة بشكل عام. والحقيقة أنها تمس جميع جوانب الذكاء الاصطناعي تقريبًا. ولكن من أجل التوضيح، من الأفضل النظر في الفئات المختلفة.
أخطاء وقائعية
وهنا يأتي دور مثال الفراولة. هناك أخطاء في تفاصيل بيانات واقعية أخرى. يمكن أن تشمل هذه الأخطاء السنة التي وقع فيها حدث معين، أو عاصمة بلد ما، أو أرقام إحصائية ما.

يمكن أن تكون التفاصيل الدقيقة في استجابة جيدة خبيثة بشكل خاص، خاصة عندما يتعلق الأمر بالتفاصيل التي لا يتذكرها البشر غالباً، مثل الأرقام الدقيقة.
المحتوى المُصنَّع
في عام 2023، ادعى بارد من جوجل خطأً أن تلسكوب جيمس ويب استُخدم لالتقاط أول صور للكواكب الخارجية. لم يكن الأمر يتعلق بأخطاء تقنية، بل كان مجرد ادعاء كاذب.
يمكن أن تكون هذه ادعاءات جريئة كما هو مذكور أعلاه، ولكن غالبًا ما تظهر على شكل عناوين URL لا تؤدي إلى أي مكان، أو مكتبات ووظائف برمجية مصطنعة.
تجدر الإشارة إلى أن الخط الفاصل بين الأخطاء الواقعية والمحتوى المفبرك ليس واضحًا دائمًا.
لنفترض أننا نناقش أحد الباحثين. إذا استشهدنا بورقة بحثية لهم ولكننا أخطأنا في السنة فهذا خطأ واقعي. إذا أخطأنا في الاسم، فماذا بعد ذلك؟ ماذا عن الاسم والسنة؟
المعلومات المضللة
يمكن أن يندرج هذا تحت أي من الفئتين السابقتين، ولكنه يشير إلى المعلومات الخاطئة حيث يكون المصدر أكثر شفافية.
ومن الأمثلة الرائعة على ذلك توصية الذكاء الاصطناعي من جوجل بالبيتزا اللاصقة وأكل الصخور؛ ومن الواضح أن المادة المصدرية ساخرة وغير مؤذية بشكل عام - تعليقات ريديت التي كتبها موقع The Onion، ولكن لم يأخذ تدريب النموذج في الحسبان ذلك.

مخاطر هلوسة الذكاء الاصطناعي
1. فقدان الثقة
نحن نقدر حرية تفريغ مهامنا للذكاء الاصطناعي، ولكن ليس على حساب ثقتنا.
وقد أدى الحادث المؤسف الذي وقع مؤخراً في Cursor AI - وهو روبوت خدمة العملاء الذي اخترع سياسة تقييدية - إلى إلغاء العديد من المستخدمين لاشتراكاتهم، مشككين في موثوقيتها.
2. التكلفة
لقد احتل الذكاء الاصطناعي المقعد الأمامي في العديد من الشركات، وعلى الرغم من أن هذا أمر جيد، إلا أن أي خطأ قد يكون مكلفاً.
تسببت هلوسة جيمس ويب من Google في انخفاض أسهم شركة Alphabet بقيمة 100 مليار دولار على مدار ساعات قليلة. وهذا قبل تكلفة إعادة تدريب النماذج.
3. المعلومات المضللة الضارة
نضحك على سخافة بيتزا الغراء، ولكن ماذا عن الجرعات الطبية المضللة؟
سأكون أول من يستبدل قراءة التحذيرات المليئة بالتحذيرات بإجابة سريعة من الذكاء الاصطناعي. ولكن ماذا لو كانت خاطئة؟ من شبه المؤكد أنه لن يأخذ في الحسبان جميع الحالات الطبية المحتملة.
3. الأمن والبرمجيات الخبيثة
كما ذكرنا، غالبًا ما يختلق الذكاء الاصطناعي أسماء مكتبات التعليمات البرمجية. عند محاولة تثبيت مكتبة غير موجودة، لا يحدث شيء.
تخيل الآن أن أحد القراصنة يقوم بتضمين برمجيات خبيثة في التعليمات البرمجية وتحميلها تحت اسم مكتبة شائعة الاستخدام. تقوم أنت بتثبيت المكتبة، و 💨بوف💨💨: يتم اختراقك.
هذا موجود، ويطلق عليه اسم سلوبسكواتينغ.
وبغض النظر عن الاسم الإجمالي، لا يضر أبدًا أن تكون ناقدًا لما تقوم بتثبيته، والتحقق مرة أخرى من أي من أسماء المكتبات الغريبة التي تبدو غريبة.
خطوات الوقاية من هلوسة الذكاء الاصطناعي
إذا كنت لا تقوم بتدريب النماذج، فليس هناك الكثير مما يمكنك القيام به في نهاية البيانات والبنية.
والخبر السار هو أنه لا تزال هناك احتياطات يمكنك اتخاذها، ويمكنها أن تحدث فرقاً كبيراً في شحن ذكاء اصطناعي خالٍ من الهلوسة.
اختر نموذجاً ومنصة يمكنك الوثوق بها
أنت لست وحدك. من مصلحة شركات الذكاء الاصطناعي الحفاظ على الثقة، وهذا يعني عدم الهلوسة.
اعتمادًا على ما تفعله بالذكاء الاصطناعي، يكون لديك دائمًا على الأقل بعض الخيارات على الأقل، ومنصة الذكاء الاصطناعي الجيدة تجعل هذا الأمر متاحًا. يجب أن تكون هذه المنصات شفافة بشأن كيفية تخفيف الهلوسة.
استخدام RAG (التوليد المعزز للاسترجاع)

لا تجعل النموذج يعتمد على معرفته الخاصة. إن تزويد نموذجك بـ RAG يجعل من الواضح أن المعلومات متوفرة وأين يمكن العثور عليها.
من الأفضل تشغيل الذكاء الاصطناعي على نظام أساسي يحتوي على إرشادات بسيطة حول كيفية تنفيذ RAG الفعال.
إضافة تعليمات شاملة
إذا كنت قد سمعتها مرة واحدة فقد سمعتها ألف مرة: القمامة في الداخل، القمامة في الخارج.
"أجب عن سؤال المستخدم" لن يضمن لك النجاح. ومع ذلك، شيء مثل:
# التعليمات
يرجى الرجوع حصرياً إلى مستند الأسئلة الشائعة. إذا لم تظهر الإجابة هناك:
* أبلغ المستخدم بأدب أن المعلومات غير متوفرة.
* اعرض تصعيد المحادثة إلى وكيل بشري.
سيبقي وكيلك تحت المراقبة. المطالبة الواضحة مع وجود حواجز حماية صارمة هي أفضل دفاع لك ضد الوكيل المارق.
التحقق البشري
فيما يتعلق بموضوع التصعيد، وجود شخص مستعد لفحص وتقييم وسحق أوجه القصور في الذكاء الاصطناعي.
تتيح لك القدرة على تصعيد المحادثات أو التحقق من المحادثات بأثر رجعي معرفة ما يعمل وما هو عرضة للهلوسة. إن الإشراف البشري في الحلقة - أيالإشراف البشري على سير العمل القائم على الذكاء الاصطناعي - أمر لا بد منه هنا.
استخدم الذكاء الاصطناعي الخالي من الهلوسة اليوم
قد يؤدي عدم اليقين بشأن موثوقية الذكاء الاصطناعي إلى منع الشركات من التحول الرقمي.
إن إمكانيات BotpressRAG، والتكامل البشري في الحلقة، وأنظمة الأمان الشاملة تجعل الذكاء الاصطناعي آمناً وموثوقاً. يعمل وكيلك من أجلك، وليس العكس.
ابدأالبناء اليوم. إنه مجاني.