- อาการประสาทหลอนของ AI เกิดขึ้นเมื่อโมเดลสร้างข้อมูลเท็จหรือข้อมูลที่แต่งขึ้นอย่างมั่นใจ ซึ่งเกิดจากคุณภาพข้อมูลที่ไม่ดี การติดตั้งมากเกินไป หรือคำเตือนที่คลุมเครือ
- ภาพหลอนมีตั้งแต่ข้อเท็จจริงที่ผิดพลาดไปจนถึงเนื้อหาที่ถูกสร้างขึ้น และอาจส่งผลเสียต่อความไว้วางใจ สูญเสียธุรกิจเป็นพันล้าน หรือเผยแพร่ข้อมูลเท็จที่เป็นอันตราย
- ขั้นตอนการป้องกันที่สำคัญ ได้แก่ การเลือกแพลตฟอร์ม AI ที่เชื่อถือได้ การเพิ่มการสร้างเสริมการเรียกค้น (RAG) การสร้างคำเตือนที่แม่นยำ และการรวมการกำกับดูแลโดยมนุษย์
คุณคิดว่า Joaquin Phoenix จะตกหลุมรัก Scarlett Johansson ไหม หากเขาถามเธอว่า สตรอเบอร์รี่ มีตัว R กี่ตัว หากคุณใช้ LinkedIn คุณจะรู้ว่าคำตอบคือ 3 (หรือถ้าคุณอ่านออก)

แต่สำหรับ AI chatbots มันไม่ได้ง่ายเสมอไป
คุณอาจเคยเห็นผู้คนล้อเลียนความไร้สาระของภาพหลอนของ AI และเพื่อความยุติธรรม โมเดล AI ที่มีความรู้ที่ไม่มีที่สิ้นสุด ทักษะการใช้เหตุผลแบบมนุษย์ และการดำเนินการงานที่รวดเร็วทันใจที่ล้มเหลวในการแก้ปัญหาคณิตศาสตร์ระดับอนุบาลนั้น ถือว่าค่อนข้างไร้สาระ
แต่เบื้องหลังความสนุกสนานและเกมนั้น มีความจริงที่ร้ายแรงกว่านั้น และอาจเป็นอันตรายได้
ในบทความนี้ ฉันจะพูดถึงภาพหลอนจาก AI ว่าคืออะไร สาเหตุคืออะไร เหตุใดจึงสำคัญ และคุณสามารถป้องกันภาพหลอนเหล่านี้ได้อย่างไร
AI หลอนประสาทคืออะไร?
ภาพหลอนของ AI เกิดขึ้นเมื่อโมเดล AI นำเสนอข้อมูลที่ไม่ถูกต้อง หลอกลวง หรือสร้างขึ้นเองทั้งหมด ข้อมูลเท็จเหล่านี้อาจดูน่าเชื่อถือ และในหลายๆ กรณี อาจไม่ถูกจับได้
เพราะว่า LLMs ' การยอมรับอย่างแพร่หลาย ภาพหลอนมักถูกอ้างถึงในบริบทของโมเดลข้อความเชิงสร้างสรรค์ ในความเป็นจริง ภาพหลอนก่อให้เกิดความเสี่ยงต่อ การประยุกต์ใช้งาน Generative AI ใดๆ
อะไรทำให้เกิดอาการประสาทหลอนใน AI?
อาการประสาทหลอนของ AI เกิดขึ้นเมื่อโมเดลเรียนรู้รูปแบบเท็จ

รูปแบบ ในบริบทของ AI หมายถึงความสามารถในการใช้ตัวอย่างการฝึกเฉพาะบุคคลเพื่อ สรุปผล โดยรวมจากข้อมูลที่มองไม่เห็น ซึ่งอาจเป็นชุดคำเพื่อสร้าง ความต่อเนื่องของข้อความ หรือ การกระจายของพิกเซลของภาพ ที่สอดคล้องกับสุนัข
ในกรณีของ LLM ภาพหลอน แบบจำลองได้พิจารณาชุดคำที่เป็นไปได้มากที่สุดต่อคำกระตุ้นจากผู้ใช้ แม้ว่ามันจะไม่เป็นความจริงก็ตาม
อาจเกิดจากสาเหตุต่อไปนี้ประการหนึ่งหรือหลายประการ:
ข้อมูลการฝึกอบรมคุณภาพต่ำ

ChatGPT และสิ่งที่คล้ายกัน LLMs ได้รับการฝึกอบรมจากข้อมูลจำนวนมาก ข้อมูลเหล่านี้อาจมีมากมาย แต่ก็ไม่สมบูรณ์แบบเนื่องจาก:
- ช่องว่างในหัวข้อบางหัวข้อ
- สะท้อนอคติในโลกแห่งความเป็นจริง
- ข้อมูลที่ผิดพลาดโดยเจตนาหรือการเสียดสีที่ไม่ได้ระบุ
- ลำเอียง เช่น ข้อมูลไม่สมดุล หรือข้อมูลไม่สมดุล
พิจารณาสถานการณ์ที่แบบจำลองได้รับการฝึกอบรมจากข้อมูลเกี่ยวกับเทพเจ้ากรีกทั้งหมด ยกเว้นหนึ่งองค์
ความสามารถในการเชื่อมโยงทางสถิติระหว่างหัวข้อต่างๆ ที่คล้ายกับเทพนิยายกรีก เช่น ความรัก จริยธรรม การทรยศ อาจทำให้สามารถเชื่อมโยงตำนานที่แต่งขึ้นซึ่งถือว่า "เป็นไปได้" เข้าด้วยกันได้ เมื่อพิจารณาจากแบบจำลองทางสถิติ
สิ่งนี้ยังเห็นได้ชัดในการสร้างภาพ โดยส่วนใหญ่แล้ว ภาพที่มีผู้หญิงเป็นตัวแบบมักจะถูกเน้นเรื่องเพศมากเกินไป อคติ ต่อภาพประเภทใดประเภทหนึ่ง จะกำหนด ประเภทของภาพที่สร้างขึ้น
การสะกดคำว่า strawberry อาจเกิดขึ้นในข้อมูลการฝึกอบรมในบริบทของการอภิปรายเกี่ยวกับตัว R สองตัว ซึ่งเป็นปัญหาที่ทราบกันดีของผู้ที่ไม่ใช่เจ้าของภาษาอังกฤษ ในกรณีนี้ ตัวเลข 2 หรือคำว่า " double" มีแนวโน้มที่จะปรากฏขึ้นมาโดยเกี่ยวข้องกับการสะกดคำ
ในทางกลับกัน ไม่น่าเป็นไปได้ที่ข้อมูลจะกล่าวถึงว่ามี 3 R
ผลลัพธ์ที่ได้นั้นไร้สาระเพราะว่าคำเตือนคือ: ในสถานการณ์ใดจึงมีคนเขียนคำศัพท์แล้วสอบถามว่าสะกดอย่างไร
สถาปัตยกรรมแบบจำลองและวิธีการสร้าง
โมเดลเหล่านี้สร้างขึ้นจากสถาปัตยกรรม เครือข่ายประสาทเทียม ที่ซับซ้อนอย่างน่าตกตะลึง การเปลี่ยนแปลงเพียงเล็กน้อยอาจส่งผลต่อวิธีที่โมเดล โต้ตอบ กับ ข้อมูลการฝึก และ คำสั่ง อินพุต ความสามารถของโมเดลใน การบรรเทาภาพหลอน นั้นต้องได้รับ การปรับปรุงทีละน้อย ผ่าน การวิจัย และ การทดสอบ ที่เข้มงวด
ยิ่งไปกว่านั้นยังมีวิธีการนำรุ่นไปใช้อีกด้วย โดยแบบจำลองจะทำนายคำที่น่าจะตามมามากที่สุดทีละคำ (จริงๆ แล้ว คือคำต่อคำ ) ดังนี้:
“สุนัขจิ้งจอกสีน้ำตาลกระโดดข้าม___ที่ขี้เกียจ”

จะกำหนดคำถัดไปที่น่าจะเป็นไปได้มากที่สุดว่าคือ "dog" แต่คำอื่นๆ ก็เป็นไปได้เช่นกัน และการสร้างคำโดยพิจารณาจากคำถัดไปที่น่าจะเป็นไปได้มากที่สุดเพียงคำเดียวเท่านั้น จะให้ผลลัพธ์ที่ไม่น่าสนใจและคาดเดาได้
นั่นหมายความว่าจะต้องใช้วิธีการสุ่มตัวอย่างที่สร้างสรรค์เพื่อให้คำตอบน่าสนใจแต่ยังคงสอดคล้องกัน เมื่อทำเช่นนี้ ข้อเท็จจริงบางครั้งก็หลุดรอดไปได้
การโอเวอร์ฟิตติ้ง

การเกิดโอเวอร์ฟิตติ้งเกิดขึ้นเมื่อมีการฝึกโมเดลให้ทำนายข้อมูลที่ใกล้เคียงมากจนไม่สามารถสรุปเป็นข้อมูลอินพุตใหม่ได้
ดังนั้น หากฉันเป็นนางแบบ (ตามที่แม่ของฉันบอกว่าฉันควรจะเป็น) ฉันก็คงจะเป็นนางแบบที่ผ่านการฝึกฝนมาอย่างดี หากฉันสามารถจดจำสุนัขได้ดังนี้:
มีขน มีหูห้อย ขี้เล่น และมีจมูกสีน้ำตาลเล็กๆ
แต่ฉันคงจะฟิตเกินไปหากฉันรู้จักพวกเขาเพียงว่า:
มีจุดสีน้ำตาลอยู่ใต้คาง ตอบสนองต่อชื่อ "แฟรงค์" และเคี้ยวรองเท้า Nike ดีๆ ของฉันจนหมด
ในบริบทของ LLM โดยทั่วไปจะมีลักษณะเหมือนกับการย้อนข้อมูลที่เห็นในข้อมูลฝึกอบรม แทนที่จะถอยกลับเมื่อไม่ทราบคำตอบ
สมมติว่าคุณถามแชทบอทเกี่ยวกับนโยบายการคืนสินค้าของบริษัท หากแชทบอทไม่ทราบ แชทบอทควรแจ้งให้คุณทราบ แต่ถ้าแชทบอทเกินกำหนด แชทบอทอาจคืนนโยบายของบริษัทที่คล้ายคลึงกัน
การกระตุ้นที่ไม่ดี
บริษัทต่างๆ กำลังออกใบรับรองด้านวิศวกรรมที่รวดเร็วโดยตระหนักดีว่า AI จะมีประสิทธิภาพเท่ากับปัจจัยนำเข้าเท่านั้น
ข้อความแจ้งเตือนที่สร้างขึ้นอย่างดีจะต้องแสดงออกมาอย่างชัดเจน หลีกเลี่ยงคำศัพท์เฉพาะ และให้บริบทที่จำเป็นทั้งหมด
เนื่องจากภาพหลอนเกิดขึ้นที่ขอบของผลลัพธ์ที่มีความน่าจะเป็นต่ำหลายรายการ
ลองถามตัวเองว่า “เนื้อเรื่องของ Shark Girl คืออะไร” ตอนนี้มนุษย์ก็คิดว่า “ห๊ะ Shark Girl ” ในโลกสถิติ ความเป็นไปได้มีดังนี้:
- The Adventures of Sharkboy and Lavagirl – ภาพยนตร์เด็กยอดนิยมจากปี 2005 ที่มีชื่อคล้ายกัน
- ภาพยนตร์สยองขวัญ/ระทึกขวัญปี 2024 ชื่อ Shark Girl – ได้รับความนิยมน้อยลง แต่ใหม่กว่าและแม่นยำกว่า
- หนังสือสำหรับเด็กที่มีชื่อเดียวกัน ซึ่งออกเมื่อต้นปีนี้ – ซึ่งนายแบบอาจทำดัชนีไว้หรือไม่ก็ได้
สิ่งเหล่านี้ไม่ใช่ตัวเลือกที่ชัดเจน ส่งผลให้ การแจกแจงความน่าจะเป็น "แบนราบ" มากขึ้น โดยให้ความสำคัญกับหัวข้อหรือเรื่องราวใดเรื่องหนึ่งน้อยลง คำเตือนที่มีประสิทธิภาพมากขึ้นควรให้บริบท เช่น ระบุว่าผู้ใช้กำลังอ้างถึงตัวอย่างใด
ความคลุมเครือและความเกี่ยวข้องที่ไม่เกี่ยวข้องเหล่านี้ อาจสร้างการตอบสนองที่เป็นเพียงเรื่องราวทั่วๆ ไปที่สร้างขึ้นเกี่ยวกับเรื่องที่เกี่ยวข้องกับฉลาม
การลดโอกาสเกิดอาการประสาทหลอนคือการลดความไม่แน่นอน
ประเภทของภาพหลอนจาก AI
จนถึงตอนนี้ ฉันได้พูดถึงภาพหลอนอย่างคร่าวๆ แล้ว ความจริงก็คือ ภาพหลอนเกี่ยวข้องกับแทบทุกแง่มุมของ AI อย่างไรก็ตาม เพื่อความชัดเจน ควรพิจารณาถึงหมวดหมู่ต่างๆ
ข้อผิดพลาดเชิงข้อเท็จจริง
นี่คือจุดที่ตัวอย่างสตรอเบอร์รี่เข้ามาเกี่ยวข้อง มีข้อผิดพลาดในรายละเอียดของคำกล่าวที่เป็นข้อเท็จจริง ซึ่งอาจรวมถึงปีที่เหตุการณ์เกิดขึ้น เมืองหลวงของประเทศ หรือตัวเลขทางสถิติ

รายละเอียดเล็กๆ น้อยๆ ในการตอบสนองที่ดีอาจก่อให้เกิดอันตรายได้ โดยเฉพาะเมื่อเป็นรายละเอียดที่มนุษย์มักจำไม่ได้ เช่น ตัวเลขที่แน่นอน
เนื้อหาที่ถูกแต่งขึ้น
ในปี 2023 Bard แห่ง Google อ้างอย่างเท็จ ว่ากล้องโทรทรรศน์ James Webb ถูกใช้เพื่อถ่ายภาพดาวเคราะห์นอกระบบเป็นครั้งแรก ซึ่งเรื่องนี้ไม่ใช่เรื่องของความไม่ถูกต้องทางเทคนิค แต่เป็นความเท็จเท่านั้น
สิ่งเหล่านี้อาจเป็นข้ออ้างที่กล้าหาญเหมือนข้างต้น แต่ส่วนใหญ่มักจะปรากฏเป็น URL ที่ไม่มีการเชื่อมโยง หรือเป็นไลบรารีและฟังก์ชันโค้ดที่แต่งขึ้น
เป็นเรื่องที่น่าสังเกตว่าเส้นแบ่งระหว่างข้อผิดพลาดเชิงข้อเท็จจริงและเนื้อหาที่ถูกสร้างขึ้นนั้นไม่ชัดเจนเสมอไป
ลองนึกดูว่าเรากำลังพูดถึงนักวิจัยคนหนึ่ง ถ้าเราอ้างอิงเอกสารของนักวิจัยคนหนึ่งแต่ระบุปีผิด นั่นก็ถือว่าเป็นข้อผิดพลาดเชิงข้อเท็จจริง ถ้าเราระบุชื่อผิด จะเกิดอะไรขึ้น แล้วชื่อ และ ปีล่ะ
ข้อมูลที่ผิด
ข้อมูลนี้อาจเข้าข่าย 2 หมวดหมู่ข้างต้นก็ได้ แต่หมายถึงข้อมูลเท็จซึ่งมีแหล่งที่มาที่โปร่งใสกว่า
ตัวอย่างที่ดีของสิ่งนี้ก็คือ AI ของ Google ที่แนะนำการใช้กาวพิซซ่าและการกินหิน ซึ่งเนื้อหาต้นทางนั้นเป็นการเสียดสีอย่างเห็นได้ชัดและโดยทั่วไปแล้วไม่เป็นอันตรายใดๆ - ความคิดเห็นใน Reddit ที่เขียนโดย The Onion แต่การฝึกของโมเดลไม่ได้คำนึงถึงสิ่งนั้น

ความเสี่ยงจากภาพหลอนของ AI
1. การสูญเสียความไว้วางใจ
เราชื่นชมกับอิสระในการโอนภาระงานของเราให้กับ AI แต่ไม่ใช่ด้วยการแลกกับความไว้วางใจของเรา
ความผิดพลาดล่าสุดของ Cursor AI คือ บอทฝ่ายบริการลูกค้าคิดค้นนโยบายที่เข้มงวดขึ้น ทำให้ผู้ใช้จำนวนมากยกเลิกการสมัครสมาชิกของตน โดยตั้งคำถามถึงความน่าเชื่อถือของมัน
2. ค่าใช้จ่าย
AI เข้ามามีบทบาทสำคัญมากในธุรกิจหลายแห่ง และแม้ว่าจะเป็นเรื่องดี แต่ความผิดพลาดก็อาจก่อให้เกิดต้นทุนมหาศาลได้
ภาพหลอนของเจมส์ เวบบ์ ของ Google ทำให้ราคาหุ้นของ Alphabet ร่วงลง 100,000 ล้านดอลลาร์ ภายในเวลาไม่กี่ชั่วโมง และนั่นยังไม่รวมค่าใช้จ่ายในการฝึกโมเดลใหม่
3. ข้อมูลเท็จที่เป็นอันตราย
เราหัวเราะกับความไร้สาระของพิซซ่ากาว แต่แล้ว ปริมาณยาที่ให้มาอย่างเข้าใจผิด ล่ะ ?
ฉันจะเป็นคนแรกที่จะอ่านคำเตือนด้วยตัวอักษรเล็กๆ น้อยๆ แล้วได้คำตอบจาก AI อย่างรวดเร็ว แต่จะเกิดอะไรขึ้นถ้ามันผิดล่ะ? มันแทบจะไม่มีทางอธิบายอาการป่วยทั้งหมดได้อย่างแน่นอน
3. ความปลอดภัยและมัลแวร์
ดังที่กล่าวไว้ AI มักจะตั้งชื่อไลบรารีโค้ดขึ้นมาเอง เมื่อคุณพยายามติดตั้งไลบรารีที่ไม่มีอยู่จริง ก็ไม่มีอะไรเกิดขึ้น
ลองนึกภาพว่าแฮกเกอร์ฝังมัลแวร์ลงในโค้ดและอัปโหลดภายใต้ชื่อไลบรารีที่มักเกิดอาการหลอน คุณติดตั้งไลบรารีนั้น และ 💨 ปุ๊บ 💨 คุณถูกแฮ็ก
สิ่งนี้มีอยู่จริง และเรียกว่า การนั่งยองๆ
หากไม่นับชื่อที่ดูไม่น่าเชื่อถือ การวิจารณ์สิ่งที่คุณกำลังติดตั้งและตรวจสอบชื่อไลบรารีที่ฟังดูแปลกๆ อีกครั้งก็ไม่ใช่เรื่องเสียหาย
ขั้นตอนในการป้องกันภาพหลอนจาก AI
หากคุณไม่ได้ฝึกอบรมโมเดล คุณก็แทบจะทำอะไรกับข้อมูลและสถาปัตยกรรมไม่ได้เลย
ข่าวดีก็คือ ยังคงมีข้อควรระวังที่คุณสามารถทำได้ และมาตรการเหล่านี้อาจสร้างความแตกต่างในการจัดส่ง AI ที่ปราศจากภาพหลอนได้
เลือกโมเดลและแพลตฟอร์มที่คุณวางใจได้
คุณไม่ได้อยู่คนเดียว บริษัท AI ให้ความสำคัญกับการรักษาความไว้วางใจ และนั่นหมายความว่าจะไม่มีภาพหลอนใดๆ
ขึ้นอยู่กับสิ่งที่คุณทำกับ AI คุณมักจะมีตัวเลือกอย่างน้อยสองสามตัวเลือกเสมอ และ แพลตฟอร์ม AI ที่ดีจะทำให้สิ่งนี้เข้าถึงได้ แพลตฟอร์มเหล่านี้ควรโปร่งใสเกี่ยวกับ วิธีบรรเทาภาพหลอน
ใช้ RAG (Retrieval-Augmented Generation)

อย่าให้โมเดลต้องพึ่งพาความรู้ของตัวเอง การติดตั้ง RAG ลงในโมเดลจะทำให้เห็นชัดเจนว่ามีข้อมูลใดบ้างและจะหาได้จากที่ใด
วิธีที่ดีที่สุดคือการรัน AI บนแพลตฟอร์มที่มีคำแนะนำง่ายๆ เกี่ยวกับ วิธีการนำ RAG ที่มีประสิทธิภาพมาใช้
เพิ่มคำแนะนำอย่างละเอียด
ถ้าคุณเคยได้ยินคำนี้ครั้งหนึ่ง คุณคงได้ยินไปแล้วเป็นพันครั้ง: ขยะเข้า ขยะออก
“ตอบคำถามของผู้ใช้” ไม่ได้รับประกันความสำเร็จ อย่างไรก็ตาม มีบางอย่างเช่น:
# คำแนะนำ
โปรดดูเฉพาะเอกสารคำถามที่พบบ่อยเท่านั้น หากไม่พบคำตอบ: * แจ้งให้ผู้ใช้งานทราบอย่างสุภาพว่าข้อมูลไม่พร้อมใช้งาน * เสนอที่จะยกระดับการสนทนาไปยังเจ้าหน้าที่ที่เป็นมนุษย์
จะทำให้ตัวแทนของคุณอยู่ในการควบคุม การแจ้งเตือนที่ชัดเจนพร้อมรั้วป้องกันที่มั่นคงเป็นแนวทางป้องกันที่ดีที่สุดของคุณต่อตัวแทนที่ไม่น่าไว้ใจ
การตรวจสอบความเป็นมนุษย์
ในหัวข้อการยกระดับ การมีบุคลากรที่พร้อมจะตรวจสอบ ประเมิน และแก้ไขข้อบกพร่องของ AI
ความสามารถในการยกระดับหรือตรวจสอบการสนทนาย้อนหลังช่วยให้คุณระบุได้ว่าอะไรได้ผลและอะไรเสี่ยงต่ออาการประสาทหลอน ต้อง มี มนุษย์คอยดูแล – การดูแลของมนุษย์ต่อเวิร์กโฟลว์ที่ขับเคลื่อนโดย AI –
ใช้ AI ที่ปราศจากภาพหลอนวันนี้
ความไม่แน่นอนเกี่ยวกับความน่าเชื่อถือของ AI อาจทำให้ธุรกิจไม่สามารถเปลี่ยนแปลงสู่ดิจิทัลได้
Botpress ความสามารถของ RAG การบูรณาการของมนุษย์ และระบบรักษาความปลอดภัยที่ครอบคลุมทำให้ AI ปลอดภัยและเชื่อถือได้ ตัวแทนของคุณทำงาน เพื่อคุณ ไม่ใช่ในทางกลับกัน
เริ่มสร้างวันนี้ ฟรี