LLMs กำลังเปลี่ยนแปลงวิธีการสร้างโซลูชัน AI ของเรา มีการเปิดตัวรุ่นใหม่และดีกว่าที่วางจำหน่ายทั่วไปอยู่ตลอดเวลา
คำถามที่ฉันมักถูกถามคือทำไมบางคนถึงเลือกใช้แบบกำหนดเอง LLM แทนที่จะเป็นโซลูชั่นสำเร็จรูป?
หากคุณกำลังทำงานเกี่ยวกับโครงการ AI เช่น การสร้างตัวแทน AI หรือแชทบอท AI คุณอาจเลือกใช้โมเดลภาษาขนาดใหญ่ที่กำหนดเองได้ ( LLM -
มีเหตุผลมากมายในการใช้แบบกำหนดเอง LLM และมีตัวเลือกมากมายให้คุณเลือกใช้ ในบทความนี้ ฉันจะแนะนำวิธีต่างๆ ในการปรับแต่ง LLM สำหรับโครงการ AI
เหตุใดจึงต้องใช้แบบกำหนดเอง LLM -
มีเหตุผลหลายประการในการใช้แบบกำหนดเอง LLM -
- คุณต้องการลดต้นทุนด้วยการมุ่งเน้นที่งานเฉพาะที่สำคัญสำหรับกรณีการใช้งานทางธุรกิจของคุณหรือลดเวลาแฝงให้เหลือน้อยที่สุด
- คุณอาจต้องการเก็บข้อมูลทั้งหมดเป็นส่วนตัวหรือใช้ข้อมูลภายในบริษัทของคุณ LLM -
- คุณอาจต้องการปรับปรุงคุณภาพคำตอบสำหรับงานเฉพาะอย่างหนึ่ง
ไม่ว่าด้วยเหตุผลใดก็ตาม การปรับแต่งของคุณ LLM ช่วยให้คุณเพิ่มประสิทธิภาพการทำงาน สมดุลความแม่นยำ ความเร็ว และต้นทุนให้เหมาะกับความต้องการทางธุรกิจของคุณ
การหยิบ LLM
LLMs มีคุณสมบัติ 2 ประการที่ส่งผลกระทบต่อโครงการ AI: ขนาดของโครงการ (วัดโดยจำนวนพารามิเตอร์) และคุณภาพของการตอบสนอง
คุณสามารถคิดถึงพารามิเตอร์ต่างๆ เช่น เซลล์ประสาทในสมอง สมองที่ใหญ่ขึ้นมักสัมพันธ์กับความฉลาด แต่นั่นไม่ใช่ความจริงเสมอไป และส่วนต่างๆ ของสมองสามารถปรับให้เหมาะสมสำหรับงานบางอย่าง เช่น การมองเห็น
สำหรับโครงการ AI ขนาดมักส่งผลต่อความเร็วในการตอบสนอง และส่งผลอย่างมากต่อต้นทุนการตอบสนอง โครงการที่ต้องการความหน่วงเวลาต่ำมักใช้โมเดลที่เล็กกว่า แต่ต้องแลกมาด้วยคุณภาพของการตอบสนอง
สิ่งที่ต้องถามเมื่อเลือกโมเดล
นี่คือรายการคำถามที่ดีที่ควรจะตอบได้เมื่อเลือกโมเดล:
- ฉันสามารถใช้ระบบคลาวด์ได้หรือไม่ LLM หรือฉันจำเป็นต้องโฮสต์เองไหม?
- ฉันต้องการให้ตอบกลับเร็วแค่ไหน?
- ฉันจำเป็นต้องให้คำตอบแม่นยำขนาดไหน
- โครงการของฉันจะประหยัดและ/หรือสร้างรายได้ได้เท่าไร แล้วราคาจะต่ำกว่าเท่าไร?
- ฉันต้องใช้เวลานานเพียงใดจึงจะตอบกลับ?
โดยทั่วไปแล้ว การเร่งความเร็วของโมเดลที่มีประสิทธิภาพหรือลดต้นทุนเป็นเรื่องยาก แต่การปรับปรุงโมเดลที่แม่นยำน้อยกว่านั้นทำได้ง่ายกว่า
อย่างไรก็ตาม การเริ่มต้นด้วยโมเดลที่มีประสิทธิภาพนั้นเร็วกว่ามาก และหากโมเดลนั้นตอบโจทย์ความต้องการของโครงการของคุณได้ คุณอาจไม่ต้องใช้ความพยายามทางวิศวกรรมมากนัก (อีกทั้งยังดูแลรักษาง่ายกว่าอีกด้วย)
การเลือกใช้ระหว่าง RAG, การปรับแต่งอย่างละเอียด, การเรียนรู้แบบ N-Shot และวิศวกรรมที่รวดเร็ว
มีแนวคิดทั่วไป 5 ประการที่ช่วยปรับปรุงคุณภาพของ LLM ตอบกลับ:
- เริ่มต้นจากแบบจำลองที่ผ่านการฝึกอบรมล่วงหน้า
- ผ้าขี้ริ้ว
- การปรับแต่งอย่างละเอียด
- การกระตุ้นแบบ N-shot
- วิศวกรรมทันท่วงที
สิ่งเหล่านี้ไม่ได้เจาะจงเฉพาะกับการใช้โมเดลที่กำหนดเอง แต่คุณควรพิจารณาไม่ว่าจะอย่างไรก็ตาม เนื่องจากสิ่งเหล่านี้ทำงานควบคู่กัน
เริ่มต้นจากแบบจำลอง
สิ่งแรกที่คุณควรทำคือเลือกโมเดลเริ่มต้น มีกระดานผู้นำออนไลน์มากมายที่เปรียบเทียบโมเดลต่างๆ
เช่น:
- Hugging Face รักษา อันดับผู้นำสำหรับโมเดลโอเพนซอร์ส
- Vellum มี รุ่นยอดนิยมให้เลือกมากมาย
หากบริษัทของคุณมีโมเดลภายในองค์กร ให้พิจารณาใช้โมเดลดังกล่าวเพื่อทำงานตามงบประมาณของคุณและรักษาความเป็นส่วนตัวของข้อมูล หากคุณจำเป็นต้องโฮสต์โมเดลด้วยตนเอง ให้พิจารณา ใช้โมเดลโอเพนซอร์ส
การปรับแต่งอย่างละเอียด
การปรับปรุงให้ละเอียดเกี่ยวข้องกับการให้ตัวอย่างแก่โมเดลของคุณเพื่อให้เรียนรู้วิธีการทำงานบางอย่างได้ดี หากคุณต้องการให้โมเดลของคุณโดดเด่นในการพูดถึงผลิตภัณฑ์ของคุณ คุณอาจให้ตัวอย่างการโทรขายที่ดีที่สุดของบริษัทของคุณ
หากโมเดลเป็นโอเพ่นซอร์ส ให้ถามตัวเองว่าทีมของคุณมีความสามารถด้านวิศวกรรมเพียงพอที่จะปรับแต่งโมเดลหรือไม่
หากโมเดลเป็นแหล่งข้อมูลปิดและให้บริการ – GPT -4 หรือ Claude – จากนั้นคุณสามารถให้วิศวกรของคุณปรับแต่งโมเดลที่กำหนดเองโดยใช้ API ได้ โดยปกติแล้วราคาจะเพิ่มขึ้นอย่างมากเมื่อใช้วิธีนี้ แต่แทบจะไม่ต้องบำรุงรักษาเลย
แต่สำหรับกรณีการใช้งานหลายๆ กรณี การปรับแต่งไม่ใช่ขั้นตอนแรกในการปรับปรุงโมเดลของคุณให้เหมาะสมที่สุด
ตัวอย่างที่ดีสำหรับการปรับแต่งคือการสร้างบอทความรู้สำหรับความรู้คงที่ โดยการให้ตัวอย่างคำถามและคำตอบ บอทควรจะสามารถตอบคำถามเหล่านั้นได้ในอนาคตโดยไม่ต้องค้นหาคำตอบ แต่ไม่ใช่วิธีแก้ปัญหาที่ใช้งานได้จริงสำหรับข้อมูลแบบเรียลไทม์
การสร้างเสริมการค้นคืน
RAG เป็นชื่อที่เก๋ไก๋สำหรับสิ่งเรียบง่ายที่เราทุกคนเคยทำ ChatGPT : การวางข้อความบางอย่างลงใน ChatGPT และถามคำถามเกี่ยวกับเรื่องนี้
ตัวอย่างทั่วไปคือการถามว่ามีผลิตภัณฑ์บางอย่างอยู่ในสต็อกบนเว็บไซต์อีคอมเมิร์ซหรือไม่ และแชทบอทค้นหาข้อมูลในแคตตาล็อกผลิตภัณฑ์ (แทนที่จะใช้อินเทอร์เน็ตที่กว้างขวางกว่า)
ในด้านความเร็วในการพัฒนาและการได้รับข้อมูลแบบเรียลไทม์ RAG เป็นสิ่งที่ต้องมี
โดยปกติแล้วมันจะไม่ส่งผลต่อรุ่นที่คุณจะเลือก อย่างไรก็ตาม ไม่มีอะไรที่จะหยุดคุณจากการสร้าง LLM จุดสิ้นสุด API ที่สอบถามข้อมูลและคำตอบและใช้จุดสิ้นสุดนี้ราวกับว่าเป็นของตัวเอง LLM -
การใช้ RAG สำหรับแชทบอทที่ใช้ความรู้มักจะดูแลรักษาง่ายกว่า เพราะคุณไม่จำเป็นต้องปรับแต่งโมเดลและอัปเดตให้ทันสมัยอยู่เสมอ ซึ่งยังสามารถช่วยลดต้นทุนได้อีกด้วย
การเรียนรู้แบบ N-shot
วิธีที่เร็วที่สุดในการเริ่มต้นในการปรับปรุงคุณภาพของการตอบสนองคือการให้ตัวอย่างในรูปแบบเดียว LLM การเรียก API
Zero-shot – การให้ตัวอย่างศูนย์ของสิ่งที่คุณกำลังมองหาในคำตอบ – เป็นวิธีที่พวกเราส่วนใหญ่ใช้ ChatGPT การเพิ่มตัวอย่างหนึ่งตัวอย่าง (หรือแบบช็อตเดียว) มักจะเพียงพอที่จะเห็นการปรับปรุงที่สำคัญในคุณภาพการตอบสนอง
การมีตัวอย่างมากกว่าหนึ่งตัวอย่างถือเป็น n-shot n-shot จะไม่เปลี่ยนโมเดล ซึ่งแตกต่างจากการปรับแต่งอย่างละเอียด คุณเพียงแค่ยกตัวอย่างก่อนที่จะขอคำตอบทุกครั้งที่คุณถามคำถาม
แต่กลยุทธ์นี้ไม่สามารถใช้มากเกินไปได้: LLM โมเดลมีขนาดบริบทสูงสุดและมีราคาตามขนาดของข้อความ การปรับแต่งอย่างละเอียดจะช่วยลดความจำเป็นในการใช้ตัวอย่างแบบ n-shot แต่จะใช้เวลานานกว่าจึงจะออกมาถูกต้อง
เทคนิควิศวกรรมแจ้งเตือนอื่น ๆ
มีเทคนิคทางวิศวกรรมที่รวดเร็วอื่นๆ เช่น ลำดับความคิด ที่บังคับให้โมเดลคิดดังๆ ก่อนที่จะคิดหาคำตอบ
วิธีนี้จะเพิ่มคุณภาพของการตอบสนองแต่ต้องแลกมาด้วยความยาว ค่าใช้จ่าย และความเร็วของการตอบสนอง
คำแนะนำของฉัน
แม้ว่าแต่ละโครงการจะมีความต้องการเฉพาะของตัวเอง แต่ฉันก็จะเสนอแนะแนวทางที่แข็งแกร่ง
จุดเริ่มต้นที่ดีคือการใช้โมเดลสำเร็จรูปที่สร้างสมดุลระหว่างความเร็วและคุณภาพ เช่น GPT -4o Mini เริ่มต้นด้วยการดูคุณภาพของการตอบสนอง ความเร็วในการตอบสนอง ต้นทุน ความต้องการของหน้าต่างบริบท และตัดสินใจว่าต้องปรับปรุงอะไรจากตรงนั้น
จากนั้น ด้วยกรณีการใช้งานที่จำกัด คุณสามารถลองวิศวกรรมคำสั่งง่ายๆ ตามด้วย RAG และสุดท้ายปรับแต่งอย่างละเอียด โมเดลทุกตัวที่ผ่านกระบวนการเหล่านี้จะมีประสิทธิภาพที่ดีขึ้น ดังนั้นการตัดสินใจว่าจะใช้กระบวนการใดจึงอาจเป็นเรื่องยาก
การพิจารณาความเป็นส่วนตัว
ในโลกที่สมบูรณ์แบบทุกๆ LLM จะอยู่ภายใต้การควบคุมของคุณ 100% และจะไม่มีอะไรถูกเปิดเผยที่ไหนเลย
น่าเสียดายที่นี่ไม่ใช่สิ่งที่เราสังเกตเห็นในทางปฏิบัติ และมีเหตุผลดีๆ มากมาย
ประการแรกนั้นง่ายมาก นั่นคือ ต้องมีการออกแบบทางวิศวกรรมเพื่อโฮสต์และบำรุงรักษาโมเดลที่กำหนดเอง ซึ่งมีค่าใช้จ่ายสูงมาก เมื่อโมเดลที่โฮสต์ประสบปัญหาหยุดทำงาน เมตริกทางธุรกิจจะได้รับผลกระทบ ดังนั้นการปรับใช้จึงควรมีความแข็งแกร่งมาก
อีกเหตุผลหนึ่งก็คือผู้นำในอุตสาหกรรม เช่น OpenAI Google และ Anthropic ต่างเปิดตัวโมเดลใหม่ๆ ที่มีประสิทธิภาพมากขึ้นและราคาถูกกว่าอยู่เสมอ ซึ่งทำให้การปรับแต่งใดๆ ก็ตามไม่จำเป็นอีกต่อไป ซึ่งเป็นเช่นนี้มาตั้งแต่มีการเปิดตัว ChatGPT 3.5 และไม่มีทีท่าจะเปลี่ยนแปลง
หากกรณีการใช้งานของคุณมีข้อมูลที่ละเอียดอ่อนมาก ก็ควรใช้โมเดลและปรับให้เหมาะสมกับกรณีการใช้งานของคุณ หาก GDPR เป็นสิ่งสำคัญที่สุด ก็มี โมเดลสำเร็จรูปมากมายที่สอดคล้องกับ GDPR
สร้างขึ้นหลังจากเลือกของคุณ LLM
เมื่อคุณได้เลือกแล้ว LLM คุณสามารถเริ่มต้นคิดหาวิธีสร้างและดูแลโครงการ AI ของคุณ ตัวอย่างเช่น ฉันจะใช้ประเภทของโครงการที่ฉันคุ้นเคยที่สุด: ตัวแทน AI หรือ แชทบอท AI
คุณสามารถตอบคำถามต่อไปนี้เพื่อกำหนดขอบเขตของโครงการของคุณ:
- ฉันอยากให้เอเจนต์ AI ของฉันอาศัยอยู่ที่ไหน ( Slack - WhatsApp , วิดเจ็ตเว็บไซต์ ฯลฯ)
- ควรมีความรู้แบบไหน ความรู้เหล่านั้นอยู่ที่ไหน?
- ควรมีความสามารถอื่นใดนอกจากการตอบคำถามด้วยความรู้ (หากมี)?
- ควรมีการเปิดใช้งานเมื่อเกิดอะไรขึ้นที่ใดที่หนึ่งในธุรกิจหรือไม่?
ถ่ายโอนวิศวกรรมเพื่อประหยัดเงิน $
การกำหนดงบประมาณให้เหมาะสมถือเป็นสิ่งสำคัญในการทำให้โครงการของคุณเป็นจริง วิธีหนึ่งที่คุณสามารถทำได้คือการลดเวลาการทำงานด้านวิศวกรรมโดยแยกข้อกำหนดต่างๆ ออกจากกัน
ปัจจุบันเราสามารถเข้าถึงโซลูชันแบบ low-code เช่น Flutterflow, Shopify ซึ่งสามารถใช้โดยบทบาทที่ไม่ใช่ด้านเทคนิคเช่นผู้จัดการผลิตภัณฑ์ Chatbots ก็ไม่มีข้อยกเว้น และ แพลตฟอร์มอัตโนมัติ AI บางตัวยังอนุญาตให้คุณใช้ LLM ของคุณเองอีกด้วย
คุณสามารถสั่งวิศวกรให้มุ่งเน้นการโฮสต์ LLM และการตั้งค่าด้วยแพลตฟอร์มอัตโนมัติ ซึ่งจะช่วยให้นักวิเคราะห์ธุรกิจ ผู้จัดการผลิตภัณฑ์ และบทบาทอื่นๆ ที่เกี่ยวข้องมีอิสระในการสร้างตัวแทน AI ที่ตอบสนองความต้องการทางธุรกิจ
เมื่อจำเป็นต้องมีบางอย่างเพิ่มเติม แพลตฟอร์มเหล่านี้มักจะมีช่องทางให้วิศวกรเพิ่มโค้ดบางส่วนเข้าไป วิธีนี้ช่วยให้คุณยังคงได้เปรียบจากโมเดลที่กำหนดเอง และยังได้รับความยืดหยุ่น ความเร็ว และราคาที่เอื้อมถึง
ให้เสรีภาพด้านวิศวกรรมเพื่อแก้ไขปัญหาทางธุรกิจ
ในทางกลับกัน บางครั้งปัญหาทางธุรกิจก็ยากที่จะแก้ไข
เรากำลังพูดถึงช่องว่างเครือข่ายเต็มรูปแบบ LLM แอปพลิเคชัน แอปพลิเคชันบนอุปกรณ์ หรือโปรเจ็กต์ที่ต้องการให้แชทบอทมีความสามารถขั้นสูงมากกว่าการซิงค์ข้อมูลระหว่างสองแพลตฟอร์ม
ในกรณีดังกล่าว การอนุญาตให้วิศวกรมีอิสระในการใช้เครื่องมือใดๆ ก็ได้ที่พวกเขาถนัดถือเป็นเรื่องสมเหตุสมผล โดยปกติแล้วนี่เป็นเพียงการเขียนโค้ด และผู้มีส่วนได้ส่วนเสียทำหน้าที่เป็นผู้จัดการโครงการเท่านั้น
การพิจารณาเชิงกลยุทธ์สำหรับการปรับแต่ง LLM
การเลือกใช้แบบกำหนดเอง LLM เพราะโครงการ AI ของคุณไม่ใช่แค่การเลือกโมเดลที่ดีที่สุดเท่านั้น แต่เป็นการตัดสินใจเชิงกลยุทธ์ที่สอดคล้องกับเป้าหมายของคุณ
โมเดลที่กำหนดเองนั้นมีความยืดหยุ่น สามารถควบคุมได้ และมีศักยภาพในการเพิ่มประสิทธิภาพสำหรับงานเฉพาะ แต่ก็มีความซับซ้อนเพิ่มขึ้นด้วยเช่นกัน เริ่มต้นด้วยโมเดลสำเร็จรูป ทดลองใช้วิศวกรรมที่รวดเร็ว แล้วค่อยๆ ปรับแต่งจากตรงนั้น
จำไว้ว่าโมเดลที่ถูกต้องควรตอบสนองความต้องการทางธุรกิจของคุณ ไม่ใช่แค่เทคโนโลยีของคุณเท่านั้น stack -
ปรับแต่งด้วยแพลตฟอร์มอันทรงพลัง
พร้อมที่จะยกระดับโครงการ AI ของคุณขึ้นไปอีกขั้นหรือยัง?
Botpress เป็นแพลตฟอร์มตัวแทน AI ที่ขยายได้และยืดหยุ่นได้อย่างเต็มที่ stack ช่วยให้นักพัฒนาสามารถสร้างแชทบอทและตัวแทน AI สำหรับกรณีการใช้งานที่เป็นไปได้ทุกกรณี
เรามีแพลตฟอร์มการศึกษาที่แข็งแกร่ง Botpress Academyรวมถึง ช่อง YouTube โดยละเอียด ของเรา Discord โฮสต์ผู้สร้างบอทมากกว่า 20,000+ รายการ คุณจึงสามารถรับการสนับสนุนที่ต้องการได้ตลอดเวลา
เริ่มสร้างวันนี้ มันฟรี.
สารบัญ
ติดตามข่าวสารล่าสุดเกี่ยวกับตัวแทน AI
แบ่งปันสิ่งนี้บน: