แม้คุณจะใช้งานเป็นประจำ คุณอาจยังมีคำถามว่า ChatGPT ทำงานอย่างไร
มาดูเบื้องหลังของ AI chatbot ที่ได้รับความนิยมมากที่สุดในโลกกัน
ภาพรวม: ChatGPT ทำงานอย่างไร
ถ้าคุณมีเวลาแค่ 20 วินาที นี่คือวิธีการทำงานของ ChatGPT:
- คุณส่งคำขอ เช่น ‘กรุณาเขียนอีเมล’
- ChatGPT จะแยกข้อความที่ได้รับออกเป็นโทเคนเพื่อประมวลผล
- ใช้ NLP เพื่อวิเคราะห์ข้อความและเข้าใจบริบท
- คาดเดาคำถัดไปโดยอาศัยรูปแบบที่เรียนรู้จากข้อมูลฝึกสอน
- โฟกัสเฉพาะส่วนที่เกี่ยวข้องมากที่สุดของข้อความคุณ (ด้วยกลไก attention)
- ChatGPT สร้างคำตอบแบบทีละคำจนจบ แล้วส่งกลับมาให้คุณ
นี่คือขั้นตอนพื้นฐานที่ ChatGPT ใช้รับและตอบคำถาม
GPT ย่อมาจากอะไร?
GPT ใน ChatGPT ย่อมาจาก ‘generative pre-trained transformer’ ซึ่งแต่ละส่วนสำคัญต่อการเข้าใจวิธีการทำงานของ ChatGPT
1. Generative (สร้างสรรค์)
ChatGPT เป็นโมเดล AI แบบสร้างสรรค์ – สามารถสร้างข้อความ โค้ด รูปภาพ และเสียง ตัวอย่างอื่นของ AI แบบนี้ เช่น เครื่องมือสร้างภาพอย่าง DALL-E หรือโปรแกรมสร้างเสียง
2. Pre-Trained (ผ่านการฝึกสอนล่วงหน้า)
ส่วนที่เรียกว่า ‘ฝึกฝนล่วงหน้า’ ของ ChatGPT คือเหตุผลที่มันดูเหมือนรู้ทุกอย่างบนอินเทอร์เน็ต โมเดล GPT ถูกฝึกด้วยข้อมูลจำนวนมหาศาลในกระบวนการที่เรียกว่า ‘unsupervised learning’
ก่อน ChatGPT โมเดล AI มักถูกสร้างด้วยการเรียนรู้แบบมีผู้สอน – โดยให้ข้อมูลอินพุตและเอาต์พุตที่ระบุชัดเจน แล้วสอนให้จับคู่กัน กระบวนการนี้ค่อนข้างช้าเพราะต้องใช้มนุษย์เตรียมชุดข้อมูล
เมื่อโมเดล GPT รุ่นแรก ๆ ได้รับข้อมูลขนาดใหญ่ที่ใช้ฝึก มันก็ซึมซับรูปแบบภาษาและความหมายจากแหล่งข้อมูลหลากหลาย
นี่คือเหตุผลที่ ChatGPT เป็นแชทบอทความรู้ทั่วไป – เพราะได้รับการฝึกฝนกับชุดข้อมูลขนาดใหญ่ก่อนเปิดให้สาธารณะใช้งาน
ผู้ใช้ที่ต้องการฝึกสอน GPT เพิ่มเติมให้เชี่ยวชาญงานเฉพาะ เช่น การเขียนรายงานสำหรับองค์กรของคุณเอง สามารถใช้ เทคนิคปรับแต่ง LLM ได้
3. Transformer (ทรานส์ฟอร์เมอร์)
ทรานส์ฟอร์เมอร์เป็นสถาปัตยกรรมโครงข่ายประสาทเทียมที่นำเสนอในงานวิจัยปี 2017 ชื่อ "Attention is All You Need" โดย Vaswani และคณะ ก่อนหน้านี้ โมเดลอย่าง recurrent neural networks (RNNs) และ long short-term memory (LSTM) มักใช้ประมวลผลข้อความ
RNNs และ LSTM จะอ่านข้อความทีละลำดับเหมือนมนุษย์ แต่สถาปัตยกรรมทรานส์ฟอร์เมอร์สามารถประมวลผลและประเมินแต่ละคำในประโยคพร้อมกัน ทำให้สามารถให้คะแนนความสำคัญของคำบางคำได้ แม้จะอยู่กลางหรือท้ายประโยคก็ตาม สิ่งนี้เรียกว่า self-attention mechanism
เช่นประโยค: “The mouse couldn’t fit in the cage because it was too big.”
ทรานส์ฟอร์เมอร์สามารถให้คะแนนคำว่า ‘mouse’ ว่าสำคัญกว่าคำว่า ‘cage’ และระบุได้ถูกต้องว่า ‘it’ ในประโยคหมายถึง mouse
แต่โมเดลอย่าง RNN อาจตีความว่า ‘it’ หมายถึง cage เพราะเป็นคำนามที่เพิ่งประมวลผลล่าสุด
ส่วน ‘ทรานส์ฟอร์เมอร์’ นี้เองที่ทำให้ ChatGPT เข้าใจบริบทและตอบสนองได้ชาญฉลาดกว่ารุ่นก่อน ๆ
การประมวลผลภาษาธรรมชาติ
ส่วนหนึ่งที่ทำให้ ChatGPT ดูเหมือนเวทมนตร์ คือการใช้ การประมวลผลภาษาธรรมชาติ จึงสามารถสนทนากับเราได้ เพราะเข้าใจและประมวลผลภาษามนุษย์ได้
การประมวลผลภาษาธรรมชาติคืออะไร?
การประมวลผลภาษาธรรมชาติ (NLP) เป็นแขนงหนึ่งของปัญญาประดิษฐ์ที่เน้นการโต้ตอบระหว่างคอมพิวเตอร์กับมนุษย์ผ่านภาษาธรรมชาติ
มันทำให้เครื่องจักรเข้าใจ ตีความ และสร้างภาษามนุษย์ในแบบที่มีความหมายและเป็นประโยชน์
NLP vs NLU vs NLG
NLP เป็นสาขาหลักที่ครอบคลุมแขนงย่อยต่าง ๆ เช่น การเข้าใจภาษาธรรมชาติ (NLU) และการสร้างภาษาธรรมชาติ (NLG)
NLP คือขอบเขตหลัก ส่วน NLU และ NLG คือแขนงเฉพาะทาง เพราะการประมวลผลภาษาต้องประกอบด้วยทั้งการเข้าใจและการสร้างข้อความในการสนทนา
NLP ทำงานอย่างไร?
NLU จะแยกวิเคราะห์ภาษามนุษย์เพื่อแปลความหมายและเจตนา โดยมีขั้นตอนดังนี้:
- ข้อความจะถูกเตรียมข้อมูลล่วงหน้า เช่น ลบเครื่องหมายวรรคตอนหรือคำที่ไม่จำเป็นออก
- ระบบจะระบุองค์ประกอบสำคัญ เช่น entity, คำสำคัญ และวลีจากข้อความ
- วิเคราะห์โครงสร้างประโยคเพื่อเข้าใจความสัมพันธ์ระหว่างคำและแนวคิด
- โมเดล NLU จะจับคู่สิ่งที่ตรวจพบกับเจตนาหรือเป้าหมายเฉพาะ
- เอ็นจิ้น NLU จะปรับความเข้าใจตามบริบทและประวัติการโต้ตอบของผู้ใช้
ระบบจะให้ผลลัพธ์ที่มีโครงสร้างเพื่อใช้กระตุ้นการดำเนินการหรือการตอบกลับที่เหมาะสม
กระบวนการฝึกสอน ChatGPT
ChatGPT ถูกฝึกสอนด้วยกระบวนการสองขั้นตอน: การฝึกสอนเบื้องต้นและการปรับแต่ง
Pre-training
ขั้นแรก โมเดล AI จะได้รับข้อมูลข้อความจำนวนมากจากหนังสือ เว็บไซต์ และไฟล์ต่าง ๆ
ระหว่างการฝึกสอนเบื้องต้น โมเดลจะเรียนรู้การทำนายคำถัดไปในประโยค ซึ่งช่วยให้เข้าใจรูปแบบของภาษาและสร้างข้อความที่ต่อเนื่องได้
Fine-tuning
หลังจากฝึกสอนเบื้องต้นแล้ว โมเดลจะถูกปรับแต่งด้วยชุดข้อมูลเฉพาะ เช่น ชุดข้อมูลสนทนาสำหรับ ChatGPT
ขั้นตอนสำคัญในกระบวนการนี้คือ Reinforcement Learning from Human Feedback (RLHF) ซึ่งผู้ฝึกสอนมนุษย์จะจัดอันดับคำตอบของโมเดล วงจรนี้ช่วยให้ ChatGPT พัฒนาความสามารถในการสร้างคำตอบที่เหมาะสมและตรงบริบทมากขึ้น
คำศัพท์สำคัญของ ChatGPT
โทเคน
หน่วยข้อความ (คำหรือส่วนของคำ) ที่โมเดลใช้ประมวลผล ข้อมูลขาเข้าและขาออกของ ChatGPT จะถูกแปลงเป็นโทเคนเพื่อให้คำนวณได้อย่างมีประสิทธิภาพ
Zero-shot learning
ความสามารถของโมเดลในการทำงานที่ไม่ได้ฝึกสอนมาโดยตรง โดยอาศัยความรู้ทั่วไปที่มีอยู่
One-shot learning คือการให้ตัวอย่างเพียงหนึ่งตัวอย่าง ส่วน n-shot learning คือการให้หลายตัวอย่างเพื่อให้โมเดลเรียนรู้
กลไก attention
องค์ประกอบของโมเดล transformer ที่ช่วยให้โฟกัสกับส่วนต่าง ๆ ของข้อความขาเข้าเมื่อต้องสร้างคำตอบ
Hallucination
เมื่อโมเดล AI สร้างข้อมูลที่ผิดหรือไม่มีเหตุผล เรียกว่า ‘hallucinate’ สามารถลดปัญหานี้ได้ด้วยกลยุทธ์อย่าง retrieval-augmented generation (RAG)
Chain of thought reasoning
วิธีการที่ช่วยให้โมเดลคิดเป็นขั้นตอน ช่วยให้จัดการกับคำสั่งหรือโจทย์ที่ซับซ้อนได้ดีขึ้น
โมเดล ChatGPT บางรุ่นมีวิธีนี้โดยอัตโนมัติ เช่น OpenAI o1 models รุ่นล่าสุด แต่คุณสามารถขอให้รุ่นใดก็ได้ใช้ chain-of-thought reasoning เพียงแค่ขอให้มันอธิบายเหตุผลทีละขั้นตอน
Pre-training
ช่วงแรกที่โมเดลถูกฝึกกับชุดข้อมูลขนาดใหญ่เพื่อเรียนรู้รูปแบบของภาษาก่อนจะถูกปรับแต่งสำหรับงานเฉพาะ
Fine-tuning
กระบวนการปรับแต่งโมเดลด้วยชุดข้อมูลหรือภารกิจที่แคบลง เพื่อเพิ่มประสิทธิภาพในกรณีใช้งานเฉพาะทาง
ขนาดหน้าต่างบริบท
ขีดจำกัดของข้อความขาเข้าที่โมเดลสามารถพิจารณาได้ขณะสร้างคำตอบ
ถ้าขีดจำกัดนี้ต่ำ คุณจะไม่สามารถส่งรายงานยาว ๆ เพื่อขอให้สรุปได้ เพราะโมเดลจะ ‘ลืม’ ต้นฉบับของเอกสาร
วิธีปรับแต่ง ChatGPT
มีหลายวิธีในการปรับแต่ง LLM ทรงพลัง เช่น GPT engine ที่อยู่เบื้องหลัง ChatGPT การสร้าง LLM agent ของคุณเองนั้นไม่ยากอย่างที่คิด
Custom GPTs
OpenAI อนุญาตให้ผู้ใช้ปรับแต่ง GPT ได้ตามต้องการ คุณสามารถสั่งให้ GPT ที่ปรับแต่งเองช่วยสอนกติกาเกมกระดาน ออกแบบโปสเตอร์วงดนตรี หรือสอนแนวคิด AI ก็ได้
Custom AI agents
ด้วยความก้าวหน้าของเทคโนโลยี AI ตอนนี้คุณสามารถสร้าง AI agents ที่ขับเคลื่อนด้วย LLM ได้ง่าย (และฟรี)
ตั้งแต่เครื่องมือสร้างแบบลากวางที่ไม่ต้องเขียนโค้ด ไปจนถึงระบบเขียนโค้ดขั้นสูง มี แพลตฟอร์มสร้าง AI ที่เหมาะกับทุกกรณีใช้งานและทุกระดับทักษะ
การสร้าง agent ที่ขับเคลื่อนด้วย LLM ของคุณเอง หมายความว่าคุณสามารถออกแบบ AI assistant เฉพาะตัวที่ช่วยจัดตารางประชุมและสร้างรายงานตัวชี้วัดประจำสัปดาห์ หรือจะสร้าง customer support AI agent ที่ใช้งานบน WhatsApp ก็ได้ ความเป็นไปได้ไม่มีที่สิ้นสุด
สร้างแชทบอทที่ขับเคลื่อนด้วย GPT ได้ฟรี
ChatGPT เป็นแชทบอททั่วไป แต่คุณสามารถใช้ GPT engine อันทรงพลังจาก OpenAI เพื่อสร้างแชทบอท AI ที่ปรับแต่งเองได้
ใช้ศักยภาพของ LLMs รุ่นล่าสุดกับแชทบอทที่คุณออกแบบเอง
Botpress คือแพลตฟอร์มแชทบอท AI ที่ยืดหยุ่นและขยายได้ไม่รู้จบ ให้คุณสร้างเอเจนต์ AI หรือแชทบอทสำหรับทุกกรณีการใช้งาน
เชื่อมต่อแชทบอทของคุณกับแพลตฟอร์มหรือช่องทางใดก็ได้ หรือเลือกใช้ไลบรารีการเชื่อมต่อสำเร็จรูปของเรา เริ่มต้นได้ง่าย ๆ ด้วยวิดีโอสอนจากช่อง YouTube ของ Botpress หรือคอร์สฟรีจาก Botpress Academy
คำถามที่พบบ่อย
1. ChatGPT แตกต่างจากแชทบอท AI อื่น ๆ อย่าง Google Bard หรือ Claude อย่างไร?
ChatGPT เด่นเรื่องการให้เหตุผลแบบมีโครงสร้างและการเขียนโค้ด Bard (จาก Google) เชื่อมโยงกับการค้นหาและข้อมูลเรียลไทม์ ส่วน Claude (จาก Anthropic) เน้นความปลอดภัยและการจดจำข้อมูลระยะยาว
2. ChatGPT สามารถเข้าใจและสร้างข้อความได้ดีเท่าเทียมกันในหลายภาษาไหม?
ChatGPT เข้าใจและสร้างข้อความได้หลายภาษา แต่ความแม่นยำและคล่องแคล่วสูงสุดอยู่ที่ภาษาอังกฤษ แม้จะทำได้ดีในภาษาหลัก ๆ เช่น สเปน ฝรั่งเศส หรือเยอรมัน แต่ประสิทธิภาพอาจลดลงในภาษาที่มีโครงสร้างซับซ้อน
3. ChatGPT "คิด" หรือ "เข้าใจ" แบบมนุษย์หรือไม่?
ChatGPT ไม่ได้คิดหรือเข้าใจเหมือนมนุษย์ ไม่มีจิตสำนึกหรือความเข้าใจจริง ๆ ChatGPT สร้างคำตอบโดยทำนายคำถัดไปตามรูปแบบที่เรียนรู้จากข้อมูลฝึกสอน โดยไม่มีความเข้าใจแท้จริง
4. ChatGPT มีอคติหรือไม่? อคติใน LLM วัดหรือแก้ไขอย่างไร?
ใช่ ChatGPT อาจมีอคติที่เกิดจากข้อมูลที่ใช้ฝึกสอน รวมถึงอคติทางสังคมหรือวัฒนธรรม OpenAI ลดอคติโดยใช้เทคนิคอย่าง reinforcement learning จากข้อเสนอแนะมนุษย์ (RLHF), red-teaming และการตรวจสอบอย่างต่อเนื่อง แม้จะไม่สามารถกำจัดอคติได้ทั้งหมด
5. ChatGPT อัปเดตข้อมูลใหม่บ่อยแค่ไหน?
ChatGPT ไม่ได้อัปเดตข้อมูลแบบเรียลไทม์ ความรู้ของมันอิงกับข้อมูลฝึกสอนจนถึงวันที่ที่กำหนด จะมีการอัปเดตเฉพาะเมื่อ OpenAI ปล่อยเวอร์ชันใหม่หรือฝึกสอนโมเดลใหม่เท่านั้น ดังนั้นจึงอาจไม่สะท้อนเหตุการณ์ล่าสุด เว้นแต่จะเปิดใช้งานการค้นเว็บในบางเวอร์ชัน







