
สวัสดีครับ
วันนี้อยากชวนคุยเรื่องคำว่า reasoning — หรือ “การใช้เหตุผลเป็น” ของ GenAI
ช่วงหลังเรามักได้ยินว่า LLM “ใช้เหตุผลได้” แต่จริงๆ แล้วมันหมายถึงอะไร? และทำไมเรื่องนี้ถึงน่าตื่นเต้นมากนัก โดยเฉพาะสำหรับคนสายไอที?
Emergence — ปรากฏการณ์ความสามารถที่ “เกิดขึ้นเอง”
ก่อนจะเข้าเรื่อง เราต้องรู้จักคำนี้ก่อนครับ: Emergence
Emergence คือปรากฏการณ์ที่ระบบซับซ้อนบางอย่าง แสดงความสามารถหรือคุณสมบัติใหม่ๆ ออกมา ซึ่งไม่ได้มีอยู่ในส่วนประกอบย่อยๆ ของระบบนั้นโดยตรง — หรือพูดง่ายๆ ว่า “รวมกันแล้วได้อะไรบางอย่างที่มากกว่าผลรวมของแต่ละส่วน”
ปรากฏการณ์แบบนี้ไม่ใช่เรื่องใหม่เฉพาะในวงการ AI จริงๆ แล้ว เราพบ Emergence ได้ในธรรมชาติรอบตัวอยู่ตลอด — ทั้งในฟิสิกส์ เคมี ชีววิทยา และพฤติกรรมของสังคมมนุษย์เอง ให้เห็นภาพง่ายๆ
สมมุติว่าเราต้มน้ำ — ตอนที่น้ำเดือด เราจะเห็นฟองอากาศปุดๆ ใช่มั้ยครับ?
“การเดือด” เป็นสิ่งที่ไม่มีอยู่ในน้ำเย็นธรรมดา หรือแม้แต่น้ำอุ่นๆ แต่มัน “เกิดขึ้น” เมื่ออุณหภูมิถึงจุดหนึ่ง (เช่น 100°C ที่ความดันปกติ) — นั่นแหละครับคือ Emergence และฟองที่ปุดๆ นั่นคือสิ่งที่เรียกว่า Emergent Property
หรืออีกตัวอย่าง เช่น การรวมตัวของนกนับพันตัวที่บินพร้อมกันเป็นฝูงอย่างมีรูปแบบ ทั้งที่ไม่มีหัวหน้าคอยสั่งการ — พฤติกรรมแบบนี้เกิดจากกฎง่ายๆ ระดับรายตัว แต่เมื่อรวมกันจึงเกิดลวดลายซับซ้อนในระดับระบบ
แล้วในโลกของ LLM ล่ะ?
Emergent Properties ของ LLM คือความสามารถบางอย่างที่ไม่ได้ถูกสอนหรือออกแบบไว้โดยตรงในตอนเทรน แต่ “เกิดขึ้น” เมื่อโมเดลมีขนาดใหญ่พอ และข้อมูลเพียงพอ
ตัวอย่างของ Emergent Properties ที่เราพบใน LLM ได้แก่:
- การแปลภาษาข้ามคู่ภาษา แม้ไม่ได้ฝึกโดยตรงกับภาษานั้นๆ
- ความสามารถในการ reasoning หรือใช้เหตุผลเชิงตรรกะ
- การเขียนโค้ดหรือดีบักโค้ดจากคำอธิบายธรรมดาๆ
- การตอบคำถามที่ต้องเชื่อมโยงข้อมูลจากหลายแหล่งในบริบทเดียวกัน
ทั้งหมดนี้ ไม่ได้เกิดจากการใส่ explicit rule ลงไป แต่เกิดจาก “โครงสร้างภายใน” ของโมเดลที่ซับซ้อนมากพอ — ซึ่งก็คือการเกิด Emergence นั่นเอง
ทีนี้ ความสามารถด้าน “การใช้เหตุผล” หรือ Reasoning มันเป็นในรูปแบบทำนองนี้ครับ
มันไม่ใช่แค่การจำข้อมูล หรือการเรียงประโยคให้สวยงามเท่านั้น — แต่เป็นการ “คิดเป็นลำดับ” จากข้อมูลที่ได้รับ แล้วสรุปออกมาเป็นคำตอบอย่างมีเหตุผล
ลองดูตัวอย่างนี้ครับ:
คำถาม: ถ้าคุณมีนัดหมอฟันวันพุธหน้า แต่วันพุธนี้คือวันที่ 21 มิถุนายน วันนัดคือวันที่เท่าไหร่?
ถ้าจะตอบคำถามนี้ได้ ต้องผ่านหลายขั้นตอน:
- เข้าใจก่อนว่า “วันพุธนี้” คือวันที่ 21
- “วันพุธหน้า” แปลว่าผ่านไปอีก 7 วัน
- 21 + 7 = 28 มิถุนายน
โมเดลต้อง “คิดเป็นขั้น” แบบนี้ ถึงจะตอบว่า 28 มิถุนายน ได้ถูกต้อง — นี่คือสิ่งที่เรียกว่า chain-of-thought reasoningหรือการคิดแบบเป็นลำดับขั้นตอน
อีกตัวอย่างหนึ่ง:
คำถาม: แม่ของนัทมีลูกชาย 3 คน: ต้น ใบ และ…?
ใครคือลูกชายคนที่สาม?
หลายคนอาจพยายามมองหารูปแบบของชื่อ (เช่น “ดอกไม้”)
แต่ถ้าอ่านดีๆ จะพบว่าคำตอบอยู่ในคำถามแล้ว:
“แม่ของนัท” — ดังนั้น ลูกชายคนที่สามก็คือ นัท
การตอบแบบนี้ได้ แสดงว่าโมเดลไม่ได้แค่เดา แต่เข้าใจ “ความสัมพันธ์” และ “บริบท” — ซึ่งเป็นหัวใจของ Reasoning
ตัวอย่างแบบนี้ช่วยให้เห็นว่า LLM ไม่ได้แค่ท่องจำหรือพ่นข้อความออกมา แต่กำลังพัฒนาไปสู่การ “เข้าใจ” และ “เชื่อมโยงข้อมูล” อย่างที่มนุษย์ใช้เหตุผลกันจริงๆ
ซึ่งปรากฏการณ์แบบนี้ เกิดขึ้นมาได้เพราะ โดยธรรมชาติแล้ว “ภาษา” ที่มนุษย์เราใช้กันในชีวิตประจำวันนั้น แฝงไปด้วย “ตรรกะ” หรือ ความสัมพันธ์แบบเหตุและผล อยู่เสมอ— แม้จะดูเหมือนแค่บทสนทนาทั่วไป แต่เบื้องหลังกลับเต็มไปด้วยกฎบางอย่างที่บอกว่าอะไรควรตามอะไร อะไรสัมพันธ์กับอะไร
เช่น การใช้คำว่า “เพราะ…จึง…” หรือ “ถ้า…ก็…” ล้วนเป็นโครงสร้างที่สะท้อนการใช้เหตุผลแบบเป็นลำดับ
ซึ่งด้วยหลักการนี้ จึงทำให้ LLM — ซึ่งจริงๆ แล้วเป็นเพียงโมเดลทางสถิติ — สามารถ “เรียนรู้รูปแบบของเหตุและผล” จากภาษาที่มนุษย์ใช้กันได้โดยอ้อม
เนื่องจากมันได้อ่านข้อความมหาศาลจากโลกจริง ที่เต็มไปด้วยตัวอย่างของเหตุการณ์ ความสัมพันธ์ และตรรกะที่ฝังอยู่ในภาษาโดยธรรมชาติ
ดังนั้น แม้เราจะไม่ได้สอนตรรกะแบบเป็นสูตรให้มันโดยตรง โมเดลก็ยังสามารถ “สังเกต” และ “สรุป” รูปแบบเหล่านั้นขึ้นมาได้เอง
ทักษะ Reasoning นี่มีประโยชน์มากมายเลยนะครับ เพราะในมุมหนึ่ง มันทำให้คอมพิวเตอร์เข้าใจ “ตรรกะ” ของมนุษย์ได้ไกลกว่าตัวเลข 10110 แบบธรรมดา
ทำให้คอมพิวเตอร์สามารถเข้าถึง “องค์ความรู้” (Knowledge) ของมนุษย์ได้อีกมากมาย — ทั้งที่ความรู้นั้นอาจไม่ได้อยู่ในรูปของสูตรหรือกฎตายตัว แต่แฝงอยู่ในบริบท ภาษา และเหตุผลที่เราใช้กันในชีวิตประจำวัน
และมันยังสามารถนำไปประยุกต์ต่อยอดได้อีกมากมายเลย เช่น
ช่วยตอบคำถามซับซ้อนในทางการแพทย์ วิเคราะห์เหตุผลในการตัดสินใจทางธุรกิจ หรือกระทั่ง ให้คำแนะนำเชิงจริยธรรม หรือช่วยวางแผนชีวิตในระดับที่ละเอียดขึ้น เหตุผลที่หลายคนในสาย AI และไอทีตื่นเต้นกับ LLM มาก เพราะนี่คือยุคที่เราไม่ได้สั่งให้มันทำอะไรทีละอย่างเหมือนคอมพิวเตอร์ยุคก่อนอีกแล้ว
เรากำลังอยู่ในยุคที่ “ความสามารถใหม่ๆ” เริ่มเกิดขึ้น “เอง” จากระบบที่เราเองยังอธิบายไม่ได้ทั้งหมด และ “ความเข้าใจ” เหล่านั้น ก็ไม่ได้มาจากสูตรตายตัว แต่สกัดออกจากภาษา โครงสร้างประโยค และคลังความรู้มหาศาลที่มนุษย์ใช้สื่อสารกันมาตลอด
พูดง่ายๆ — วันนี้เราได้สร้างคอมพิวเตอร์ที่ เรียนรู้และเข้าใจ ความสัมพันธ์ในองค์ความรู้ของมนุษย์ได้แล้วครับ
หากย้อนกลับไป…
อลัน ทัวร์ริ่ง — หนึ่งในผู้บุกเบิกวงการคอมพิวเตอร์ — เคยตั้งคำถามในบทความ “Computing Machinery and Intelligence” เมื่อปี 1950 ว่า
“Can machines think?” — เครื่องจักรสามารถ ‘คิด’ ได้หรือไม่?
เขาเสนอแนวคิดที่เรียกว่า Imitation Game (หรือที่ปัจจุบันเรียกกันว่า Turing Test) เพื่อใช้วัดว่า หากเครื่องสามารถใช้ภาษาและให้เหตุผลได้ดีจนแยกไม่ออกจากมนุษย์
เราก็ควรยอมรับได้ว่า มัน “คิด” ได้จริง
เขายังเขียนไว้ว่า:
“ผมเชื่อว่าในเวลาราวห้าสิบปี เราจะสามารถโปรแกรมคอมพิวเตอร์ให้เล่นเกมนี้ได้ดีพอ จนผู้ถามส่วนใหญ่จะแยกไม่ออกว่าอีกฝั่งเป็นคนหรือเครื่องจักร” — Alan Turing, 1950
และเขาทิ้งท้ายไว้อย่างมีหวังว่า:
“ในปลายศตวรรษนี้ เราอาจพูดถึงเครื่องจักรที่ ‘คิด’ ได้ โดยไม่มีใครเถียงว่าเราใช้คำผิด”
วันนี้ แม้เรายังอยู่ในระหว่างทาง — แต่ก็ปฏิเสธไม่ได้ว่า
เครื่องจักรกำลังเข้าใกล้ความสามารถด้านการใช้เหตุผลและภาษาแบบมนุษย์มากขึ้นเรื่อยๆ
บางที… “ความฝันของทัวร์ริ่ง” ก็กำลังเป็นจริงขึ้นทีละนิดแล้วครับ