สวัสดีครับ
วันนี้อยากชวนคุยเรื่องคำว่า reasoning — หรือ การใช้เหตุผลเป็นของ GenAI 

ช่วงหลังเรามักได้ยินว่า LLM “ใช้เหตุผลได้แต่จริงๆ แล้วมันหมายถึงอะไร? และทำไมเรื่องนี้ถึงน่าตื่นเต้นมากนัก โดยเฉพาะสำหรับคนสายไอที? 

Emergence — ปรากฏการณ์ความสามารถที่ เกิดขึ้นเอง 
ก่อนจะเข้าเรื่อง เราต้องรู้จักคำนี้ก่อนครับ:Emergence 

Emergence คือปรากฏการณ์ที่ระบบซับซ้อนบางอย่าง แสดงความสามารถหรือคุณสมบัติใหม่ๆ ออกมา ซึ่งไม่ได้มีอยู่ในส่วนประกอบย่อยๆ ของระบบนั้นโดยตรง หรือพูดง่ายๆ ว่ารวมกันแล้วได้อะไรบางอย่างที่มากกว่าผลรวมของแต่ละส่วน 

ปรากฏการณ์แบบนี้ไม่ใช่เรื่องใหม่เฉพาะในวงการ AI จริงๆ แล้ว เราพบ Emergence ได้ในธรรมชาติรอบตัวอยู่ตลอด ทั้งในฟิสิกส์ เคมี ชีววิทยา และพฤติกรรมของสังคมมนุษย์เอง ให้เห็นภาพง่ายๆ 

สมมุติว่าเราต้มน้ำ ตอนที่น้ำเดือด เราจะเห็นฟองอากาศปุดๆ ใช่มั้ยครับ? 

การเดือดเป็นสิ่งที่ไม่มีอยู่ในน้ำเย็นธรรมดา หรือแม้แต่น้ำอุ่นๆ แต่มัน เกิดขึ้นเมื่ออุณหภูมิถึงจุดหนึ่ง (เช่น 100°C ที่ความดันปกติ) นั่นแหละครับคือEmergenceและฟองที่ปุดๆ นั่นคือสิ่งที่เรียกว่าEmergent Property 

หรืออีกตัวอย่าง เช่น การรวมตัวของนกนับพันตัวที่บินพร้อมกันเป็นฝูงอย่างมีรูปแบบ ทั้งที่ไม่มีหัวหน้าคอยสั่งการ พฤติกรรมแบบนี้เกิดจากกฎง่ายๆ ระดับรายตัว แต่เมื่อรวมกันจึงเกิดลวดลายซับซ้อนในระดับระบบ 

แล้วในโลกของLLM ล่ะ? 
Emergent Properties ของ LLM คือความสามารถบางอย่างที่ไม่ได้ถูกสอนหรือออกแบบไว้โดยตรงในตอนเทรน แต่ เกิดขึ้นเมื่อโมเดลมีขนาดใหญ่พอ และข้อมูลเพียงพอ 

ตัวอย่างของ Emergent Properties ที่เราพบใน LLM ได้แก่: 

  • การแปลภาษาข้ามคู่ภาษา แม้ไม่ได้ฝึกโดยตรงกับภาษานั้นๆ
  • ความสามารถในการreasoning หรือใช้เหตุผลเชิงตรรกะ
  • การเขียนโค้ดหรือดีบักโค้ดจากคำอธิบายธรรมดาๆ
  • การตอบคำถามที่ต้องเชื่อมโยงข้อมูลจากหลายแหล่งในบริบทเดียวกัน

ทั้งหมดนี้ ไม่ได้เกิดจากการใส่ explicit rule ลงไป แต่เกิดจาก โครงสร้างภายในของโมเดลที่ซับซ้อนมากพอ ซึ่งก็คือการเกิด Emergence นั่นเอง 

ทีนี้ ความสามารถด้าน การใช้เหตุผลหรือReasoningมันเป็นในรูปแบบทำนองนี้ครับ 

มันไม่ใช่แค่การจำข้อมูล หรือการเรียงประโยคให้สวยงามเท่านั้น แต่เป็นการ คิดเป็นลำดับจากข้อมูลที่ได้รับ แล้วสรุปออกมาเป็นคำตอบอย่างมีเหตุผล 

ลองดูตัวอย่างนี้ครับ: 

คำถาม: ถ้าคุณมีนัดหมอฟันวันพุธหน้า แต่วันพุธนี้คือวันที่ 21 มิถุนายน วันนัดคือวันที่เท่าไหร่? 

ถ้าจะตอบคำถามนี้ได้ ต้องผ่านหลายขั้นตอน: 

  1. เข้าใจก่อนว่า วันพุธนี้คือวันที่ 21 
  2. วันพุธหน้าแปลว่าผ่านไปอีก 7 วัน 
  3. 21 + 7 = 28 มิถุนายน 

โมเดลต้อง คิดเป็นขั้นแบบนี้ ถึงจะตอบว่า28มิถุนายน ได้ถูกต้อง นี่คือสิ่งที่เรียกว่าchain-of-thought reasoningหรือการคิดแบบเป็นลำดับขั้นตอน 

อีกตัวอย่างหนึ่ง: 

คำถาม: แม่ของนัทมีลูกชาย 3 คน: ต้น ใบ และ…? 
ใครคือลูกชายคนที่สาม?
หลายคนอาจพยายามมองหารูปแบบของชื่อ (เช่น ดอกไม้”) 

แต่ถ้าอ่านดีๆ จะพบว่าคำตอบอยู่ในคำถามแล้ว: 

แม่ของนัท — ดังนั้น ลูกชายคนที่สามก็คือนัท
การตอบแบบนี้ได้ แสดงว่าโมเดลไม่ได้แค่เดา แต่เข้าใจ ความสัมพันธ์และ บริบท” — ซึ่งเป็นหัวใจของ Reasoning 

ตัวอย่างแบบนี้ช่วยให้เห็นว่า LLM ไม่ได้แค่ท่องจำหรือพ่นข้อความออกมา แต่กำลังพัฒนาไปสู่การ เข้าใจและ เชื่อมโยงข้อมูลอย่างที่มนุษย์ใช้เหตุผลกันจริงๆ 

ซึ่งปรากฏการณ์แบบนี้ เกิดขึ้นมาได้เพราะโดยธรรมชาติแล้ว ภาษาที่มนุษย์เราใช้กันในชีวิตประจำวันนั้น แฝงไปด้วย ตรรกะหรือ ความสัมพันธ์แบบเหตุและผล อยู่เสมอแม้จะดูเหมือนแค่บทสนทนาทั่วไป แต่เบื้องหลังกลับเต็มไปด้วยกฎบางอย่างที่บอกว่าอะไรควรตามอะไร อะไรสัมพันธ์กับอะไร 

เช่น การใช้คำว่า เพราะจึง…” หรือ ถ้าก็…” ล้วนเป็นโครงสร้างที่สะท้อนการใช้เหตุผลแบบเป็นลำดับ 

ซึ่งด้วยหลักการนี้ จึงทำให้ LLM — ซึ่งจริงๆ แล้วเป็นเพียงโมเดลทางสถิติ — สามารถ เรียนรู้รูปแบบของเหตุและผลจากภาษาที่มนุษย์ใช้กันได้โดยอ้อม 

เนื่องจากมันได้อ่านข้อความมหาศาลจากโลกจริง ที่เต็มไปด้วยตัวอย่างของเหตุการณ์ ความสัมพันธ์ และตรรกะที่ฝังอยู่ในภาษาโดยธรรมชาติ 

ดังนั้น แม้เราจะไม่ได้สอนตรรกะแบบเป็นสูตรให้มันโดยตรง โมเดลก็ยังสามารถ สังเกตและ สรุปรูปแบบเหล่านั้นขึ้นมาได้เอง 

ทักษะ Reasoning นี่มีประโยชน์มากมายเลยนะครับ เพราะในมุมหนึ่ง มันทำให้คอมพิวเตอร์เข้าใจ ตรรกะของมนุษย์ได้ไกลกว่าตัวเลข 10110 แบบธรรมดา 

ทำให้คอมพิวเตอร์สามารถเข้าถึง องค์ความรู้” (Knowledge) ของมนุษย์ได้อีกมากมาย ทั้งที่ความรู้นั้นอาจไม่ได้อยู่ในรูปของสูตรหรือกฎตายตัว แต่แฝงอยู่ในบริบท ภาษา และเหตุผลที่เราใช้กันในชีวิตประจำวัน 

และมันยังสามารถนำไปประยุกต์ต่อยอดได้อีกมากมายเลย เช่น 

ช่วยตอบคำถามซับซ้อนในทางการแพทย์ วิเคราะห์เหตุผลในการตัดสินใจทางธุรกิจ หรือกระทั่งให้คำแนะนำเชิงจริยธรรม หรือช่วยวางแผนชีวิตในระดับที่ละเอียดขึ้น เหตุผลที่หลายคนในสาย AI และไอทีตื่นเต้นกับ LLM มาก เพราะนี่คือยุคที่เราไม่ได้สั่งให้มันทำอะไรทีละอย่างเหมือนคอมพิวเตอร์ยุคก่อนอีกแล้ว 

เรากำลังอยู่ในยุคที่ ความสามารถใหม่ๆเริ่มเกิดขึ้น เองจากระบบที่เราเองยังอธิบายไม่ได้ทั้งหมด และ ความเข้าใจเหล่านั้น ก็ไม่ได้มาจากสูตรตายตัว แต่สกัดออกจากภาษา โครงสร้างประโยค และคลังความรู้มหาศาลที่มนุษย์ใช้สื่อสารกันมาตลอด 

พูดง่ายๆ วันนี้เราได้สร้างคอมพิวเตอร์ที่ เรียนรู้และเข้าใจ ความสัมพันธ์ในองค์ความรู้ของมนุษย์ได้แล้วครับ 

หากย้อนกลับไป 

อลัน ทัวร์ริ่งหนึ่งในผู้บุกเบิกวงการคอมพิวเตอร์ เคยตั้งคำถามในบทความ “Computing Machinery and Intelligence” เมื่อปี 1950 ว่า 

“Can machines think?” — เครื่องจักรสามารถ คิดได้หรือไม่? 

เขาเสนอแนวคิดที่เรียกว่า Imitation Game (หรือที่ปัจจุบันเรียกกันว่า Turing Test) เพื่อใช้วัดว่า หากเครื่องสามารถใช้ภาษาและให้เหตุผลได้ดีจนแยกไม่ออกจากมนุษย์ 

เราก็ควรยอมรับได้ว่า มัน คิดได้จริง 

เขายังเขียนไว้ว่า: 
ผมเชื่อว่าในเวลาราวห้าสิบปี เราจะสามารถโปรแกรมคอมพิวเตอร์ให้เล่นเกมนี้ได้ดีพอ จนผู้ถามส่วนใหญ่จะแยกไม่ออกว่าอีกฝั่งเป็นคนหรือเครื่องจักร” — Alan Turing, 1950 

และเขาทิ้งท้ายไว้อย่างมีหวังว่า: 
ในปลายศตวรรษนี้ เราอาจพูดถึงเครื่องจักรที่ คิดได้ โดยไม่มีใครเถียงว่าเราใช้คำผิด 

วันนี้ แม้เรายังอยู่ในระหว่างทาง
แต่ก็ปฏิเสธไม่ได้ว่า 

เครื่องจักรกำลังเข้าใกล้ความสามารถด้านการใช้เหตุผลและภาษาแบบมนุษย์มากขึ้นเรื่อยๆ 

บางที… “ความฝันของทัวร์ริ่งก็กำลังเป็นจริงขึ้นทีละนิดแล้วครับ