มีนักวิทยาศาสตร์คนหนึ่งที่สร้างรากฐานให้กับ AI ทุกตัวที่คุณใช้อยู่ทุกวันนี้ — แล้ววันหนึ่งเขาก็บอกว่า ทุกอย่างที่กำลังสร้างกันอยู่นั้น เดินไปทางตัน
ไม่ใช่แค่พูดเฉยๆ เขาควักเงิน $1,000,000,000 ไปพิสูจน์ว่าเขาถูก
ชื่อเขาคือ Yann LeCun — และสิ่งที่เขากำลังสร้างอาจเปลี่ยนทิศทาง AI ทั้งหมด หรือจะกลายเป็นการเดิมพันที่แพงที่สุดในประวัติศาสตร์วงการ tech
AGI คืออะไร — และทำไมทุกคนถึงอยากสร้างมัน?
ก่อนจะเข้าใจว่า LeCun กำลังทำอะไร ต้องเข้าใจเป้าหมายที่ทั้งวงการกำลังแข่งกันไปถึงก่อน
AI ที่เราใช้กันอยู่ทุกวันนี้ — ChatGPT, Claude, Gemini — เรียกว่า Narrow AI หรือ AI แบบ “แคบ” มันเก่งมากในงานที่ถูก train มา แต่ทำได้แค่นั้น ChatGPT เก่งเขียน แต่ไม่รู้จะหยิบแก้วน้ำยังไง Gemini ตอบคำถามได้ แต่ไม่รู้ว่าถ้าฝนตกควรเอาร่มไปด้วย
AGI (Artificial General Intelligence) คือขั้นที่ถัดไปโดยสิ้นเชิง — AI ที่ฉลาดเหมือนมนุษย์จริงๆ ในแบบที่กว้างกว่า
- เรียนรู้งานใหม่ได้เองโดยไม่ต้อง train ใหม่ — เหมือนคนที่เพิ่งเปลี่ยนงานแล้วปรับตัวได้ในไม่กี่สัปดาห์ ไม่ใช่ต้องไปเรียน 4 ปีใหม่ทั้งหมด
- เข้าใจ context และ common sense — รู้ว่าถ้าแก้วน้ำวางใกล้ขอบโต๊ะมันอันตราย โดยไม่ต้องมีใครบอก รู้ว่าถ้าฝนตกพื้นถนนจะลื่น แม้ไม่เคยอ่านเรื่องนี้
- วางแผนระยะยาวและแก้ปัญหาที่ไม่เคยเจอมาก่อน — ไม่ใช่แค่ตอบคำถาม แต่คิดได้ว่าจะทำอะไรถัดไปเพื่อบรรลุเป้าหมาย
ปัจจุบัน AGI ยังไม่มีอยู่จริง แต่ทุกบริษัทใหญ่ใน Silicon Valley — OpenAI, Google DeepMind, Anthropic, Meta — กำลังแข่งกันสร้าง เพราะใครสร้าง AGI ได้ก่อน อาจคุมอนาคตทั้งหมด
Yann LeCun คือใคร — และทำไมคำพูดเขาถึงน้ำหนักมาก?
ไม่ใช่ทุกคนที่วิจารณ์ LLM จะมีน้ำหนัก แต่ LeCun ไม่ใช่คนธรรมดา
เขาคือหนึ่งใน “Godfathers of AI” — สามนักวิทยาศาสตร์ที่ได้รับ Turing Award (รางวัลสูงสุดในวงการ Computer Science เทียบเท่าโนเบล) ในปี 2018 จากผลงาน Deep Learning ร่วมกับ Geoffrey Hinton และ Yoshua Bengio
Deep Learning คือเทคโนโลยีที่เป็นรากฐานของ AI ทุกตัวในวันนี้ — ทุกอย่างที่ ChatGPT ทำได้มันยืนอยู่บนงานของ LeCun และเพื่อนร่วมงานของเขา
หลังจากนั้นเขาเป็น Chief AI Scientist ของ Meta มานานหลายปี ควบคุมทีม AI Research ระดับโลก ก่อนจะออกมาตั้งบริษัทใหม่ในปี 2025
เมื่อคนที่สร้างรากฐานของ AI บอกว่าทิศทางปัจจุบันผิด มันไม่ใช่แค่ความเห็นส่วนตัว — มันคือสัญญาณเตือนที่ทั้งวงการต้องฟัง
AMI Labs — $1.03 พันล้านดอลลาร์กับ Seed Round ที่ใหญ่ที่สุดใน Europe
ในต้นปี 2025 LeCun ประกาศตั้ง AMI Labs (Advanced Machine Intelligence Labs) และระดมทุนได้ $1.03 พันล้านดอลลาร์ ใน seed round เดียว
ตัวเลขนี้ใหญ่แค่ไหน? มันคือ seed round ที่ใหญ่ที่สุดในประวัติศาสตร์ Europe ตลอดกาล — และมี valuation อยู่ที่ $3.5 พันล้านดอลลาร์ ก่อนที่บริษัทจะออกผลิตภัณฑ์ใดๆ
ผู้ลงทุนไม่ใช่นักลงทุนธรรมดา แต่คือยักษ์ใหญ่วงการ tech และผู้นำระดับโลก:
- Nvidia — บริษัท chip ที่ขับเคลื่อน AI ทั้งโลก
- Samsung — บริษัท tech ยักษ์ใหญ่จากเกาหลี
- Toyota — ยักษ์ใหญ่ automotive ที่กำลังเดิมพันกับ AI
- Jeff Bezos — ผู้ก่อตั้ง Amazon
- Mark Cuban — นักลงทุนและ entrepreneur ระดับโลก
- Eric Schmidt — อดีต CEO Google
AMI Labs มีสำนักงานใหญ่ที่ Paris พร้อม offices ใน New York, Montreal และ Singapore — กระจายอยู่ทั่วโลกตั้งแต่วันแรก
การที่คนระดับนี้ลงทุนขนาดนี้ ไม่ใช่เพราะเชื่อ hype — แต่เพราะเชื่อใน thesis ที่ LeCun กำลังพิสูจน์
ทำไม LeCun ถึงบอกว่า LLM เดินไปทางตัน?
นี่คือแก่นของทุกอย่าง และเป็นจุดที่ LeCun ขัดแย้งกับทั้งวงการ
ข้อโต้แย้งของเขามี 3 จุดหลัก:
1. LLM คือ “เครื่องบีบอัดสถิติ” ไม่ใช่ “ความเข้าใจ”
LeCun อธิบายว่า LLM ทำงานด้วยการ “ทายคำถัดไป” — มันเห็นข้อความและทายว่าคำต่อไปควรเป็นอะไรโดยอิงจากสถิติของข้อมูลที่เคยเห็น
มันไม่ได้ เข้าใจ ว่ากำลังพูดถึงอะไร เหมือนนักเรียนที่ท่องจำหนังสือทั้งเล่มได้ แต่ถ้าถามว่า “ทำไม” มันตอบไม่ได้จริงๆ
ลองนึกภาพนี้: ถ้าคุณ train LLM บนข้อความเกี่ยวกับฟิสิกส์ทั้งหมดที่มีอยู่ มันจะอธิบาย “แรงโน้มถ่วงคือ 9.8 m/s²” ได้อย่างคล่องแคล่ว แต่มันไม่ได้ รู้สึก ว่าของหนักจะตกลงมาเมื่อปล่อย มันไม่มี intuition แบบนั้น
2. Text คือข้อมูลที่ “จน” ที่สุด
เด็กทารกเรียนรู้โลกจากการมองเห็น ได้ยิน สัมผัส รับรส กลิ่น — ข้อมูลจาก sensor หลายล้านช่องทาง ในแต่ละวินาที
LLM เรียนรู้จาก text เท่านั้น
LeCun ประมาณว่า ข้อมูลที่เด็กได้รับจากการมองเห็นในแค่ชั่วโมงเดียว มีมากกว่าข้อความทั้งหมดที่ LLM ใช้ใน training ทั้งชีวิต Text คือ “projection” ที่บางมากของความเป็นจริง
นั่นคือสาเหตุที่ LLM ไม่เข้าใจ physics intuition — มันไม่เคย “เห็น” ของตกลงมาจริงๆ มีแต่อ่านเรื่องของที่ตก
3. Scaling Laws มีขีดจำกัด
วงการ AI เชื่อใน “scaling hypothesis” — ยิ่งโมเดลใหญ่ขึ้น ข้อมูลมากขึ้น compute มากขึ้น ยิ่งฉลาดขึ้น
LeCun บอกว่านั่นจริง แต่แค่ในระดับหนึ่ง
เมื่อถึงจุดหนึ่ง การเพิ่ม parameter จะได้ output ที่ “ดูฉลาด” ขึ้น แต่ไม่ได้ฉลาดขึ้นจริงๆ เหมือนกับการพิมพ์พจนานุกรมให้หนาขึ้นเรื่อยๆ — มันไม่ได้ทำให้พจนานุกรม “รู้ภาษา” มันแค่มีคำมากขึ้น
ตัวอย่างที่ชัดเจน: LLM ยังคงล้มเหลวใน “physical common sense” อย่างง่ายๆ — ถามว่าถ้าเอาลูกแก้วใส่ถ้วยแล้วปิดฝา แล้วพลิกถ้วย แล้วเปิดฝา ลูกแก้วอยู่ที่ไหน? โมเดลใหญ่ๆ ยังตอบผิดเป็นประจำ
World Model + JEPA — ทางเลือกของ LeCun
ถ้า LLM ไม่ใช่คำตอบ แล้ว LeCun เสนออะไร?
เขาเสนอสถาปัตยกรรม AI แบบใหม่ที่เรียกว่า World Models โดยใช้เทคนิคที่เรียกว่า JEPA (Joint Embedding Predictive Architecture)
แนวคิดหลักคือ: แทนที่จะให้ AI เรียนรู้โดยการทาย “คำถัดไป” ให้ AI เรียนรู้โดยการสร้าง model ของโลก ขึ้นมาในหัว
ลองนึกภาพว่าคุณเห็นลูกบอลกำลังลอยขึ้น คุณรู้ทันทีว่ามันจะต้องตกลงมา — คุณไม่ต้องคิด คุณไม่ต้อง Google คุณแค่ “รู้” เพราะสมองคุณมี model ของ physics อยู่แล้ว
JEPA พยายามสร้างสิ่งนี้ให้กับ AI:
- เรียนรู้จาก sensor data จริงๆ — ไม่ใช่แค่ text แต่จากกล้อง เสียง สัมผัส ข้อมูลทุกรูปแบบ
- สร้าง abstract representation — ไม่ใช่จำทุกอย่างแบบ pixel-by-pixel แต่เรียนรู้ concept เหมือนที่มนุษย์เข้าใจว่า “แก้ว” คืออะไร โดยไม่ต้องจำทุก texture ของแก้วทุกใบที่เคยเห็น
- ทำนาย future state ใน abstract space — ไม่ใช่ทาย pixel ถัดไป แต่เข้าใจว่าถ้าทำ A แล้วจะเกิด B
ผลที่ตามมาคือ AI ที่ “เข้าใจ” โลก physical จริงๆ ไม่ใช่แค่จำข้อความเกี่ยวกับโลก
ตัวอย่างที่ LeCun ชอบใช้: เด็กอายุ 2 ขวบรู้ว่าถ้าปล่อยแก้วมันจะตกและแตก โดยไม่ต้องมีใครสอน ไม่ต้องอ่านหนังสือฟิสิกส์ แค่สังเกตโลกรอบตัวมาพอ World Model AI ควรจะทำแบบเดียวกันได้
แล้ว LeCun ถูกหรือเปล่า?
นี่คือคำถามที่ตอบได้ยากที่สุด และเป็นที่ถกเถียงกันมากที่สุดในวงการ AI
ฝั่งที่เชื่อ LeCun ชี้ว่า LLM ยังล้มเหลวในงานที่ต้องการ physical reasoning และ long-horizon planning จริงๆ ทุกครั้งที่ใครบอกว่า “แค่ scale ต่อไป ปัญหาจะหาย” มันก็ยังไม่หาย และงานวิจัยด้าน World Models ก็กำลังก้าวหน้าอย่างรวดเร็ว
ฝั่งที่ไม่เห็นด้วย บอกว่า multimodal LLM (ที่ดูวิดีโอ รูปภาพ ได้ด้วย) กำลังแก้ปัญหา “text only” ที่ LeCun พูดถึง และ GPT-4o, Gemini Ultra ก็เก่งขึ้นมากในงาน reasoning ทุกเวอร์ชัน อาจแค่ต้องรอให้ scale มากพอ
ความจริงอาจอยู่ตรงกลาง: ทั้งสองทางกำลังแข่งกันอยู่
OpenAI และ Google กำลัง push LLM ต่อไปด้วยเงินหลายหมื่นล้านดอลลาร์ LeCun และ AMI Labs กำลัง bet ว่า World Models คือทางที่ถูกต้อง
ถ้า LeCun ถูก — โลกกำลังนั่งดูการ pivot ที่ใหญ่ที่สุดในประวัติศาสตร์ AI และ AMI Labs จะกลายเป็นบริษัทที่สำคัญที่สุดในโลก
ถ้าเขาผิด — $1,000,000,000 ก็หายไปในพริบตา และ LLM จะเดินหน้าต่อไปโดยไม่มีใครสะดุด
สิ่งที่แน่ๆ คือ: เมื่อคนที่สร้างรากฐานของ AI ทั้งหมดลุกขึ้นมาบอกว่าทิศทางผิด และมีคนระดับ Bezos กับ Nvidia ยอมควักเงินพันล้านมาสนับสนุน — มันไม่ใช่แค่ความเห็นอีกต่อไป
มันคือ signal ที่วงการ AI ต้องจับตาดูอย่างใกล้ชิด
ติดตาม Humans Need Not สำหรับข่าว AI tools และความเคลื่อนไหวในวงการที่ใช้ได้จริงในชีวิตประจำวัน