Yann LeCun ทิ้ง $1B ไปกับสิ่งที่ต่างจาก OpenAI โดยสิ้นเชิง — แล้วเขาถูกหรือเปล่า?

มีนักวิทยาศาสตร์คนหนึ่งที่สร้างรากฐานให้กับ AI ทุกตัวที่คุณใช้อยู่ทุกวันนี้ — แล้ววันหนึ่งเขาก็บอกว่า ทุกอย่างที่กำลังสร้างกันอยู่นั้น เดินไปทางตัน

ไม่ใช่แค่พูดเฉยๆ เขาควักเงิน $1,000,000,000 ไปพิสูจน์ว่าเขาถูก

ชื่อเขาคือ Yann LeCun — และสิ่งที่เขากำลังสร้างอาจเปลี่ยนทิศทาง AI ทั้งหมด หรือจะกลายเป็นการเดิมพันที่แพงที่สุดในประวัติศาสตร์วงการ tech

AGI คืออะไร — และทำไมทุกคนถึงอยากสร้างมัน?

ก่อนจะเข้าใจว่า LeCun กำลังทำอะไร ต้องเข้าใจเป้าหมายที่ทั้งวงการกำลังแข่งกันไปถึงก่อน

AI ที่เราใช้กันอยู่ทุกวันนี้ — ChatGPT, Claude, Gemini — เรียกว่า Narrow AI หรือ AI แบบ “แคบ” มันเก่งมากในงานที่ถูก train มา แต่ทำได้แค่นั้น ChatGPT เก่งเขียน แต่ไม่รู้จะหยิบแก้วน้ำยังไง Gemini ตอบคำถามได้ แต่ไม่รู้ว่าถ้าฝนตกควรเอาร่มไปด้วย

AGI (Artificial General Intelligence) คือขั้นที่ถัดไปโดยสิ้นเชิง — AI ที่ฉลาดเหมือนมนุษย์จริงๆ ในแบบที่กว้างกว่า

  • เรียนรู้งานใหม่ได้เองโดยไม่ต้อง train ใหม่ — เหมือนคนที่เพิ่งเปลี่ยนงานแล้วปรับตัวได้ในไม่กี่สัปดาห์ ไม่ใช่ต้องไปเรียน 4 ปีใหม่ทั้งหมด
  • เข้าใจ context และ common sense — รู้ว่าถ้าแก้วน้ำวางใกล้ขอบโต๊ะมันอันตราย โดยไม่ต้องมีใครบอก รู้ว่าถ้าฝนตกพื้นถนนจะลื่น แม้ไม่เคยอ่านเรื่องนี้
  • วางแผนระยะยาวและแก้ปัญหาที่ไม่เคยเจอมาก่อน — ไม่ใช่แค่ตอบคำถาม แต่คิดได้ว่าจะทำอะไรถัดไปเพื่อบรรลุเป้าหมาย

ปัจจุบัน AGI ยังไม่มีอยู่จริง แต่ทุกบริษัทใหญ่ใน Silicon Valley — OpenAI, Google DeepMind, Anthropic, Meta — กำลังแข่งกันสร้าง เพราะใครสร้าง AGI ได้ก่อน อาจคุมอนาคตทั้งหมด

Yann LeCun คือใคร — และทำไมคำพูดเขาถึงน้ำหนักมาก?

ไม่ใช่ทุกคนที่วิจารณ์ LLM จะมีน้ำหนัก แต่ LeCun ไม่ใช่คนธรรมดา

เขาคือหนึ่งใน “Godfathers of AI” — สามนักวิทยาศาสตร์ที่ได้รับ Turing Award (รางวัลสูงสุดในวงการ Computer Science เทียบเท่าโนเบล) ในปี 2018 จากผลงาน Deep Learning ร่วมกับ Geoffrey Hinton และ Yoshua Bengio

Deep Learning คือเทคโนโลยีที่เป็นรากฐานของ AI ทุกตัวในวันนี้ — ทุกอย่างที่ ChatGPT ทำได้มันยืนอยู่บนงานของ LeCun และเพื่อนร่วมงานของเขา

หลังจากนั้นเขาเป็น Chief AI Scientist ของ Meta มานานหลายปี ควบคุมทีม AI Research ระดับโลก ก่อนจะออกมาตั้งบริษัทใหม่ในปี 2025

เมื่อคนที่สร้างรากฐานของ AI บอกว่าทิศทางปัจจุบันผิด มันไม่ใช่แค่ความเห็นส่วนตัว — มันคือสัญญาณเตือนที่ทั้งวงการต้องฟัง

AMI Labs — $1.03 พันล้านดอลลาร์กับ Seed Round ที่ใหญ่ที่สุดใน Europe

ในต้นปี 2025 LeCun ประกาศตั้ง AMI Labs (Advanced Machine Intelligence Labs) และระดมทุนได้ $1.03 พันล้านดอลลาร์ ใน seed round เดียว

ตัวเลขนี้ใหญ่แค่ไหน? มันคือ seed round ที่ใหญ่ที่สุดในประวัติศาสตร์ Europe ตลอดกาล — และมี valuation อยู่ที่ $3.5 พันล้านดอลลาร์ ก่อนที่บริษัทจะออกผลิตภัณฑ์ใดๆ

ผู้ลงทุนไม่ใช่นักลงทุนธรรมดา แต่คือยักษ์ใหญ่วงการ tech และผู้นำระดับโลก:

  • Nvidia — บริษัท chip ที่ขับเคลื่อน AI ทั้งโลก
  • Samsung — บริษัท tech ยักษ์ใหญ่จากเกาหลี
  • Toyota — ยักษ์ใหญ่ automotive ที่กำลังเดิมพันกับ AI
  • Jeff Bezos — ผู้ก่อตั้ง Amazon
  • Mark Cuban — นักลงทุนและ entrepreneur ระดับโลก
  • Eric Schmidt — อดีต CEO Google

AMI Labs มีสำนักงานใหญ่ที่ Paris พร้อม offices ใน New York, Montreal และ Singapore — กระจายอยู่ทั่วโลกตั้งแต่วันแรก

การที่คนระดับนี้ลงทุนขนาดนี้ ไม่ใช่เพราะเชื่อ hype — แต่เพราะเชื่อใน thesis ที่ LeCun กำลังพิสูจน์

ทำไม LeCun ถึงบอกว่า LLM เดินไปทางตัน?

นี่คือแก่นของทุกอย่าง และเป็นจุดที่ LeCun ขัดแย้งกับทั้งวงการ

ข้อโต้แย้งของเขามี 3 จุดหลัก:

1. LLM คือ “เครื่องบีบอัดสถิติ” ไม่ใช่ “ความเข้าใจ”

LeCun อธิบายว่า LLM ทำงานด้วยการ “ทายคำถัดไป” — มันเห็นข้อความและทายว่าคำต่อไปควรเป็นอะไรโดยอิงจากสถิติของข้อมูลที่เคยเห็น

มันไม่ได้ เข้าใจ ว่ากำลังพูดถึงอะไร เหมือนนักเรียนที่ท่องจำหนังสือทั้งเล่มได้ แต่ถ้าถามว่า “ทำไม” มันตอบไม่ได้จริงๆ

ลองนึกภาพนี้: ถ้าคุณ train LLM บนข้อความเกี่ยวกับฟิสิกส์ทั้งหมดที่มีอยู่ มันจะอธิบาย “แรงโน้มถ่วงคือ 9.8 m/s²” ได้อย่างคล่องแคล่ว แต่มันไม่ได้ รู้สึก ว่าของหนักจะตกลงมาเมื่อปล่อย มันไม่มี intuition แบบนั้น

2. Text คือข้อมูลที่ “จน” ที่สุด

เด็กทารกเรียนรู้โลกจากการมองเห็น ได้ยิน สัมผัส รับรส กลิ่น — ข้อมูลจาก sensor หลายล้านช่องทาง ในแต่ละวินาที

LLM เรียนรู้จาก text เท่านั้น

LeCun ประมาณว่า ข้อมูลที่เด็กได้รับจากการมองเห็นในแค่ชั่วโมงเดียว มีมากกว่าข้อความทั้งหมดที่ LLM ใช้ใน training ทั้งชีวิต Text คือ “projection” ที่บางมากของความเป็นจริง

นั่นคือสาเหตุที่ LLM ไม่เข้าใจ physics intuition — มันไม่เคย “เห็น” ของตกลงมาจริงๆ มีแต่อ่านเรื่องของที่ตก

3. Scaling Laws มีขีดจำกัด

วงการ AI เชื่อใน “scaling hypothesis” — ยิ่งโมเดลใหญ่ขึ้น ข้อมูลมากขึ้น compute มากขึ้น ยิ่งฉลาดขึ้น

LeCun บอกว่านั่นจริง แต่แค่ในระดับหนึ่ง

เมื่อถึงจุดหนึ่ง การเพิ่ม parameter จะได้ output ที่ “ดูฉลาด” ขึ้น แต่ไม่ได้ฉลาดขึ้นจริงๆ เหมือนกับการพิมพ์พจนานุกรมให้หนาขึ้นเรื่อยๆ — มันไม่ได้ทำให้พจนานุกรม “รู้ภาษา” มันแค่มีคำมากขึ้น

ตัวอย่างที่ชัดเจน: LLM ยังคงล้มเหลวใน “physical common sense” อย่างง่ายๆ — ถามว่าถ้าเอาลูกแก้วใส่ถ้วยแล้วปิดฝา แล้วพลิกถ้วย แล้วเปิดฝา ลูกแก้วอยู่ที่ไหน? โมเดลใหญ่ๆ ยังตอบผิดเป็นประจำ

World Model + JEPA — ทางเลือกของ LeCun

ถ้า LLM ไม่ใช่คำตอบ แล้ว LeCun เสนออะไร?

เขาเสนอสถาปัตยกรรม AI แบบใหม่ที่เรียกว่า World Models โดยใช้เทคนิคที่เรียกว่า JEPA (Joint Embedding Predictive Architecture)

แนวคิดหลักคือ: แทนที่จะให้ AI เรียนรู้โดยการทาย “คำถัดไป” ให้ AI เรียนรู้โดยการสร้าง model ของโลก ขึ้นมาในหัว

ลองนึกภาพว่าคุณเห็นลูกบอลกำลังลอยขึ้น คุณรู้ทันทีว่ามันจะต้องตกลงมา — คุณไม่ต้องคิด คุณไม่ต้อง Google คุณแค่ “รู้” เพราะสมองคุณมี model ของ physics อยู่แล้ว

JEPA พยายามสร้างสิ่งนี้ให้กับ AI:

  • เรียนรู้จาก sensor data จริงๆ — ไม่ใช่แค่ text แต่จากกล้อง เสียง สัมผัส ข้อมูลทุกรูปแบบ
  • สร้าง abstract representation — ไม่ใช่จำทุกอย่างแบบ pixel-by-pixel แต่เรียนรู้ concept เหมือนที่มนุษย์เข้าใจว่า “แก้ว” คืออะไร โดยไม่ต้องจำทุก texture ของแก้วทุกใบที่เคยเห็น
  • ทำนาย future state ใน abstract space — ไม่ใช่ทาย pixel ถัดไป แต่เข้าใจว่าถ้าทำ A แล้วจะเกิด B

ผลที่ตามมาคือ AI ที่ “เข้าใจ” โลก physical จริงๆ ไม่ใช่แค่จำข้อความเกี่ยวกับโลก

ตัวอย่างที่ LeCun ชอบใช้: เด็กอายุ 2 ขวบรู้ว่าถ้าปล่อยแก้วมันจะตกและแตก โดยไม่ต้องมีใครสอน ไม่ต้องอ่านหนังสือฟิสิกส์ แค่สังเกตโลกรอบตัวมาพอ World Model AI ควรจะทำแบบเดียวกันได้

แล้ว LeCun ถูกหรือเปล่า?

นี่คือคำถามที่ตอบได้ยากที่สุด และเป็นที่ถกเถียงกันมากที่สุดในวงการ AI

ฝั่งที่เชื่อ LeCun ชี้ว่า LLM ยังล้มเหลวในงานที่ต้องการ physical reasoning และ long-horizon planning จริงๆ ทุกครั้งที่ใครบอกว่า “แค่ scale ต่อไป ปัญหาจะหาย” มันก็ยังไม่หาย และงานวิจัยด้าน World Models ก็กำลังก้าวหน้าอย่างรวดเร็ว

ฝั่งที่ไม่เห็นด้วย บอกว่า multimodal LLM (ที่ดูวิดีโอ รูปภาพ ได้ด้วย) กำลังแก้ปัญหา “text only” ที่ LeCun พูดถึง และ GPT-4o, Gemini Ultra ก็เก่งขึ้นมากในงาน reasoning ทุกเวอร์ชัน อาจแค่ต้องรอให้ scale มากพอ

ความจริงอาจอยู่ตรงกลาง: ทั้งสองทางกำลังแข่งกันอยู่

OpenAI และ Google กำลัง push LLM ต่อไปด้วยเงินหลายหมื่นล้านดอลลาร์ LeCun และ AMI Labs กำลัง bet ว่า World Models คือทางที่ถูกต้อง

ถ้า LeCun ถูก — โลกกำลังนั่งดูการ pivot ที่ใหญ่ที่สุดในประวัติศาสตร์ AI และ AMI Labs จะกลายเป็นบริษัทที่สำคัญที่สุดในโลก

ถ้าเขาผิด — $1,000,000,000 ก็หายไปในพริบตา และ LLM จะเดินหน้าต่อไปโดยไม่มีใครสะดุด

สิ่งที่แน่ๆ คือ: เมื่อคนที่สร้างรากฐานของ AI ทั้งหมดลุกขึ้นมาบอกว่าทิศทางผิด และมีคนระดับ Bezos กับ Nvidia ยอมควักเงินพันล้านมาสนับสนุน — มันไม่ใช่แค่ความเห็นอีกต่อไป

มันคือ signal ที่วงการ AI ต้องจับตาดูอย่างใกล้ชิด


ติดตาม Humans Need Not สำหรับข่าว AI tools และความเคลื่อนไหวในวงการที่ใช้ได้จริงในชีวิตประจำวัน

Leave a Comment