ถ้าวันหนึ่ง AI ปฏิเสธการรักษาคุณ — ใครต้องรับผิด?

สมมติวันนึง คุณเดินเข้าโรงพยาบาล

หมอบอกว่า
“ประกันไม่อนุมัติครับ”

คุณถามว่า
“ทำไม?”

เขาตอบว่า
“ระบบประเมินแบบนั้น”

คุณถามต่อว่า
“ระบบอะไร?”

คำตอบคือ AI

คำถามต่อจากนั้นไม่ใช่แค่ว่า “ทำไมมันถึงปฏิเสธ”
แต่คือ “แล้วคุณจะไปเอาเรื่องกับใคร?”

โรงพยาบาลก็บอกว่าทำตามระบบ
บริษัทประกันก็บอกว่าระบบประเมินแบบนั้น
ส่วนบริษัทที่สร้างระบบ AI ก็อยู่ไกลเกินกว่าจะต้องมาตอบคำถามคุณตรงๆ

ถ้าอ่านมาถึงตรงนี้แล้วรู้สึกว่าเหมือนหนัง dystopian นิดๆ ก็ไม่แปลก
ปัญหาคือ มันไม่ใช่เรื่องแต่งอีกต่อไป

โลกกำลังค่อยๆ ขยับไปทางนั้นจริง

AI ไม่ได้อยู่แค่ในแชตแล้ว

หลายคนยังติดภาพ AI ว่าเป็นผู้ช่วยเขียนงาน
เป็น chatbot ที่ตอบคำถาม
เป็นเครื่องมือสร้างรูป สร้างวิดีโอ หรือสรุปเอกสาร

แต่ในโลกจริง AI กำลังหลุดออกจากบทบาท “ผู้ช่วย” และค่อยๆ เข้าไปอยู่ในบทบาท “ผู้ตัดสิน”

มันถูกใช้ในระบบคัดกรองใบสมัครงาน
ระบบประเมินเครดิต
ระบบประกัน
ระบบตรวจจับความเสี่ยง
รวมถึงการจัดลำดับว่าใครควรได้สิทธิ์อะไร ก่อนหรือหลัง

ตรงนี้แหละที่เรื่องเริ่มเปลี่ยน

เพราะถ้า AI เขียนแคปชันพลาด มันน่ารำคาญ
แต่ถ้า AI ตัดสินใจพลาดในเรื่องงาน เงิน สุขภาพ หรือชื่อเสียงของคน
ผลลัพธ์มันไม่ใช่แค่ annoying แล้ว
มันคือความเสียหายจริง

ปัญหาคือเวลาระบบพลาด คนที่โดนผลกระทบมักไม่รู้ด้วยซ้ำว่าพลาดเพราะอะไร

โมเดลใช้ข้อมูลอะไร
ให้ค่าน้ำหนักกับอะไร
มี bias หรือเปล่า
ทำไมคนหนึ่งผ่าน แต่อีกคนไม่ผ่าน

คำตอบมักถูกห่อไว้ด้วยคำง่ายๆ คำเดียว

“ระบบประเมินแบบนั้น”

ซึ่งฟังดูเป็นกลาง ฟังดูเท่ และฟังดูทันสมัย
แต่ในอีกความหมายหนึ่ง มันคือการบอกว่า
ไม่มีใครอยู่ตรงนี้เพื่อรับผิดชอบกับคุณจริงๆ

ปัญหาที่น่ากลัวที่สุดไม่ใช่ AI ฉลาดขึ้น แต่คืออำนาจของมันโตเร็วกว่า accountability

เวลาคนพูดถึง AI เรามักถกกันเรื่อง capability

มันฉลาดขึ้นแค่ไหน
จะเขียนโค้ดแทนคนได้ไหม
จะทำงานแทนคนกี่อาชีพ
จะไปถึง AGI หรือเปล่า

แต่คำถามที่สำคัญไม่แพ้กันคือ
ในวันที่ AI ถูกใช้ตัดสินเรื่องสำคัญ ใครเป็นคนรับผิดถ้ามันผิด?

ถ้ายังตอบคำถามนี้ไม่ได้
ทุกความเก่งของ AI ก็มีต้นทุนแฝงอยู่เสมอ

ยิ่งระบบมีอิทธิพลต่อชีวิตคนมากขึ้น
ต้นทุนของความผิดพลาดก็ยิ่งไม่ควรถูกโยนทิ้งไว้กลางอากาศ

ปัญหาไม่ได้อยู่แค่ว่า AI จะพลาดหรือไม่พลาด
เพราะทุกระบบพลาดได้อยู่แล้ว

ปัญหาอยู่ที่ว่า
เมื่อมันพลาด
คนธรรมดายังมีสิทธิ์เรียกคำอธิบายไหม
ยังมีสิทธิ์อุทธรณ์ไหม
ยังมีมนุษย์คนไหนที่ต้องรับผิดชอบแทนระบบไหม

ถ้าคำตอบคือไม่มี
เราไม่ได้กำลังสร้างระบบที่ฉลาดขึ้นอย่างเดียว

เรากำลังสร้างระบบที่มีอำนาจมากขึ้น
โดยที่เส้นทางการตรวจสอบกลับยิ่งพร่ามัวลง

และในจังหวะที่โลกควรถามเรื่องนี้ให้ดังขึ้น บริษัทใหญ่กลับกำลังดันไปอีกทาง

สิ่งที่ทำให้เรื่องนี้น่าคิดขึ้นไปอีกคือ
ในขณะที่ AI เริ่มแตะเรื่องชีวิตจริงมากขึ้น
บริษัทเทคและกลุ่มทุนบางส่วนกลับเคลื่อนไหวทางการเมืองอย่างจริงจัง
เพื่อผลักฝั่งที่ไม่อยากให้ AI ถูกคุมเข้มเกินไป

รายงานหลายชิ้นชี้ไปในทิศทางเดียวกันว่า
กลุ่มที่เกี่ยวข้องกับ OpenAI, Meta และนักลงทุนรายใหญ่ เช่น Andreessen Horowitz
กำลังหนุนกลไกการเมืองด้วยเงินจำนวนมหาศาล
เพื่อสนับสนุนแนวทางที่ลดแรงเสียดทานต่อการพัฒนา AI

มุมของพวกเขาก็มีเหตุผลของตัวเอง

  • ถ้ากฎเยอะเกินไป นวัตกรรมจะช้า
  • ถ้าสหรัฐช้า จีนจะแซง
  • ถ้าแบก compliance เร็วเกินไป บริษัทอเมริกันจะเสียเปรียบ
  • โลกไม่ควรหยุดอนาคตเพราะความกลัว

ฟังดูสมเหตุสมผลมาก
และต้องยอมรับด้วยว่าไม่ใช่เหตุผลไร้น้ำหนัก

ปัญหาคือ เวลาพูดเรื่อง “ความเร็วของนวัตกรรม” เรามักลืมถามว่า
แล้วใครเป็นคนจ่ายต้นทุนของความเร็วนี้?

ไม่ใช่ซีอีโอ
ไม่ใช่นักลงทุน
ไม่ใช่คนที่มีทีมกฎหมายและ PR รองรับทุกความเสี่ยง

แต่คือคนที่อาจถูกระบบปฏิเสธ
ถูกคัดออก
ถูกตัดสิทธิ์
ถูกเหมารวม
หรือถูกทำร้ายโดยระบบที่ไม่มีใครอธิบายให้ฟังได้ว่ามันตัดสินแบบนั้นเพราะอะไร

เรื่องนี้ไม่ใช่ “ควรให้ AI ไปต่อไหม” แต่มันคือ “จะปล่อยให้ใครเป็นคนตั้งกติกา”

เวลา debate เรื่อง regulation คนชอบเถียงกันอยู่สองฝั่ง

ฝั่งหนึ่งมองว่า
AI ต้องไปต่อให้เร็วที่สุด
เพราะนี่คือการแข่งขันระดับชาติ
กฎเยอะเกินไปจะทำให้ประเทศแพ้

อีกฝั่งมองว่า
ยิ่งเทคโนโลยีมีอำนาจมาก ยิ่งต้องมี guardrails มาก
เพราะถ้าปล่อยให้วิ่งก่อนแล้วค่อยซ่อมทีหลัง
คนที่โดนผลกระทบก่อนจะไม่มีทางเป็นคนที่ได้ประโยชน์มากที่สุดจากมัน

ทั้งสองฝั่งมี logic ของตัวเอง

แต่คำถามที่ลึกกว่านั้นคือ
ใครควรเป็นคนกำหนดว่า guardrails ต้องมีแค่ไหน

ถ้าบริษัทที่สร้าง AI เป็นคนบอกเองว่าไม่ควรคุมมาก
นักลงทุนที่ได้ผลตอบแทนจากการเร่งโตเป็นคนบอกเองว่าความเสี่ยงไหนยอมรับได้
และนักการเมืองที่ได้รับแรงสนับสนุนจากทุนเทคเป็นคนช่วยเขียนกติกา

สุดท้ายสิ่งที่เรียกว่า “การกำกับดูแล” ก็อาจเหลือแค่ชื่อ

และนี่แหละคือจุดที่คนเริ่มไม่สบายใจ

เพราะมันไม่ใช่แค่เรื่องว่า AI เก่งหรือไม่เก่ง
แต่เป็นเรื่องว่า เมื่อ AI เริ่มมีอำนาจตัดสินชีวิตคน
ประชาชนยังเหลืออำนาจต่อรองอยู่แค่ไหน

ถ้ามองในมุมของคนธรรมดา regulation ไม่ได้แปลว่า “ขวางนวัตกรรม”

คำว่า AI regulation ฟังดูไกลตัวมาก

แต่ถ้าแปลเป็นภาษาคนธรรมดา มันอาจแปลว่าแค่สิ่งเหล่านี้:

  • ถ้าระบบปฏิเสธคุณ คุณมีสิทธิ์รู้เหตุผลไหม
  • ถ้าระบบใช้ข้อมูลผิด คุณมีสิทธิ์แก้ข้อมูลไหม
  • ถ้าระบบตัดสินผิดจนคุณเสียหาย บริษัทต้องอธิบายไหม
  • ถ้าระบบถูกใช้ในเรื่องสำคัญ ควรมีมนุษย์ review ไหม
  • ถ้าระบบทำให้เกิดความเสียหายจริง ใครต้องรับผิดชอบ

นี่ไม่ใช่การ “ขัดขวางอนาคต”
แต่มันคือการถามว่า อนาคตแบบไหนที่เรารับได้

อนาคตที่เร็วมาก แต่ไร้คนรับผิด
หรืออนาคตที่อาจช้าลงบ้าง แต่ยังมีสิทธิ์ให้คนธรรมดาเรียกร้องความเป็นธรรม

ปัญหาที่แท้จริงของ AI อาจไม่ใช่เรื่องปัญญา แต่อาจเป็นเรื่องอำนาจ

เราชอบคุยกันว่า AI จะฉลาดเท่ามนุษย์ไหม
จะมี reasoning ดีขึ้นหรือไม่
จะไปถึง AGI หรือเปล่า

แต่ในชีวิตจริง สิ่งที่มาก่อน AGI อาจเป็นสิ่งที่เรียบง่ายและอันตรายกว่า

คือการที่ระบบอัตโนมัติค่อยๆ ได้อำนาจมากขึ้น
ในขณะที่คนทั่วไปค่อยๆ สูญเสียสิทธิ์ในการถามกลับ

เมื่อก่อน ถ้ามนุษย์ตัดสินผิด
อย่างน้อยคุณยังรู้ว่าควรโกรธใคร ควรอุทธรณ์กับใคร ควรฟ้องใคร

แต่ในโลกของ AI
ความผิดพลาดมักมาในรูปของคำที่ฟังดูไร้ตัวตนมากๆ

“ระบบเป็นคนประเมิน”

ประโยคนี้เหมือนเป็นกลาง
แต่จริงๆ มันอาจเป็นประโยคที่อันตรายที่สุดประโยคหนึ่งในยุคนี้

เพราะมันทิ้งคนที่ได้รับผลกระทบไว้กับกำแพงที่ไม่มีประตู
คุณชนมันได้ แต่คุณเคาะเรียกใครไม่ได้

ถ้าวันหนึ่งเรื่องนี้เกิดกับคุณ คุณยังจะเรียกมันว่า “ความก้าวหน้า” ไหม

นี่อาจเป็นคำถามที่สำคัญที่สุดในเรื่องนี้

ง่ายมากที่จะเชียร์ให้ AI ไปต่อเร็วๆ
ตราบใดที่คนที่โดนผลกระทบ ยังไม่ใช่เรา

ง่ายมากที่จะบอกว่า regulation ทำให้ประเทศช้า
ตราบใดที่คนที่ถูกระบบปฏิเสธ ยังไม่ใช่คนในบ้านเรา

ง่ายมากที่จะเชื่อว่าบริษัทจะรับผิดชอบตัวเองได้
ตราบใดที่เราไม่เคยเป็นคนที่ยืนอยู่หน้าระบบ แล้วไม่ได้คำตอบอะไรกลับมาเลย

สุดท้ายแล้ว คำถามอาจไม่ใช่ว่า
AI ควรฉลาดขึ้นเร็วแค่ไหน

แต่อาจเป็นว่า

ถ้าวันหนึ่ง AI ตัดสินชีวิตคุณผิด
คุณยังโอเคไหม ถ้าโลกนั้นไม่มีใครต้องรับผิดชอบเลย

นั่นต่างหากคือโจทย์จริง

และมันอาจเป็นโจทย์ที่ใหญ่กว่าคำถามว่า
ใครจะชนะการแข่งขัน AI เสียอีก

Leave a Comment