รู้เท่าทัน AI Hallucination เมื่อธรรมชาติของ AI คือการคาดเดา

August 15, 2025

เวลาที่เราถามอะไร แล้วระบบให้คำตอบที่ผิด ตอบมั่ว หรือมั่นใจในข้อมูลผิด ๆ หลายคนอาจคิดว่า “ระบบยังไม่สมบูรณ์” หรือ “คงต้องรอเวอร์ชันใหม่ให้ฉลาดกว่านี้” แต่ความจริงคือ ปัญหานี้จะไม่ได้หายไปง่าย ๆ เพราะมันไม่ใช่ข้อผิดพลาด แต่คือคุณสมบัติที่ฝังอยู่ในตัวระบบตั้งแต่แรก

ปัญหานี้ยิ่งน่าเป็นห่วงเมื่อเราเริ่มใช้ AI ในงานสำคัญ ๆ มากขึ้น ไม่ว่าจะเป็นการสรุปรายงานทางการแพทย์ ร่างเอกสารกฎหมาย ตอบคำถามลูกค้า หรือแม้แต่ใช้ประกอบการตัดสินใจในองค์กร และหากเราหลงเชื่อ AI โดยไม่ได้ตรวจสอบข้อเท็จจริง ความเสียหายที่ตามมาอาจมีมูลค่ามากกว่าที่คิด

ทำไมอาการ “AI หลอน” ถึงหลีกเลี่ยงไม่ได้

โมเดลภาษาขนาดใหญ่ (Large Language Model: LLM) เช่น GPT, Gemini หรือ Claude ไม่ได้ถูกออกแบบมาให้ “ตรวจสอบความจริง” แต่ถูกฝึกมาเพื่อ “คาดเดาคำถัดไป” ให้สมเหตุสมผลมากที่สุด โดยโมเดลเหล่านี้จะเรียนรู้จากข้อมูลมหาศาลในอินเทอร์เน็ต และใช้สถิติคาดเดาว่าคำต่อไปควรจะเป็นอะไร ดังนั้น ระบบของ AI เหล่านี้จึงให้ความสำคัญกับความไหลลื่นทางภาษามากกว่าความถูกต้องของข้อเท็จจริง และเมื่อเจอช่องว่างหรือความคลุมเครือ มันก็พร้อมจะ “แต่งเรื่อง” ขึ้นมาอย่างมั่นใจ หรือที่เรียกว่า AI Hallucination นั่นเอง

งานวิจัยจากมหาวิทยาลัยคอร์เนลล์ (Cornell University) ระบุว่า ต่อให้โมเดลฉลาดแค่ไหน ก็จะยังมีโอกาสแต่งเรื่องขึ้นมาเองได้เสมอ เพราะเป็นข้อจำกัดพื้นฐานของวิธีที่โมเดลเรียนรู้และตอบสนอง ไม่เท่านั้น Sohrob Kazerounian นักวิจัยด้าน AI ก็เคยให้สัมภาษณ์กับ Live Science โดยอ้างอิงคำพูดของเพื่อนร่วมงานของเขาที่กล่าวไว้ว่า 

“ทุกอย่างที่โมเดลภาษาสร้างขึ้นมาคือการหลอนไปเองทั้งนั้น แค่บางอันมัน ‘บังเอิญถูก’ เท่านั้นเอง”

ยิ่งฉลาด ยิ่งแต่งเรื่องเก่ง

สิ่งที่น่าสนใจคือ ยิ่งโมเดลมีความสามารถในการเหตุผลสูงขึ้นเท่าไร ก็จะยิ่งสามารถแต่งเรื่องที่ดูน่าเชื่อได้บ่อยขึ้น และเก่งขึ้น จนผู้ใช้ไม่ทันระวัง

จากงานวิจัยของ OpenAI พบว่าโมเดลเวอร์ชันใหม่ ๆ อย่าง o3 และ o4-mini มีอัตราการเกิด AI Hallucination สูงถึง 33% และ 48% ตามลำดับ เมื่อทดสอบด้วย PersonQA benchmark ซึ่งมากกว่าโมเดลเก่าอย่าง o1 ถึงสองเท่า  

ความเสียหายที่ไม่ได้หยุดอยู่แค่โลกออนไลน์

ความเสี่ยงของ AI Hallucination ไม่ได้จำกัดแค่ในห้องแชตเท่านั้น เพราะในปัจจุบัน AI ถูกใช้ในหลายวงการที่ผลกระทบของข้อมูลเท็จอาจหมายถึงผลกระทบต่อชื่อเสียง ผลลัพธ์ทางกฎหมาย หรือแม้แต่ชีวิตได้

วงการแพทย์

ในปี 2567 โมเดล “Med-Gemini” ของ Google ถูกวิจารณ์อย่างหนักหลังจากแต่งชื่อโครงสร้างในสมองที่ไม่มีอยู่จริงขึ้นมาเองในรายงานทางการแพทย์ โดยใช้ชื่อว่า “Basilar Ganglia” (ซึ่งจริง ๆ คือ Basal Ganglia แต่โมเดลนำไปผสมกับ Basilar Artery) 

แม้ Google จะให้เหตุผลว่าเป็นข้อผิดพลาดที่เกิดจาก “พิมพ์ผิด” แต่เหตุการณ์นี้ก็จุดกระแสความกังวลเรื่องการใช้ AI กับงานวินิจฉัยหรือการสื่อสารในวงการแพทย์

วงการกฎหมาย

ในสหรัฐฯ มีทนายจำนวนมากถูกปรับและลงโทษฐานใช้เนื้อหาจาก AI โดยไม่ตรวจสอบ ทำให้มีการอ้างอิง ข้อมูลปลอมที่ไม่มีอยู่จริงในการยื่นเอกสารต่อศาล ตัวอย่างเช่น

  • ที่รัฐยูทาห์ ทนายคนหนึ่งถูกปรับ 5,500 ดอลลาร์ และต้องเข้าเรียนคอร์สเกี่ยวกับ AI หลังจากยื่นเอกสารที่มีคำพิพากษาปลอมที่สร้างโดย ChatGPT
  • ที่โคโลราโด ทนายอีก 2 คนถูกปรับคนละ 3,000 ดอลลาร์ เพราะยื่นคำร้องที่มีการอ้างอิงข้อมูลคดีความเท็จรวมกว่า 30 รายการ

นับตั้งแต่ปี 2566 จนถึงปัจจุบัน มีคดีในศาลอย่างน้อย 271 คดีทั่วโลกที่พบรายงานการใช้ AI สร้างข้อมูลเท็จ โดยที่ทนายความไม่ได้ตรวจสอบให้ดี ส่งผลให้กระบวนการยุติธรรมต้องสูญเสียทั้งเวลาและความน่าเชื่อถือ

ไม่ใช่แค่ “รู้จักใช้” แต่ต้อง “รู้เท่าทัน”

ปัญหา AI Hallucination เป็นเครื่องย้ำเตือนว่าแค่รู้วิธีพิมพ์ Prompt อาจไม่พออีกต่อไป หน่วยงาน และภาคการศึกษาควรเร่งผลักดันเรื่อง AI Literacy หรือความเข้าใจในการใช้ AI อย่างปลอดภัยและมีวิจารณญาณ ซึ่งมากกว่าแค่การสอนใช้งานพื้นฐาน แต่ต้องครอบคลุมถึงการคิดวิเคราะห์และตั้งคำถาม การตรวจสอบข้อเท็จจริงโดยมีแหล่งข้อมูลอื่นประกอบ และการออกแบบกระบวนการที่ให้มนุษย์ทำงานร่วมกับ AI ได้อย่างปลอดภัย

เพราะสุดท้ายแล้ว ต่อให้ AI มีศักยภาพในการสร้างสรรค์หรือให้เหตุผลได้ล้ำลึกเพียงใด ก็ไม่ได้หมายความว่าโมเดลเหล่านี้จะรู้จริง หรือพูดความจริงเสมอไป

แต่หากเราเข้าใจหลักการทำงานของมัน และเรียนรู้ที่จะใช้ข้อมูลจาก AI อย่างรอบคอบ เช่นเดียวกับการตรวจสอบข่าวหรือข้อมูลจากแหล่งอื่น ๆ เราก็จะสามารถใช้ประโยชน์จากเทคโนโลยีนี้ได้อย่างมั่นใจ โดยไม่ตกเป็นเหยื่อของอาการหลอนของ AI แบบไม่รู้ตัว

Share this article

Subscribe to InnoHub!

Stay updated and inspired

เรานำข้อมูลมาใช้เพื่อการส่งมอบคอนเทนต์และบริการอย่างเหมาะสม เราจะปกป้องความเป็นส่วนตัวของคุณ คุณสามารถอ่านข้อมูลเพิ่มเติมได้ที่ Privacy Policy และคลิกสมัครเพื่อดำเนินการต่อ