เวลาที่เราถามอะไร แล้วระบบให้คำตอบที่ผิด ตอบมั่ว หรือมั่นใจในข้อมูลผิด ๆ หลายคนอาจคิดว่า “ระบบยังไม่สมบูรณ์” หรือ “คงต้องรอเวอร์ชันใหม่ให้ฉลาดกว่านี้” แต่ความจริงคือ ปัญหานี้จะไม่ได้หายไปง่าย ๆ เพราะมันไม่ใช่ข้อผิดพลาด แต่คือคุณสมบัติที่ฝังอยู่ในตัวระบบตั้งแต่แรก
ปัญหานี้ยิ่งน่าเป็นห่วงเมื่อเราเริ่มใช้ AI ในงานสำคัญ ๆ มากขึ้น ไม่ว่าจะเป็นการสรุปรายงานทางการแพทย์ ร่างเอกสารกฎหมาย ตอบคำถามลูกค้า หรือแม้แต่ใช้ประกอบการตัดสินใจในองค์กร และหากเราหลงเชื่อ AI โดยไม่ได้ตรวจสอบข้อเท็จจริง ความเสียหายที่ตามมาอาจมีมูลค่ามากกว่าที่คิด
ทำไมอาการ “AI หลอน” ถึงหลีกเลี่ยงไม่ได้
โมเดลภาษาขนาดใหญ่ (Large Language Model: LLM) เช่น GPT, Gemini หรือ Claude ไม่ได้ถูกออกแบบมาให้ “ตรวจสอบความจริง” แต่ถูกฝึกมาเพื่อ “คาดเดาคำถัดไป” ให้สมเหตุสมผลมากที่สุด โดยโมเดลเหล่านี้จะเรียนรู้จากข้อมูลมหาศาลในอินเทอร์เน็ต และใช้สถิติคาดเดาว่าคำต่อไปควรจะเป็นอะไร ดังนั้น ระบบของ AI เหล่านี้จึงให้ความสำคัญกับความไหลลื่นทางภาษามากกว่าความถูกต้องของข้อเท็จจริง และเมื่อเจอช่องว่างหรือความคลุมเครือ มันก็พร้อมจะ “แต่งเรื่อง” ขึ้นมาอย่างมั่นใจ หรือที่เรียกว่า AI Hallucination นั่นเอง
งานวิจัยจากมหาวิทยาลัยคอร์เนลล์ (Cornell University) ระบุว่า ต่อให้โมเดลฉลาดแค่ไหน ก็จะยังมีโอกาสแต่งเรื่องขึ้นมาเองได้เสมอ เพราะเป็นข้อจำกัดพื้นฐานของวิธีที่โมเดลเรียนรู้และตอบสนอง ไม่เท่านั้น Sohrob Kazerounian นักวิจัยด้าน AI ก็เคยให้สัมภาษณ์กับ Live Science โดยอ้างอิงคำพูดของเพื่อนร่วมงานของเขาที่กล่าวไว้ว่า
“ทุกอย่างที่โมเดลภาษาสร้างขึ้นมาคือการหลอนไปเองทั้งนั้น แค่บางอันมัน ‘บังเอิญถูก’ เท่านั้นเอง”
ยิ่งฉลาด ยิ่งแต่งเรื่องเก่ง
สิ่งที่น่าสนใจคือ ยิ่งโมเดลมีความสามารถในการเหตุผลสูงขึ้นเท่าไร ก็จะยิ่งสามารถแต่งเรื่องที่ดูน่าเชื่อได้บ่อยขึ้น และเก่งขึ้น จนผู้ใช้ไม่ทันระวัง
จากงานวิจัยของ OpenAI พบว่าโมเดลเวอร์ชันใหม่ ๆ อย่าง o3 และ o4-mini มีอัตราการเกิด AI Hallucination สูงถึง 33% และ 48% ตามลำดับ เมื่อทดสอบด้วย PersonQA benchmark ซึ่งมากกว่าโมเดลเก่าอย่าง o1 ถึงสองเท่า
ความเสียหายที่ไม่ได้หยุดอยู่แค่โลกออนไลน์
ความเสี่ยงของ AI Hallucination ไม่ได้จำกัดแค่ในห้องแชตเท่านั้น เพราะในปัจจุบัน AI ถูกใช้ในหลายวงการที่ผลกระทบของข้อมูลเท็จอาจหมายถึงผลกระทบต่อชื่อเสียง ผลลัพธ์ทางกฎหมาย หรือแม้แต่ชีวิตได้
วงการแพทย์
ในปี 2567 โมเดล “Med-Gemini” ของ Google ถูกวิจารณ์อย่างหนักหลังจากแต่งชื่อโครงสร้างในสมองที่ไม่มีอยู่จริงขึ้นมาเองในรายงานทางการแพทย์ โดยใช้ชื่อว่า “Basilar Ganglia” (ซึ่งจริง ๆ คือ Basal Ganglia แต่โมเดลนำไปผสมกับ Basilar Artery)
แม้ Google จะให้เหตุผลว่าเป็นข้อผิดพลาดที่เกิดจาก “พิมพ์ผิด” แต่เหตุการณ์นี้ก็จุดกระแสความกังวลเรื่องการใช้ AI กับงานวินิจฉัยหรือการสื่อสารในวงการแพทย์
วงการกฎหมาย
ในสหรัฐฯ มีทนายจำนวนมากถูกปรับและลงโทษฐานใช้เนื้อหาจาก AI โดยไม่ตรวจสอบ ทำให้มีการอ้างอิง ข้อมูลปลอมที่ไม่มีอยู่จริงในการยื่นเอกสารต่อศาล ตัวอย่างเช่น
- ที่รัฐยูทาห์ ทนายคนหนึ่งถูกปรับ 5,500 ดอลลาร์ และต้องเข้าเรียนคอร์สเกี่ยวกับ AI หลังจากยื่นเอกสารที่มีคำพิพากษาปลอมที่สร้างโดย ChatGPT
- ที่โคโลราโด ทนายอีก 2 คนถูกปรับคนละ 3,000 ดอลลาร์ เพราะยื่นคำร้องที่มีการอ้างอิงข้อมูลคดีความเท็จรวมกว่า 30 รายการ
นับตั้งแต่ปี 2566 จนถึงปัจจุบัน มีคดีในศาลอย่างน้อย 271 คดีทั่วโลกที่พบรายงานการใช้ AI สร้างข้อมูลเท็จ โดยที่ทนายความไม่ได้ตรวจสอบให้ดี ส่งผลให้กระบวนการยุติธรรมต้องสูญเสียทั้งเวลาและความน่าเชื่อถือ
ไม่ใช่แค่ “รู้จักใช้” แต่ต้อง “รู้เท่าทัน”
ปัญหา AI Hallucination เป็นเครื่องย้ำเตือนว่าแค่รู้วิธีพิมพ์ Prompt อาจไม่พออีกต่อไป หน่วยงาน และภาคการศึกษาควรเร่งผลักดันเรื่อง AI Literacy หรือความเข้าใจในการใช้ AI อย่างปลอดภัยและมีวิจารณญาณ ซึ่งมากกว่าแค่การสอนใช้งานพื้นฐาน แต่ต้องครอบคลุมถึงการคิดวิเคราะห์และตั้งคำถาม การตรวจสอบข้อเท็จจริงโดยมีแหล่งข้อมูลอื่นประกอบ และการออกแบบกระบวนการที่ให้มนุษย์ทำงานร่วมกับ AI ได้อย่างปลอดภัย
เพราะสุดท้ายแล้ว ต่อให้ AI มีศักยภาพในการสร้างสรรค์หรือให้เหตุผลได้ล้ำลึกเพียงใด ก็ไม่ได้หมายความว่าโมเดลเหล่านี้จะรู้จริง หรือพูดความจริงเสมอไป
แต่หากเราเข้าใจหลักการทำงานของมัน และเรียนรู้ที่จะใช้ข้อมูลจาก AI อย่างรอบคอบ เช่นเดียวกับการตรวจสอบข่าวหรือข้อมูลจากแหล่งอื่น ๆ เราก็จะสามารถใช้ประโยชน์จากเทคโนโลยีนี้ได้อย่างมั่นใจ โดยไม่ตกเป็นเหยื่อของอาการหลอนของ AI แบบไม่รู้ตัว