AI Psychosis กับช่องโหว่ด้านสุขภาพจิตของแชตบอต

December 23, 2025

แชตบอต AI กำลังค่อย ๆ กลายมาเป็นส่วนหนึ่งของชีวิตประจำวันอย่างรวดเร็ว หลายคนอาจใช้ถามงาน ใช้เป็นผู้ช่วยส่วนตัว หรือแม้แต่เพื่อนคุยแก้เหงา ซึ่งบางคนอาจคุยกับ AI บ่อยพอ ๆ กับคุยกับมนุษย์จริง ๆ เลยด้วยซ้ำไป

แต่ในช่วงหลัง ๆ มานี้ เริ่มมีสัญญาณบางอย่างที่ทำให้ผู้เชี่ยวชาญและหน่วยงานกำกับดูแลต้องหันกลับมาทบทวนถึงอิทธิพลของ AI กันอย่างจริงจังมากขึ้น โดยเฉพาะผลกระทบต่อสุขภาพจิตของผู้ใช้

ทั้งข้อร้องเรียนถึงหน่วยงานรัฐ รายงานจากแพทย์ และงานวิจัยที่เริ่มชี้ให้เห็นว่า การพึ่งพาแชตบอต AI มากเกินไปอาจกระทบต่อสุขภาพจิตของผู้ใช้บางกลุ่ม ซึ่งปรากฏการณ์นี้ถูกเรียกรวม ๆ ว่า “AI Psychosis” แม้คำนี้จะยังไม่นับเป็นการวินิจฉัยทางการแพทย์ แต่สิ่งที่สะท้อนออกมาคือช่องโหว่สำคัญของระบบ AI ในปัจจุบันที่ถูกออกแบบมาให้ฉลาดและเป็นมิตร แต่อาจยังไม่ครอบคลุมถึงการรับมือกับความเปราะบางทางจิตใจของมนุษย์

AI Psychosis คืออะไร?

AI Psychosis ไม่ได้นับเป็นโรคใหม่ และยังไม่ได้รับการยอมรับเป็นศัพท์ทางการแพทย์อย่างเป็นทางการ แต่คำนี้ถูกใช้มากขึ้นเรื่อย ๆ เพื่ออธิบายกรณีที่ผู้ใช้บางคนมีอาการทางความคิดหรืออารมณ์ที่ผิดปกติรุนแรงขึ้น หลังจากใช้งานแชตบอต AI อย่างยาวนาน

สิ่งที่ทำให้ประเด็นนี้ถูกพูดถึงมากขึ้นคือข้อมูลจากหน่วยงานกำกับดูแลของสหรัฐฯ โดยคณะกรรมการการค้าแห่งสหรัฐ (Federal Trade Commission: FTC) เปิดเผยว่านับตั้งแต่ปี 2566 จนถึงปี 2568 มีข้อร้องเรียนเกี่ยวกับ ChatGPT ราว 200 กรณี โดยบางส่วนระบุถึงอาการอย่าง การหลงผิด (Delusion) ความหวาดระแวง (Paranoia) หรือภาวะสับสนหรือสงสัยถึงตัวตนและความเชื่อของตัวเองอย่างรุนแรง (Spiritual Crisis) รายงานเหล่านี้ไม่ได้มาจากโซเชียลมีเดีย แต่เป็นข้อร้องเรียนอย่างเป็นทางการที่ถูกบันทึกไว้จริง

ในขณะเดียวกัน นักจิตวิทยาและจิตแพทย์บางรายก็เริ่มรายงานว่าพบผู้ป่วยที่อาการทางจิตแย่ลงหลังใช้แชตบอตเป็นเวลานาน บางกรณีเป็นผู้ที่ไม่เคยมีประวัติการรักษาทางจิตเวชที่ชัดเจนมาก่อน ซึ่งทำให้หลายฝ่ายเริ่มตั้งคำถามกันอย่างจริงจังว่า AI อาจมีบทบาทในการกระตุ้นหรือขยายปัญหาที่ซ่อนอยู่หรือไม่?

ทำไม AI แชตบอตถึงกระตุ้นปัญหาสุขภาพจิตได้?

ปัญหานี้ไม่ได้เกิดจาก AI ตั้งใจให้เกิดอันตราย แต่เกิดจากวิธีที่มันถูกออกแบบขึ้นมา เนื่องจากแชตบอตถูกฝึกให้ตอบสนองผู้ใช้ด้วยท่าทีเป็นมิตร ไม่ขัดแย้ง และพยายามเข้าใจสิ่งที่ผู้ใช้พูด ผลคือเมื่อผู้ใช้มีความคิดที่มีแนวโน้มบิดเบือนหรือไม่สมเหตุสมผล AI อาจไม่คัดค้าน ซ้ำยังช่วยต่อยอดความคิดนั้นออกมา แม้ไม่ได้ตั้งใจจะยืนยันว่าความคิดเหล่านั้นถูกต้อง แต่ผู้ใช้อาจตีความได้ว่า AI สนับสนุน

อีกปัจจัยหนึ่งคือภาษาของ AI ที่มีความเป็นมนุษย์สูงขึ้นเรื่อย ๆ การใช้ถ้อยคำที่ดูเข้าอกเข้าใจ มีน้ำเสียงอบอุ่น และคอยตอบข้อความอย่างต่อเนื่อง ทำให้ผู้ใช้บางคน โดยเฉพาะผู้ที่กำลังอยู่ในภาวะเปราะบางทางอารมณ์ รู้สึกว่า AI “เข้าใจ” ตัวเองมากกว่าคนจริง ๆ จนเกิดเป็นความผูกพันทางอารมณ์และความเชื่อถือในตัว AI ที่เพิ่มขึ้นเรื่อย ๆ

ในโลกจริง การเข้าถึงบริการสุขภาพจิตยังคงเป็นเรื่องยากสำหรับคนจำนวนมาก ค่าใช้จ่ายสูง คิวนาน หรือขาดผู้เชี่ยวชาญ แชตบอตจึงกลายเป็นทางเลือกที่เข้าถึงง่ายและไม่มีค่าใช้จ่ายสำหรับคนที่เหงา เครียด หรือวิตกกังวล แต่ปัญหาคือ AI ไม่ได้ถูกออกแบบมาให้ทำหน้าที่เป็นนักบำบัด และไม่สามารถรับรู้หรือประเมินความเสี่ยงทางจิตใจได้อย่างแม่นยำ

ผลกระทบที่เกิดขึ้นจริงต่อกลุ่มเสี่ยง

จากการรายงานของสื่อในสหรัฐระบุว่า OpenAI มีการติดตามสัญญาณความเสี่ยงด้านสุขภาพจิตภายในระบบของตนเอง และพบว่าประมาณ 0.07% ของผู้ใช้งานรายสัปดาห์ แสดงสัญญาณที่อาจเกี่ยวข้องกับภาวะวิกลจริต (Psychosis) หรือ คึกคักมากกว่าปกติ (Mania) และราว 0.15% แสดงแนวโน้มการเกิดภาวะวิกฤต เช่น ความคิดฆ่าตัวตายหรือความเครียดรุนแรง

ตัวเลขเหล่านี้อาจดูเล็กน้อยในเชิงเปอร์เซ็นต์ แต่เมื่อคิดในระดับผู้ใช้หลายร้อยล้านคน ก็หมายความว่ามีผู้ใช้งานจำนวนไม่น้อยที่กำลังอยู่ในภาวะเปราะบาง และกำลังโต้ตอบกับระบบที่ไม่ได้ถูกออกแบบมาเพื่อดูแลด้านจิตใจโดยตรง

งานวิจัยในวารสาร Frontiers in Public Health พบว่า ผู้ที่มีภาวะซึมเศร้าหรือรู้สึกโดดเดี่ยว มีแนวโน้มใช้แชตบอตเพื่อเป็นเพื่อนคุยหรือที่พึ่งทางอารมณ์มากกว่าคนทั่วไปอย่างมีนัยสำคัญ นอกจากนี้ ผู้เชี่ยวชาญด้านสุขภาพจิตซึ่งทำงานอยู่ในระบบดูแลรักษาสุขภาพแห่งชาติของสหราชอาณาจักร (National Health Service: NHS) ยังได้ออกมาแสดงความกังวลว่า แชตบอตไม่ควรถูกใช้เป็นตัวแทนของนักบำบัด โดยเฉพาะในกลุ่มเด็กและเยาวชน แพทย์เตือนว่า AI ไม่สามารถประเมินความเสี่ยงหรือรับมือกับภาวะวิกฤตได้เหมือนผู้เชี่ยวชาญจริง และการใช้แทนการรักษาอาจทำให้อาการแย่ลงโดยไม่รู้ตัว

ช่องโหว่ที่ต้องเร่งแก้ไข ก่อนความเสี่ยงจะขยายตัว

แชตบอต AI ไม่ได้เป็นแค่เครื่องมือทำงานอีกต่อไป แต่กำลังกลายเป็นเพื่อน ที่ปรึกษา และพื้นที่ปลอดภัยทางอารมณ์ของคนจำนวนมาก ในโลกที่ผู้คนโดดเดี่ยวมากขึ้นและการเข้าถึงบริการสุขภาพจิตยังจำกัด บทบาทของ AI ขยายตัวเร็วเกินกว่าที่ระบบกำกับดูแลจะตามทัน

ความรับผิดชอบนี้ไม่ได้อยู่ที่ผู้ใช้งานฝ่ายเดียว บริษัทเทคโนโลยีจำเป็นต้องคิดถึงความปลอดภัยต่อสภาพจิตใจควบคู่ไปกับประสิทธิภาพ นักวิจัยและแพทย์ต้องมีงานศึกษาระยะยาวที่ชัดเจนขึ้น ขณะที่หน่วยงานกำกับดูแลควรเริ่มมอง “ภัยทางจิตใจ” เป็นส่วนหนึ่งของกรอบ AI Safety อย่างจริงจัง

สำหรับผู้ใช้ทั่วไป สิ่งสำคัญที่สุดคือการเข้าใจขอบเขตของ AI ให้ชัดเจน

AI คือเครื่องมือหรือผู้ช่วย ไม่ใช่นักบำบัด ไม่ใช่ผู้ดูแลชีวิต และไม่ใช่ผู้ตัดสินความจริง

การรู้เท่าทันและใช้งานอย่างมีสติ อาจเป็นเกราะป้องกันที่สำคัญที่สุด ในยุคที่ AI เข้ามาใกล้ชีวิตเรามากขึ้นทุกวัน

Share this article

Subscribe to InnoHub!

Stay updated and inspired

เรานำข้อมูลมาใช้เพื่อการส่งมอบคอนเทนต์และบริการอย่างเหมาะสม เราจะปกป้องความเป็นส่วนตัวของคุณ คุณสามารถอ่านข้อมูลเพิ่มเติมได้ที่ Privacy Policy และคลิกสมัครเพื่อดำเนินการต่อ