แชตบอต AI กำลังค่อย ๆ กลายมาเป็นส่วนหนึ่งของชีวิตประจำวันอย่างรวดเร็ว หลายคนอาจใช้ถามงาน ใช้เป็นผู้ช่วยส่วนตัว หรือแม้แต่เพื่อนคุยแก้เหงา ซึ่งบางคนอาจคุยกับ AI บ่อยพอ ๆ กับคุยกับมนุษย์จริง ๆ เลยด้วยซ้ำไป
แต่ในช่วงหลัง ๆ มานี้ เริ่มมีสัญญาณบางอย่างที่ทำให้ผู้เชี่ยวชาญและหน่วยงานกำกับดูแลต้องหันกลับมาทบทวนถึงอิทธิพลของ AI กันอย่างจริงจังมากขึ้น โดยเฉพาะผลกระทบต่อสุขภาพจิตของผู้ใช้
ทั้งข้อร้องเรียนถึงหน่วยงานรัฐ รายงานจากแพทย์ และงานวิจัยที่เริ่มชี้ให้เห็นว่า การพึ่งพาแชตบอต AI มากเกินไปอาจกระทบต่อสุขภาพจิตของผู้ใช้บางกลุ่ม ซึ่งปรากฏการณ์นี้ถูกเรียกรวม ๆ ว่า “AI Psychosis” แม้คำนี้จะยังไม่นับเป็นการวินิจฉัยทางการแพทย์ แต่สิ่งที่สะท้อนออกมาคือช่องโหว่สำคัญของระบบ AI ในปัจจุบันที่ถูกออกแบบมาให้ฉลาดและเป็นมิตร แต่อาจยังไม่ครอบคลุมถึงการรับมือกับความเปราะบางทางจิตใจของมนุษย์
AI Psychosis คืออะไร?
AI Psychosis ไม่ได้นับเป็นโรคใหม่ และยังไม่ได้รับการยอมรับเป็นศัพท์ทางการแพทย์อย่างเป็นทางการ แต่คำนี้ถูกใช้มากขึ้นเรื่อย ๆ เพื่ออธิบายกรณีที่ผู้ใช้บางคนมีอาการทางความคิดหรืออารมณ์ที่ผิดปกติรุนแรงขึ้น หลังจากใช้งานแชตบอต AI อย่างยาวนาน
สิ่งที่ทำให้ประเด็นนี้ถูกพูดถึงมากขึ้นคือข้อมูลจากหน่วยงานกำกับดูแลของสหรัฐฯ โดยคณะกรรมการการค้าแห่งสหรัฐ (Federal Trade Commission: FTC) เปิดเผยว่านับตั้งแต่ปี 2566 จนถึงปี 2568 มีข้อร้องเรียนเกี่ยวกับ ChatGPT ราว 200 กรณี โดยบางส่วนระบุถึงอาการอย่าง การหลงผิด (Delusion) ความหวาดระแวง (Paranoia) หรือภาวะสับสนหรือสงสัยถึงตัวตนและความเชื่อของตัวเองอย่างรุนแรง (Spiritual Crisis) รายงานเหล่านี้ไม่ได้มาจากโซเชียลมีเดีย แต่เป็นข้อร้องเรียนอย่างเป็นทางการที่ถูกบันทึกไว้จริง
ในขณะเดียวกัน นักจิตวิทยาและจิตแพทย์บางรายก็เริ่มรายงานว่าพบผู้ป่วยที่อาการทางจิตแย่ลงหลังใช้แชตบอตเป็นเวลานาน บางกรณีเป็นผู้ที่ไม่เคยมีประวัติการรักษาทางจิตเวชที่ชัดเจนมาก่อน ซึ่งทำให้หลายฝ่ายเริ่มตั้งคำถามกันอย่างจริงจังว่า AI อาจมีบทบาทในการกระตุ้นหรือขยายปัญหาที่ซ่อนอยู่หรือไม่?
ทำไม AI แชตบอตถึงกระตุ้นปัญหาสุขภาพจิตได้?
ปัญหานี้ไม่ได้เกิดจาก AI ตั้งใจให้เกิดอันตราย แต่เกิดจากวิธีที่มันถูกออกแบบขึ้นมา เนื่องจากแชตบอตถูกฝึกให้ตอบสนองผู้ใช้ด้วยท่าทีเป็นมิตร ไม่ขัดแย้ง และพยายามเข้าใจสิ่งที่ผู้ใช้พูด ผลคือเมื่อผู้ใช้มีความคิดที่มีแนวโน้มบิดเบือนหรือไม่สมเหตุสมผล AI อาจไม่คัดค้าน ซ้ำยังช่วยต่อยอดความคิดนั้นออกมา แม้ไม่ได้ตั้งใจจะยืนยันว่าความคิดเหล่านั้นถูกต้อง แต่ผู้ใช้อาจตีความได้ว่า AI สนับสนุน
อีกปัจจัยหนึ่งคือภาษาของ AI ที่มีความเป็นมนุษย์สูงขึ้นเรื่อย ๆ การใช้ถ้อยคำที่ดูเข้าอกเข้าใจ มีน้ำเสียงอบอุ่น และคอยตอบข้อความอย่างต่อเนื่อง ทำให้ผู้ใช้บางคน โดยเฉพาะผู้ที่กำลังอยู่ในภาวะเปราะบางทางอารมณ์ รู้สึกว่า AI “เข้าใจ” ตัวเองมากกว่าคนจริง ๆ จนเกิดเป็นความผูกพันทางอารมณ์และความเชื่อถือในตัว AI ที่เพิ่มขึ้นเรื่อย ๆ
ในโลกจริง การเข้าถึงบริการสุขภาพจิตยังคงเป็นเรื่องยากสำหรับคนจำนวนมาก ค่าใช้จ่ายสูง คิวนาน หรือขาดผู้เชี่ยวชาญ แชตบอตจึงกลายเป็นทางเลือกที่เข้าถึงง่ายและไม่มีค่าใช้จ่ายสำหรับคนที่เหงา เครียด หรือวิตกกังวล แต่ปัญหาคือ AI ไม่ได้ถูกออกแบบมาให้ทำหน้าที่เป็นนักบำบัด และไม่สามารถรับรู้หรือประเมินความเสี่ยงทางจิตใจได้อย่างแม่นยำ
ผลกระทบที่เกิดขึ้นจริงต่อกลุ่มเสี่ยง
จากการรายงานของสื่อในสหรัฐระบุว่า OpenAI มีการติดตามสัญญาณความเสี่ยงด้านสุขภาพจิตภายในระบบของตนเอง และพบว่าประมาณ 0.07% ของผู้ใช้งานรายสัปดาห์ แสดงสัญญาณที่อาจเกี่ยวข้องกับภาวะวิกลจริต (Psychosis) หรือ คึกคักมากกว่าปกติ (Mania) และราว 0.15% แสดงแนวโน้มการเกิดภาวะวิกฤต เช่น ความคิดฆ่าตัวตายหรือความเครียดรุนแรง
ตัวเลขเหล่านี้อาจดูเล็กน้อยในเชิงเปอร์เซ็นต์ แต่เมื่อคิดในระดับผู้ใช้หลายร้อยล้านคน ก็หมายความว่ามีผู้ใช้งานจำนวนไม่น้อยที่กำลังอยู่ในภาวะเปราะบาง และกำลังโต้ตอบกับระบบที่ไม่ได้ถูกออกแบบมาเพื่อดูแลด้านจิตใจโดยตรง
งานวิจัยในวารสาร Frontiers in Public Health พบว่า ผู้ที่มีภาวะซึมเศร้าหรือรู้สึกโดดเดี่ยว มีแนวโน้มใช้แชตบอตเพื่อเป็นเพื่อนคุยหรือที่พึ่งทางอารมณ์มากกว่าคนทั่วไปอย่างมีนัยสำคัญ นอกจากนี้ ผู้เชี่ยวชาญด้านสุขภาพจิตซึ่งทำงานอยู่ในระบบดูแลรักษาสุขภาพแห่งชาติของสหราชอาณาจักร (National Health Service: NHS) ยังได้ออกมาแสดงความกังวลว่า แชตบอตไม่ควรถูกใช้เป็นตัวแทนของนักบำบัด โดยเฉพาะในกลุ่มเด็กและเยาวชน แพทย์เตือนว่า AI ไม่สามารถประเมินความเสี่ยงหรือรับมือกับภาวะวิกฤตได้เหมือนผู้เชี่ยวชาญจริง และการใช้แทนการรักษาอาจทำให้อาการแย่ลงโดยไม่รู้ตัว
ช่องโหว่ที่ต้องเร่งแก้ไข ก่อนความเสี่ยงจะขยายตัว
แชตบอต AI ไม่ได้เป็นแค่เครื่องมือทำงานอีกต่อไป แต่กำลังกลายเป็นเพื่อน ที่ปรึกษา และพื้นที่ปลอดภัยทางอารมณ์ของคนจำนวนมาก ในโลกที่ผู้คนโดดเดี่ยวมากขึ้นและการเข้าถึงบริการสุขภาพจิตยังจำกัด บทบาทของ AI ขยายตัวเร็วเกินกว่าที่ระบบกำกับดูแลจะตามทัน
ความรับผิดชอบนี้ไม่ได้อยู่ที่ผู้ใช้งานฝ่ายเดียว บริษัทเทคโนโลยีจำเป็นต้องคิดถึงความปลอดภัยต่อสภาพจิตใจควบคู่ไปกับประสิทธิภาพ นักวิจัยและแพทย์ต้องมีงานศึกษาระยะยาวที่ชัดเจนขึ้น ขณะที่หน่วยงานกำกับดูแลควรเริ่มมอง “ภัยทางจิตใจ” เป็นส่วนหนึ่งของกรอบ AI Safety อย่างจริงจัง
สำหรับผู้ใช้ทั่วไป สิ่งสำคัญที่สุดคือการเข้าใจขอบเขตของ AI ให้ชัดเจน
AI คือเครื่องมือหรือผู้ช่วย ไม่ใช่นักบำบัด ไม่ใช่ผู้ดูแลชีวิต และไม่ใช่ผู้ตัดสินความจริง
การรู้เท่าทันและใช้งานอย่างมีสติ อาจเป็นเกราะป้องกันที่สำคัญที่สุด ในยุคที่ AI เข้ามาใกล้ชีวิตเรามากขึ้นทุกวัน