Large Language Model และ AI เพิ่มความรุนแรงของอาชญากรรมไซเบอร์ได้อย่างไร

March 11, 2024

ปัญญาประดิษฐ์สุดล้ำจากเทคโนโลยี Large Language Model ที่ใคร ๆ ก็ใช้งานได้ฟรีอย่าง ChatGPT กำลังได้รับความนิยมทั่วโลก แต่รู้หรือไม่ว่านวัตกรรมนี้กลับเป็นปัจจัยหลักที่ทวีความรุนแรงของอาชญากรรมทางไซเบอร์เช่นกัน  ไปติดตามกันเลยว่าเครื่องมือ AI แห่งยุคดิจิทัลกลายเป็นดาบสองคมที่เพิ่มความเสี่ยงให้ทุกคนสามารถตกเป็นเหยื่อของภัยออนไลน์ได้อย่างไร

Large Language Model หรือ LLM คืออะไร

Large Language Model (LLM) หรือชื่อภาษาไทยว่า โมเดลภาษาขนาดใหญ่ คือ ซอฟต์แวร์ที่เก็บรวบรวม ประมวลผล และฝึกฝนการวิเคราะห์ข้อมูลขนาดมหาศาลจากอินเตอร์เน็ต จนในที่สุดก็สามารถเข้าใจความหมายและลักษณะภาษาของมนุษย์ ไปจนถึงสามารถสร้างสรรค์ข้อความและบทสนทนาเพื่อพูดคุยโต้ตอบอย่างเป็นธรรมชาติกับมนุษย์ หรือแก้ปัญหาที่ซับซ้อนได้อย่างถูกต้องแม่นยำ โมเดลภาษาขนาดใหญ่นี้จึงกลายเป็นรากฐานของการพัฒนาเทคโนโลยี Artificial Intelligence หรือปัญญาประดิษฐ์ (AI) ที่เฉลียวฉลาดและมีประสิทธิภาพหลายประเภทในปัจจุบัน

ตัวอย่างของ Large Language Model ที่ขณะนี้กำลังโด่งดังไปทั่วโลก คือ ChatGPT แพลตฟอร์มปัญญาประดิษฐ์รูปแบบ Text Generation จากบริษัท OpenAI ประเทศสหรัฐอเมริกา ที่สามารถสร้างสรรค์ข้อความหลากหลายประเภทตามคำสั่ง (Prompt) ของผู้ใช้งาน ไม่ว่าจะเป็นการแต่งบทกลอน การแปลภาษา การเขียนโปรแกรม การแก้โจทย์ทางคณิตศาสตร์ หรือการวิเคราะห์และสรุปผลข้อมูลเชิงลึก ฯลฯ ได้อย่างรวดเร็วและถูกต้องแม่นยำ โดยปัจจุบัน ChatGPT เป็นปัญญาประดิษฐ์ยอดนิยมที่มีคนใช้งานทั่วโลกแล้วมากกว่า 180 ล้านคนต่อเดือน แถมยังเป็นเครื่องมืออันทรงพลังที่หลายบริษัทชั้นนำระดับโลกเลือกใช้มายกระดับการทำงานต่าง ๆ ขององค์กรให้ดียิ่งขึ้นอีกด้วย

ปัญญาประดิษฐ์ (AI) เพิ่มความรุนแรงของอาชญากรรมไซเบอร์อย่างไร

แม้ว่า Large Language Model จะมีประโยชน์ต่อการพัฒนาต่อยอดนวัตกรรมปัญญาประดิษฐ์ที่ช่วยยกระดับคุณภาพชีวิตของผู้คนและขับเคลื่อนธุรกิจให้พัฒนาอย่างมีประสิทธิภาพได้ยิ่งกว่าเดิม แต่เทคโนโลยีโมเดลภาษาขนาดใหญ่ดังกล่าวก็เปรียบเสมือนดาบสองคมที่ส่งผลกระทบด้านลบได้ในหลายมิติเช่นกัน ซึ่งหนึ่งในนั้นคือภัยอันตรายบนโลกออนไลน์ หรือที่เรียกว่าอาชญากรรมไซเบอร์ (Cyber Crime) นั่นเอง

  1. จำนวนของอาชญากรรมไซเบอร์เพิ่มสูงขึ้น

ความอัจฉริยะของปัญญาประดิษฐ์จากนวัตกรรม Large Language Model สามารถสร้างการหลอกลวงทางออนไลน์หลายรูปแบบได้แบบอัตโนมัติ ซึ่งส่งผลให้จำนวนอาชญากรรมทางไซเบอร์ทวีคูณเพิ่มขึ้นอย่างรวดเร็วจนเพิ่มความเสี่ยงให้หลาย ๆ คนหลงกลตกเป็นเหยื่อได้ง่ายกว่าแต่ก่อน ยกตัวอย่าง เช่น ChatGPT อาจเข้าไปช่วยเพิ่มประสิทธิภาพของการเขียนอีเมลหรือข้อความฟิชชิง (Phishing) หลอกให้ผู้บริโภคคลิกลิงก์เว็บไซต์ที่เป็นอันตรายจนอุปกรณ์ติดไวรัส รวมถึงกรอกข้อมูลสำคัญส่วนตัวอย่างเลขบัตรประจำตัวประชาชนหรือเลขบัญชีและบัตรเครดิตให้คนร้ายทราบ โดยสถิติที่น่าตกใจพบว่า อาชญากรกำลังใช้ประโยชน์จากเครื่องมือ AI เหล่านี้เพื่อผลิตอีเมล Phishing ซึ่งมีจำนวนเพิ่มขึ้นจากปี 2022 กว่า 1,265% นอกจากนี้ ทุก ๆ วันจะมีผู้คนทั่วโลกได้รับข้อความอันตรายเช่นนี้ประมาณ 3.4 พันล้านอีเมลเลยทีเดียว!

  1. อาชญากรรมไซเบอร์มีความซับซ้อนยิ่งขึ้น

พลังของ AI  ทำให้กลการหลอกลวงทางออนไลน์รูปแบบต่าง ๆ ดูเหมือนจริงจนยากที่จะจับหรือรู้เท่าทันเล่ห์เหลี่ยมได้ก่อน ยกตัวอย่าง เช่น คนร้ายอาจป้อนคำสั่งให้ ChatGPT สร้างบทสนทนาตอบโต้ที่ลื่นไหลและเป็นธรรมชาติ หรือข้อความที่เขียนเชิงทางการอย่างมืออาชีพ เพื่อพูดคุยสร้างความเชื่อใจจนสุดท้ายก็สามารถหลอกเหยื่อได้อย่างแนบเนียน นอกจากนี้ เมื่อปี 2023 ที่ผ่านมา นักวิจัยจาก Indiana University Bloomington ประเทศสหรัฐอเมริกา ตรวจพบเครือข่ายบัญชีปลอมที่เชื่อมโยงกันจำนวนมากกว่า 1,140 บัญชีบนแพลตฟอร์ม X หรือชื่อเดิมคือ Twitter ที่ใช้ ChatGPT ในการเผยแพร่คอนเทนต์ปริมาณมหาศาลเป็นประจำอย่างต่อเนื่องเพื่อชักชวนและกระตุ้นให้คนเข้าไปลงทุนในคริปโทเคอร์เรนซี

  1. เครื่องมือ AI ที่สร้างขึ้นเพื่อการก่ออาชญากรรมไซเบอร์

ผลกระทบด้านลบข้อสุดท้ายของ Large Language Model คือ เทคโนโลยีนี้ถูกนำไปใช้พัฒนาปัญญาประดิษฐ์ที่ขาดการกำกับดูแลด้านจริยธรรมอย่างเหมาะสม ไม่ว่าจะเป็นการยอมตอบคำถามที่สุ่มเสี่ยง เช่น วิธีการสร้างอาวุธ การสร้างคอนเทนต์ที่อาจยุยงให้เกิดความรุนแรงทางการเมือง หรือเกี่ยวข้องกับสารเสพติด และการคุกคามทางเพศ เป็นต้น ซึ่งหากเป็นแพลตฟอร์มทางการอย่าง ChatGPT นั้นปัญญาประดิษฐ์จะได้รับการฝึกฝนและควบคุมไม่ให้รับฟังคำสั่งอันตรายดังกล่าว นอกจากนี้ ยังมี AI ที่ผู้พัฒนาตั้งใจสร้างขึ้นเพื่อใช้ก่ออาชญากรรมไซเบอร์โดยเฉพาะอีกด้วย ตัวอย่าง เช่น FraudGPT ที่สามารถสร้างคอนเทนต์สำหรับอีเมลฟิชชิงได้อย่างไร้ขีดจำกัดทางศีลธรรม โดย AI วายร้ายตัวนี้เผยแพร่อยู่บนเว็บไซต์ด้านมืด (Dark Web) รวมถึงส่งต่อกันผ่านทางแอปพลิเคชัน Telegram ในราคา 200 ดอลลาร์สหรัฐ หรือประมาณ 7,000 บาทต่อเดือน

ปัญญาประดิษฐ์ซึ่งเป็นนวัตกรรมยุคดิจิทัลที่มีศักยภาพในการยกระดับคุณภาพชีวิตของผู้คนทั่วโลกย่อมกลายเป็นเครื่องมืออันตรายสำหรับการหลอกลวงและฉ้อโกงได้เช่นกัน ดังนั้นนอกจากผู้บริโภคจะต้องติดตามข่าวสารให้รู้เท่าทันโลกสมัยใหม่แล้ว หน่วยงานทั้งภาครัฐและเอกชนยังต้องร่วมมือกันกำกับดูแลปัญญาประดิษฐ์ที่จะยิ่งกลายเป็นเทคโนโลยีแสนสำคัญในอนาคตอย่างใกล้ชิด

Share this article

Subscribe to InnoHub!

Stay updated and inspired

เรานำข้อมูลมาใช้เพื่อการส่งมอบคอนเทนต์และบริการอย่างเหมาะสม เราจะปกป้องความเป็นส่วนตัวของคุณ คุณสามารถอ่านข้อมูลเพิ่มเติมได้ที่ Privacy Policy และคลิกสมัครเพื่อดำเนินการต่อ