fbpx

DeepFakes : เมื่อวิดีโอของปลอมเสมือนจริงจนเกินไป

           หากพูดถึงวิดีโอปลอม หลายคนอาจนึกถึงวิดีโอสั้นๆ คุณภาพต่ำ ถูกตัดต่อจนสามารถมองออกว่าเป็นของปลอมได้อย่างรวดเร็ว…แต่จะเกิดอะไรขึ้นเมื่อของปลอมเหมือนจริงจนแยกแทบไม่ออก และสามารถนำคำพูด และท่าทางต่างๆ ไปประกอบกับนักแสดงหรือนักการเมืองชื่อดังได้เนียนอย่างไม่น่าเชื่อ! การปลอมแปลงวิดีโอดังกล่าวเป็นที่รู้จักในชื่อ DeepFakes…วิทยาการสุดล้ำที่เป็นดาบสองคม สามารถสร้างสรรค์ และเป็นภัยอย่างใหญ่หลวงต่อผู้รับสาร

           DeepFakes ใช้ระบบ Machine Learning ในรูปแบบ GANs (Generative Adversarial Networks) ในการเลียนแบบและปลอมแปลงข้อมูลต่างๆ โดยการทำงานจะแบ่งออกเป็น 2 ส่วน

  • ส่วนแรกคือ Generator หรือการริเริ่มเลียนแบบข้อมูลต้นแบบ ทั้งเสียง การเคลื่อนไหว หรือรายละเอียดต่างๆ ตามที่เราตั้งค่าไว้
  • ส่วนที่สอง คือ Discriminator หรือการแยกแยะ ระบบจะนำข้อมูลต้นแบบและข้อมูลที่ถูกเลียนแบบมาเทียบกัน
  • หากระบบสามารถแยกแยะความแตกต่างได้ จะทำการ Generate หรือปรับแต่งเพิ่มเติมใหม่ เพื่อทำการเปรียบเทียบใหม่ไปเรื่อยๆ ซ้ำๆ จนระบบไม่สามารถแยกแยะความแตกต่างระหว่างข้อมูลต้นแบบกับข้อมูลที่ถูกเลียนแบบได้ ซึ่งยิ่งใช้งาน ระบบก็จะยิ่งรวบรวมฐานข้อมูลเยอะขึ้น และเรียนรู้ได้เร็วขึ้น

           ยิ่งไปกว่านั้นระบบ GANs ยังสามารถอยู่ในรูปแบบของซอฟแวร์หรือแอปต่างๆ ทำให้คนทั่วไปสามารถสร้างวิดีโอเลียนแบบที่เหมือนจริง และเผยแพร่ไปสู่สังคมออนไลน์โดยไม่ต้องผ่านการกลั่นกรองใดๆ จึงทำให้มีวิดีโอ DeepFakes แพร่หลายบนโลกออนไลน์มากมาย ทั้งในรูปแบบการปลอมแปลงวิดีโอที่เกี่ยวกับการเมือง ข่าวปลอม หรือแม้แต่วิดีโอที่มีเนื้อหาล่อแหลม

           จึงเป็นสาเหตุให้กระทรวงกลาโหม สหรัฐอเมริกา มอง DeepFakes เป็นภัยคุกคามที่อันตรายอย่างมากต่อความมั่งคงของรัฐ และได้พัฒนาเครื่องมือป้องกันที่เรียกว่า Amber Authenticate สามารถใช้งานควบคู่ไปพร้อมกับการถ่ายวิดีโอ โดยเครื่องจะทำการเปลี่ยนโค้ดของวิดีโอทำให้ไม่สามารถนำไฟล์นั้นๆ ไปปลอมแปลงได้ ซึ่งคาดว่าเจ้าเครื่องนี้จะได้ใช้งานอย่างจริงจังเพื่อป้องกันการปลอมแปลงวิดีโอที่อาจมาคุกคามการเลือกตั้งประธานาธิบดีของสหรัฐฯ ที่ใกล้จะมาถึงในปี 2020 นี้

           ฉะนั้นในยุคที่ข้อมูลหลั่งไหลอยู่บน Social Media การแยกแยะว่าสิ่งไหนจริง หรือปลอม จึงตกเป็นหน้าที่ของเรา ผู้รับสารทุกคน ก่อนที่จะเชื่อหรือแชร์อะไร เราอาจต้องหยุดคิดนานกว่าปกติ…เพื่อรับมือกับของปลอมที่เสมือนจริงจนเกินไป!

By |2019-03-25T12:51:52+00:00มีนาคม 25th, 2019|บล็อก|