รู้เท่าทัน Deepfake ด้านมืด AI สวมใบหน้า ถ้าไม่ระวังให้ดี อาจมีหลงกล
นาทีนี้คงไม่มีใครไม่รู้จักซีรีส์ Celebrity ซีรีส์ที่ถ่ายทอดด้านมืดของโซเชียลมีเดียเบื้องหลังเส้นทางการก้าวสู่การเป็นคนดังที่ต้องใช้ชีวิตขึ้นอยู่กับจำนวนผู้ติดตาม นอกจากนี้ตลอดการดำเนินเรื่อง ซีรีส์นี้ได้ใช้เทคโนโลยี Deepfake เข้ามาเป็นเครื่องมือสำคัญของการไขปม ซึ่งไม่ได้เพียงแค่สะท้อนให้เห็นถึงความก้าวล้ำ แต่ยังให้เห็นอันตรายที่แฝงอยู่จากพัฒนาการของเทคโนโลยีนั้นด้วย
ซึ่งแน่นอนว่าเทคโนโลยีที่ถูกพัฒนาต่างก็มีทั้งคุณและโทษอยู่ที่ว่าจะนำมาใช้แบบใด เพราะในปัจจุบันก็มีภัยไซเบอร์มากมายที่ต้องระวัง Thairath Money จะพาไปรู้จักกับเทคโนโลยี Deepfake ที่ปัจจุบันกลายเป็นเครื่องมือของผู้ไม่หวังดีนำมาสร้างความเข้าใจผิด เพื่อจะได้รู้เท่าทันและไม่ตกเป็นเหยื่อของภัยคุกคามบนโลกออนไลน์
Deepfake คืออะไร
เทคโนโลยี Deepfake เป็นการใช้ AI เพื่อสร้างวิดีโอ ภาพ และเสียงขึ้นมาใหม่ โดยเป็นการรวมคำว่า Deep Learning และ Fake เข้าไว้ด้วยกัน โดยเป็นการป้อนข้อมูลจำนวนมาก และประมวลผลออกมาเป็นคอนเทนต์การสร้าง Deepfake ส่วนใหญ่จะเป็นการสลับใบหน้าโดยใช้ Generative Adversarial Networks (GANs) ซึ่งจะประกอบไปด้วยอัลกอริทึม 2 ตัว คือ Generator และ Discriminator ที่จะสร้างและจำแนกข้อมูลทำซ้ำไปเรื่อยๆ จนเกิดความแม่นยำและให้ผลลัพธ์ที่สมจริง
Deepfake สู่ด้านมืดเทคโนโลยี
ด้วยความสามารถในการสร้างคอนเทนต์ปลอมของบุคคลขึ้นมาจึงทำให้ Deepfake กลายเป็นเครื่องมือในการกระทำผิดกฎหมาย โดยในช่วงต้นเดือนมิถุนายน 2023 ทาง FBI ก็ได้ออกมาเตือนถึงภัยของ AI ที่ถูกนำมาใช้ในการสร้างเนื้อหาที่ไม่เหมาะสม ตลอดจนการข่มขู่และคุกคามทางเพศ
และที่พบเห็นได้มาก คือ การนำใบหน้าคนดัง หรือบุคคลสำคัญมาใช้ในสื่อลามกโดยไม่ได้รับความยินยอม ซึ่งสร้างความเดือดร้อนให้กับผู้ที่ถูกนำใบหน้ามาใช้ และตามการรายงานของ Deeptrace ได้ระบุไว้ว่าช่วงปี 2019 วิดีโอ Deepfake ที่อยู่บนโลกออนไลน์มีสัดส่วนของสื่ออนาจารถึง 96% เรียกได้ว่าเกือบทั้งหมดของคลิปที่สร้างด้วย Deepfake ถูกใช้ในทางที่ผิด
นอกจากนี้ยังมีกรณีการใช้ Deepfake เพื่อเป็นเครื่องมือสร้างความปั่นป่วนทางการเมือง ทั้งวิดีโอของโดนัลด์ ทรัมป์ ในช่วงดำรงตำแหน่งประธานาธิบดีสหรัฐฯ ที่เรียกร้องให้เบลเยียมถอนตัวจากความตกลงปารีส หรือประธานาธิบดีบารัค โอบามา ที่มีคลิปต่อว่าทรัมป์โดยใช้ Deepfake สร้างขึ้นมา และนำไปสู่ความเข้าใจผิดเป็นวงกว้าง
ในไทยเองก็มีกรณีที่แก๊งคอลเซ็นเตอร์ปลอมเป็นตำรวจ และวิดีโอคอล หาเหยื่อแล้วหลอกให้โอนเงิน ซึ่งหากไม่สังเกตดีๆ อาจหลงเชื่อและเป็นเหยื่อมิจฉาชีพได้
อย่างไรก็ตาม เทคโนโลยีนี้ก็ยังคงมีประโยชน์อยู่ด้วยเช่นกัน โดยองค์กรด้านสิทธิมนุษยชนในสหรัฐฯ ที่เน้นการใช้สื่อเพื่อปกป้องสิทธิมนุษยชนเห็นข้อดีของเทคโนโลยี Deepfake สำหรับใช้ในการปกปิดตัวตนของนักเคลื่อนไหวในคลิปวิดีโอ ตลอดจนใช้ปกปิดตัวตนของผู้ลี้ภัย หรือคนให้ข้อมูลที่มีความอ่อนไหวได้ด้วย
จับโป๊ะ Deepfake ไม่ตกเป็นเหยื่อล่อลวง
สุดท้ายแล้วหากจะใช้ประโยชน์จากความก้าวหน้าของเทคโนโลยีเราต้องรู้เท่าทันและระแวดระวังไม่ตกเป็นเหยื่อของผู้ที่ใช้เทคโนโลยีเป็นเครื่องมือสร้างความเสียหาย อาจทำได้โดยการสังเกตความผิดปกติของคลิปวิดีโอ เช่น ดวงตาที่ดูไม่เป็นธรรมชาติ หรือการขยับปากที่ไม่ตรงกับเสียง รวมถึงเช็กแหล่งที่มาของคลิปวิดีโอให้ดีก่อนแชร์ต่อ เพื่อป้องกันการส่งต่อคอนเทนต์หลอกลวงซึ่งอาจมีคนหลงเชื่อได้
cr.https://www.thairath.co.th/money/tech_innovation/digital_transformation/2710284