‘Deepfake’อีกระดับของข่าวปลอม ‘หลอกเนียน-ลวงเหมือน-สกัดยาก’รู้อีกทีเป็นเหยื่อ

Editors’ Picks

ต้องเรียกว่าเป็น “ภัยร้ายแห่งยุค 4 จี 5 จี” กันเลยทีเดียวกับ “แก๊งคอลเซ็นเตอร์” ที่แต่เดิมก็สร้างความเดือดร้อนให้กับประชาชนทั่วไปอยู่แล้วกับการโทรศัพท์ไปหลอกลวงเหยื่อ อ้างเป็นเจ้าหน้าที่ด้านการบังคับใช้กฎหมาย ตำรวจบ้าง ป.ป.ส. บ้าง ดีเอสไอบ้าง ว่าเหยื่อมีคดีความซึ่งมีอัตราโทษสูง และหากต้องการให้ช่วย “วิ่งเต้น” เพื่อ “เคลียร์คดี” ก็ให้โอนเงินไปที่บัญชีที่มิจฉาชีพเตรียมไว้ โดยที่ผ่านมาก็มีคนถูกหลอกสูญเงินไปเป็นจำนวนมาก อีกทั้งมิจฉาชีพยังมีการพัฒนากลอุบายล่อลวงที่แนบเนียนขึ้นด้วย

ดังล่าสุดเมื่อวันที่ 11 มี.ค. 2565 พ.ต.อ.ศิริวัฒน์ ดีพอ รองโฆษกสำนักงานตำรวจแห่งชาติ ได้ออกมาเตือนประชาชนว่า สำนักงานตำรวจแห่งชาติ ไม่มีนโยบายให้เจ้าหน้าที่ติดต่อทางคดีกับผู้เสียหาย ผู้ต้องหา หรือผู้ต้องสงสัย ผ่านทางระบบวิดีโอคอล และไม่มีนโยบายให้โอนเงินมาให้เจ้าหน้าที่เพื่อตรวจสอบเป็นอันขาด และหากประชาชนพบว่ามีบุคคลใดแอบอ้างเป็นเจ้าหน้าที่ตำรวจวิดีโอคอลไปหา หรือขอให้โอนเงินไปให้เจ้าหน้าที่ตรวจสอบ ให้สันนิษฐานได้ทันทีว่าเป็นมิจฉาชีพ ให้วางสายสนทนาทันที 

ปัจจุบันได้มีการพัฒนารูปแบบในการหลอกลวงพี่น้องประชาชน โดยการใช้เครื่องมือที่ทันสมัยมากขึ้นที่เรียกว่า Deepfake ซึ่งเป็นการใช้เทคโนโลยี Deep Learning ในการพัฒนาระบบปัญญาประดิษฐ์ ให้สามารถตัดต่อคลิปวิดีโอหรือภาพถ่ายของบุคคลหนึ่ง ให้สามารถขยับปากตามเสียงของบุคคลอื่นได้ ซึ่งแก๊งคอลเซ็นเตอร์ก็ได้ใช้ประโยชน์จากเทคโนโลยีดังกล่าว มาตัดต่อคลิปหรือภาพของเจ้าหน้าที่ตำรวจ ให้พูดตามสิ่งที่คนร้ายพูด เพื่อเพิ่มความน่าเชื่อถือในการหลอกลวงทรัพย์สินจากพี่น้องประชาชน พ.ต.อ.ศิริวัฒน์ กล่าว

ต้นกำเนิดของเทคโนโลยี Deepfake (ดีพเฟค) ต้องย้อนไปเมื่อปี 2540 ในเวลานั้นมีโปรแกรม Video Rewrite ซึ่งทำงานโดยการประมวลผลคำที่ลักษณะของริมฝีปากขยับได้ใกล้เคียงกับคำที่ต้องการให้ออกเสียงมากที่สุด ถูกพัฒนาขึ้นเพื่อใช้ในงานสร้างภาพยนตร์ในส่วนของการพากย์ และเป็นโปรแกรมแรกที่สามารถทำแอนิเมชั่นใบหน้าที่สามารถขยับริมฝีปากต่อเนื่องแบบอัตโนมัติได้อย่างสมบูรณ์

ในปี 2557 เอียน กู๊ดเฟลโลว์ (Ian Goodfellow) และคณะ ได้คิดค้น Machine Learning ชื่อ Generative Adversarial Networks (GANs) ซึ่งทำงานโดย 2 ส่วนคือ Generator ทำหน้าที่สร้างภาพบุคคล และ Discriminator ทำหน้าที่จับผิดภาพที่ Generator กระทั่งที่สุดแล้ว Generator สามารถสร้างภาพที่ Discriminator ไม่สามารถจับผิดได้ นั่นคือผลงานที่สมบูรณ์ และเทคโนโลยีนี้ได้ถูกนำไปใช้พัฒนาต่อยอดอย่างแพร่หลาย 

ตัวอย่างการทดลองที่สะท้อนความน่าสะพรึงกลัวของเทคโนโลยีนี้ เกิดขึ้นในปี 2560 คือกรณีคณะผู้วิจัยจาก มหาวิทยาลัยวอชิงตัน ใช้ปัญญาประดิษฐ์ (AI) สร้างเค้าโครงปากของ บารัค โอบามา อดีตประธานาธิบดีสหรัฐอเมริกา และผสานเข้ากับภาพวีดีโอของ โอบามา ที่เผยแพร่ผ่านสื่อต่างๆ โดยคณะผู้วิจัยรวบรวมมาถึง 14 ชั่วโมง สำหรับนำมาทดลองในงานนี้ และในที่สุดก็สามารถนำเสียงของบุคคลอื่นเข้าไปใส่ในใบหน้าของอดีตผู้นำสหรัฐฯ ได้อย่างแนบเนียน 

ศ.ไอรา เคเมลมาเชอร์-ชลิเซอร์แมน (Prof.Ira Kemelmacher-Shlizerman) หนึ่งในทีมวิจัย ให้สัมภาษณ์กับสำนักข่าว BBC ของอังกฤษ ว่า เราพัฒนาเทคโนโลยี และเทคโนโลยีทุกอย่างก็สามารถนำไปใช้ในทางลบอยู่บ้าง ดังนั้นเราควรทำเพื่อให้แน่ใจว่ามันจะไม่เกิดขึ้น และแม้แต่ที่น่าสนใจอย่างหนึ่งคือเมื่อรู้อยู่แล้วในวิธีสร้างสิ่งที่รู้ หมายถึงการทำวิศวกรรมย้อนกลับ จนนำไปสู่การพัฒนาเครื่องมือพิสูจน์วีดีโอที่ถูกตัดต่อขึ้นกับวีดีโอจริงๆ ได้

เคเมลมาเชอร์-ชลิเซอร์แมน ยังให้สัมภาษณ์กับ The Wall Street Journal หนังสือพิมพ์ยักษ์ใหญ่ในสหรัฐฯ ว่า ความสามารถในการสร้างวีดีโอที่ดูเหมือนจริงของบุคคล (หรือคำพูดของใครบางคนที่เหมือนคนคนนั้น) สามารถช่วยในการประชุมทางไกลที่ประสบปัญหา Bandwidth หรืออัตราการส่งถ่ายข้อมูลต่ำ ด้วยการถ่ายทอดเสียงและการแสดงออกทางสีหน้าที่ตรงกัน เทคโนโลยีนี้จะช่วยให้เราสามารถสนทนากับบุคคลในประวัติศาสตร์ในความเป็นจริงเสมือนได้ เช่น ในวีดีโอเกมหรือนิทรรศการของพิพิธภัณฑ์ แต่มันคงไม่หยุดแค่นั้น เพราะในอนาคต โปรแกรมสนทนาอย่าง Skype หรือ Messenger จะช่วยรวบรวมวีดีโอที่นำมาใช้ฝึกคอมพิวเตอร์ให้สร้างโมเดลได้

ในปี 2563 นิตยสาร Forbes เผยแพร่รายงานพิเศษ Deepfakes Are Going To Wreak Havoc On Society. We Are Not Prepared. เริ่มต้นด้วยการอ้างถึงนักวิเคราะห์ของ ESPN สถานีโทรทัศน์ยักษ์ใหญ่ของสหรัฐฯ ที่เน้นนำเสนอเนื้อหาด้านกีฬา ระบุว่า นักวิเคราะห์ที่อ้างว่าเป็นบุคคลในปี 2541 ได้ทำนายอนาคตปี 2563 ไว้อย่างแม่นยำ จริงๆ แล้วทั้งหมดเป็นเพียงเนื้อหาที่ถูกสร้างด้วย AI และนั่นคือสิ่งที่ประชาชนควรกังวล เพราะหมายถึงใครก็ตามที่มีคอมพิวเตอร์ สามารถสร้างภาพถ่ายและวีดีโอที่สมจริงในการให้คนคนหนึ่งพูดในสิ่งที่คนคนนั้นจริงๆ แล้วไม่ได้พูด

ยังมีรายงานคนดังโดนผลกระทบจากเทคโนโลยี Deepfake เล่นงาน ทั้งอดีต ปธน.โอบามา กล่าวถึง โดนัลด์ ทรัมป์ ซึ่งเป็น ปธน. ต่อจากตน ด้วยถ้อยคำหยาบคาย , มาร์ค ซัคเคอร์เบิร์ก ผู้ก่อตั้งเฟซบุ๊ก กล่าวว่า นโยบายของเฟซบุ๊กคือหาประโยชน์จากผู้ใช้งาน กระทั่งนักแสดงตลกอย่าง บิล เฮเดอร์ ถูกทำให้กลายเป็นนักแสดงรุ่นใหญ่อย่าง อัล ปาชิโน ในรายการทอล์คโชว์ยามดึก ทั้งนี้ ช่วงต้นปี 2562 มีจำนวนวีดีโอ Deepfake 7,964 รายการ และเพิ่มเป็น 14,678 รายการในอีก 9 เดือนให้หลัง 

ศ.ฮานี ฟาริด (Prof.Hany Farid) ผู้เชี่ยวชาญด้านการวิเคราะห์ภาพดิจิทัล มหาวิทยาลัยแคลิฟอร์เนีย เบิร์กลีย์ รัฐแคลิฟอร์เนีย สหรัฐฯ กล่าวว่า ในเดือน ม.ค. 2562 คลิปวีดีโอปลอมเหล่านั้มีจำนวนน้อยและมีช่องให้จับผิด แต่อีก 9 เดือนจากนั้น ตนไม่เคยเห็นอะไรที่ไปได้เร็วขนาดนี้มาก่อน นี่คือส่วนยอดของภูเขาน้ำแข็ง และอีกหลายเดือนหรือหลายปีข้างหน้า Deepfake จะขยายวงจากเรื่องแปลกๆ บนอินเตอร์เน็ต สู่พลังทำลายล้างทางการเมืองและสังคมอย่างกว้างขวาง ซึ่งสังคมต้องเตรียมความพร้อมรับมือ

รายงานของ Forbes ยังกล่าวถึงความพยายามในการควบคุม Deepดake ตั้งแต่การออกกฎหมายมาควบคุมเป็นการเฉพาะ ซึ่งต้องเผชิญกับความท้าทายเพราะรัฐธรรมนูญสหรัฐฯ คุ้มครองสิทธิเสรีภาพในการแสดงออกอย่างมาก อีกทั้งการใช้อินเตอร์เน็ตที่ไม่ต้องระบุตัวตน บวกกับภาวะไร้พรมแดน ยิ่งทำให้การสกัดกั้นทำได้ยาก ส่วนกฎหมายอื่นๆ ที่มีอยู่แล้ว เช่น ลิขสิทธิ์ การหมิ่นประมาท เมื่อพิจารณาถึงการนำไปใช้อย่างกว้างขวางตามหลักการใช้กฎหมายโดยชอบธรรม ประโยชน์ตามช่องทางของกฎหมายเหล่านี้ก็อาจถูกจำกัด

เมื่อหันไปถามหาความรับผิดชอบของผู้ให้บริการแพลตฟอร์มออนไลน์ เช่น เฟซบุ๊ก กูเกิ้ล ทวิตเตอร์ ฯลฯ โดยหวังให้มีมาตรการป้องกันผลกระทบเชิงลบจาก Deepfake แต่ปัจจุบัน มาตรา 230 ของกฎหมายว่าด้วยความเหมาะสมในการสื่อสาร (Section 230 of the Communications Decency Act) ซึ่งถูกเขียนขึ้นในยุคแรกๆ ที่อินเตอร์เน็ตถูกใช้ในเชิงพาณิชย์ ทำให้ผู้ให้บริการแพลตฟอร์มไม่ต้องรับผิดชอบใดๆ กับเนื้อหาที่บุคคลที่สามมาใช้ช่องทางแพลตฟอร์มเพื่อเผยแพร่ แต่การแก้กฎหมายโดยกำหนดให้ผู้ให้บริการแพลตฟอร์มต้องรับผิดชอบ ก็อาจส่งผลกระทบต่อเสรีภาพในการแสดงออกและการเซ็นเซอร์ที่ซับซ้อนขึ้น 

บทความทิ้งท้ายว่า ในเมื่อไม่มีวิธีเดียวที่แก้ปัญหาได้อย่างครอบคลุม ดังนั้นสิ่งแรกคือต้องสร้างความตระหนักให้ผู้คนเห็นอันตรายของ Deepfake และระมัดระวังในการส่งต่อข้อมูล!!!


อ้างอิง

https://www.tnnthailand.com/news/social/107509/ (ตร.เตือนประชาชนระวังมิจฉาชีพใช้ Deepfake ปลอมเป็นตร.ตัดต่อปากขยับตามเสียง : TNN 11 มี.ค. 2565)

https://engineering.purdue.edu/~malcolm/interval/1997-012/ (Video Rewrite: Driving Visual Speech with Audio : College of Engineering , Purdue University รัฐอินเดียนา สหรัฐอเมริกา)

https://www.researchgate.net/publication/319770355_Generative_Adversarial_Nets (Generative Adversarial Nets : Ian Goodfellow , University of Montreal แคนาดา)

https://developers.google.com/machine-learning/gan (Introduction | Generative Adversarial Networks | Google Developers)

https://www.bangkokbiznews.com/lifestyle/957991 (เนียนยิ่งกว่า ‘Fake news’ รู้จัก DeepFake คลิปปลอมใบหน้าคนดัง : กรุงเทพธูรกิจ 2 ก.ย. 2564)

https://www.bbc.com/news/av/technology-40598465 (Fake Obama created using AI tool to make phoney speeches : BBC 17 ก.ค. 2560)

https://www.wsj.com/articles/the-researchers-who-synthesized-video-of-barack-obama-1500655962 (The Researchers Who Synthesized Video of Barack Obama : The Wall Street Journal : 21 ก.ค. 2560)

https://www.forbes.com/sites/robtoews/2020/05/25/deepfakes-are-going-to-wreak-havoc-on-society-we-are-not-prepared/?sh=53ed96f67494 (Deepfakes Are Going To Wreak Havoc On Society. We Are Not Prepared. : Forbes 25 พ.ค. 2563)