‘AI-Deepfake’เทคโนโลยีซับซ้อนปลอมเนียนน่ากังวล แต่อย่าประมาท ‘Cheapfake’ ทริกง่ายๆ  ก็หลงเชื่อกันได้

By : Zhang Taehun

ระยะหลังๆ มานี้ ดูเหมือนคำว่า ดีพเฟค (Deepfake)” จะเป็นที่คุ้นเคยของสังคมไทยไปเสียแล้ว เมื่อเทียบกับเมื่อ 2 – 3 ปีก่อนหน้าที่อาจเป็นเพียงศัพท์เฉพาะกลุ่มของผู้สนใจเทคโนโลยี ซึ่งก็ไม่น่าแปลกใจ เพราะเริ่มมีข่าว โจรออนไลน์ ก็นำเทคโนโลยีนี้มาหลอกเหยื่อ โดยประเทศไทย เท่าที่พอจะสืบค้นข้อมูลได้ เริ่มพบรายงานมาตั้งแต่วันที่ 10 มี.ค. 2565 โดย นสพ.ผู้จัดการ รายงานข่าวผู้ใช้ TikTok ชื่อ “siripatty” โพสต์คลิปวิดีโอเตือนภัยมิจฉาชีพที่ใช้รูปภาพเป็นเจ้าหน้าที่ตำรวจ และมีการท้าให้เปิดกล้อง ซึ่งเมื่อเปิดก็พบว่าเจ้าหน้าที่ตำรวจตามภาพที่ปรากฏนั่งอยู่ แต่สิ่งที่แปลกก็คือ ขณะที่เจ้าหน้าที่ตำรวจพูดนั้น มีเพียงแค่ปากและตาที่ขยับ ซึ่งไม่สอดคล้องกับรูปของใบหน้า

จากนั้นเพียง 1 วัน ในวันที่ 11 มี.ค. 2565 เพจเฟซบุ๊ก กองสารนิเทศ สำนักงานตำรวจแห่งชาติออกประกาศแจ้งเตือนประชาชน แก๊งคอลเซ็นเตอร์ไฮเทค ใช้ Deep Fake ตัดต่อคลิปตำรวจ หลอกเอาเงิน โดย พ.ต.อ.ศิริวัฒน์ ดีพอ รองโฆษกสำนักงานตำรวจแห่งชาติ เปิดเผยว่า มิจฉาชีพได้ปรับเปลี่ยนวิธีการ จากที่นำคลิปวิดีโอจากการให้สัมภาษณ์ของเจ้าหน้าที่ตำรวจ ซึ่งสวมใส่หน้ากากอนามัย มาตัดต่อใส่เสียงของคนร้าย มาเป็นการใช้เทคนิค Deepfake ซึ่งเป็นการใช้เทคโนโลยี Deep Learning ในการพัฒนาระบบปัญญาประดิษฐ์ (AI) ให้สามารถตัดต่อคลิปวิดีโอหรือภาพถ่ายของบุคคลหนึ่ง ให้สามารถขยับปากตามเสียงของบุคคลอื่นได้

ยิ่งต่อมายังพบการใช้ “AI ปลอมเสียง ก็ยิ่งทำให้ผู้ใช้งานอินเตอร์เน็ตและสื่อสังคมออนไลน์ (Social Media) ตื่นตัว (และกังวล) มากขึ้น อาทิ รายงานจากสถานีโทรทัศน์ช่อง 8 เมื่อวันที่ 26 ก.ย. 2565 เล่าเรื่องของผู้ใช้เฟซบุ๊กรายหนึ่ง ที่เจอหมายเลขโทรศัพท์ที่ไม่คุ้นเคยโทรเข้ามา ปลายสายเป็นเสียงของเพื่อนที่รู้จักกันมานานถึง 30 ปี อ้างว่าเปลี่ยนเบอร์แล้ว ให้บันทึกเบอร์ที่โทรเข้ามาใหม่นี้ไว้แล้วลบเบอร์เก่าทิ้ง และส่งเลขบัญชีมาให้เพื่อขอยืมเงิน 

ถึงตรงนี้จึงเริ่มเอะใจ เพราะชื่อบัญชีไม่ใช่ชื่อจริงของเพื่อนคนดังกล่าว บวกกับเคราะห์ดีที่ยังมีไลน์ของเพื่อนคนนี้ (ส่วนเบอร์เก่าลบทิ้งไปเพราะหลงเชื่อมิจฉาชีพ) จึงทักไปสอบถาม และได้รับคำยืนยันว่าไม่มีการทักมายืมเงินแต่อย่างใด แถมยังไม่ได้เปลี่ยนเบอร์มือถืออีกต่างหาก แล้วเมื่อนำเรื่องราวทั้งหมดไปแจ้งความ ตำรวจก็ให้ข้อมูลว่ามีเหยื่อคนอื่นๆ โดนแบบเดียวกันแล้วหลายราย

ก่อนหน้านี้ โคแฟคเคยนำเสนอเรื่องราวของทั้ง Deepfake และ AI ปลอมเสียงไปแล้ว ซึ่งในต่างประเทศ นอกจากจะหวั่นเกรงมิจฉาชีพนำไปใช้หลอกเอาทรัพย์สินของเหยื่อ ยังน่ากังวลหากวันหนึ่งถูกนำไปใช้หลอกว่าเป็นคลิปเสียงหรือคลิปวีดีโอของบุคคลสำคัญกำลังพูดบางอย่าง จนกลายเป็นสถานการณ์โกลาหลหรือก่อความรุนแรงในทางการเมืองหรือสังคมได้โดยที่เจ้าตัวไม่ได้พูดเช่นนั้นจริงแต่คนจำนวนมากหลงเชื่อไปแล้ว

เมื่อในวันที่ 17 ก.ค. 2560 สำนักข่าว BBC ของอังกฤษ รายงานกรณีคณะผู้วิจัยจาก มหาวิทยาลัยวอชิงตัน ใช้ปัญญาประดิษฐ์ (AI) สร้างเค้าโครงปากของ บารัค โอบามา อดีตประธานาธิบดีสหรัฐอเมริกา และผสานเข้ากับภาพวีดีโอของ โอบามา ที่เผยแพร่ผ่านสื่อต่างๆ โดยคณะผู้วิจัยรวบรวมมาถึง 14 ชั่วโมง สำหรับนำมาทดลองในงานนี้ และในที่สุดก็สามารถนำเสียงของบุคคลอื่นเข้าไปใส่ในใบหน้าของอดีตผู้นำสหรัฐฯ ได้อย่างแนบเนียน

นอกจากนี้ในรายงานข่าววันที่ 25 มี.ค. 2566 โดยสำนักข่าว Euronews เครือข่ายสถานีโทรทัศน์ของยุโรปที่มีสำนักงานใหญ่ในเมืองลียง ประเทศฝรั่งเศส ยกตัวอย่างการทดลองใช้เทคโนโลยีนี้เลียนแบบเสียงของ เอ็มมา วัตสัน (Emma Watson) นักแสดงสาวชาวอังกฤษ ให้อ่านออกเสียงข้อความในหนังสือ “การต่อสู้ของข้าพเจ้า (Mein Kampf)” งานเขียนของ อดอล์ฟ ฮิตเลอร์ (Adolf Hitler) ผู้นำเผด็จการนาซีเยอรมัน ในยุคสงครามโลกครั้งที่ 2

ในวันที่ 15 พ.ย. 2566 กองบัญชาการตำรวจสอบสวนกลาง แนะนำประชาชนในเบื้องต้นว่าด้วย การใช้เทคโนโลยี Deepfake ปลอมใบหน้าคน” มีข้อสังเกตคือ 1.สังเกตการขยับริมฝีปาก : หากเป็นคลิปสร้างจาก AI การขยับปากของคนในคลิปจะไม่สอดคล้องกับเสียงในวิดีโอ และดูไม่เป็นธรรมชาติ2.ใบหน้า : มีลักษณะที่ผิดสัดส่วนธรรมชาติ โดยเฉพาะเมื่อก้มเงยหน้าหรือหันซ้ายหันขวา 3.สีผิวเข้มหรืออ่อนเป็นหย่อมๆ : แสงและเงาบริเวณผิวไม่สอดคล้องต่อการเคลื่อนไหว และ 4.การกะพริบตาถี่เกินไป หรือน้อยเกินไป : ดูไม่เป็นธรรมชาติ

ส่วน การใช้ AI ปลอมเสียง” มีวิธีสังเกต คือ 1.จังหวะการเว้นวรรคคำพูด : เสียงพูดจาก AI จะไม่มีอารมณ์หรือความรู้สึก เสียงจึงจะไม่มีจังหวะหยุด ไม่มีเว้นวรรคจังหวะหายใจ และจะพูดประโยคยาว 2.น้ำเสียงราบเรียบ : เสียงจาก AI ที่มิจฉาชีพใช้จะมีเสียงที่ราบเรียบ ไม่มีการเน้นน้ำหนักเสียง หรือความสำคัญของคำ และ 3.คำทับศัพท์ : เสียงจาก AI จะพูดคำศัพท์เฉพาะไม่ค่อยชัด คำบางคำเวลาออกเสียง จะมีความผิดเพี้ยนไปบ้าง เนื่องจาก AI อาจยังไม่สามารถออกเสียงวรรณยุกต์ เสียงสูง-ต่ำ ได้ในบางคำ

ข้างต้นนั้นเป็นเรื่องของการสร้างข่าวลวง (Fake News) หรือข้อมูลบิดเบือน (Disinformation) แบบที่ต้องใช้เทคโนโลยีซับซ้อน ซึ่งหลายคนก็กำลังกังวลว่านับวัน AI ยิ่งพัฒนาให้ทำสิ่งเหล่านั้นได้เนียนขึ้น ทำให้การระมัดระวังทำได้ยากขึ้น แต่นั่นคือเรื่องของอนาคต ในขณะที่ปัจจุบัน ดูๆ แล้ว ข่าวลวงหรือข้อมูลบิดเบือนประเภท ชีพเฟค (Cheapfake)” น่าจะเป็นสิ่งที่เราทุกคนเจอได้บ่อยกว่า 

“อะไรคือชีพเฟค?” บทความ “What Are Cheapfakes (Shallowfakes)?” เผยแพร่โดย Samsung SDS บริษัทด้านเทคโนโลยีสารสนเทศและดิจิทัล ในเครือซัมซุงของเกาหลีใต้ อธิบายว่า Cheapfake หรืออีกคำหนึ่งคือ “แชลโลว์เฟค (Shallowfake)” แปลกันแบบตรงตัว คือ “การหลอกลวงหรือบิดเบือนข้อมูลด้วยวิธีการแบบบ้านๆ ง่ายๆ ไม่ซับซ้อน (Cheap แปลว่าราคาถูก ส่วน Shallow แปลว่าตื้นเขิน) อาจใช้เทคโนโลยีช่วยบ้างแต่ก็ไม่ต้องอาศัยความรู้ชั้นสูงนัก” ซึ่งต่างจาก Deepfake ที่ต้องเข้าใจเรื่อง AI และ Machine learning พอสมควร โดยวิธีการทำ Cheapfake ที่พบได้บ่อยๆ เช่น แต่งภาพด้วยโปรแกรมพื้นฐานอย่าง Photoshop , ตัดต่อวีดีโอด้วยการเร่งหรือลดความเร็ว 

ภาพ01 : ภาพเก่าของ บารัค โอบามา สมัยเป็นประธานาธิบดีสหรัฐอเมริกา ตรวจเยี่ยมการพัฒนาวัคซีนโรคอีโบลา ในแล็บที่รัฐแมรีแลนด์ของสหรัฐฯ ในปี 2557 ถูกนำไปอ้างในปี 2563 ที่โลกเผชิญสถานการณ์ไวรัสโควิด-19 ระบาด ว่า เป็นภาพการไปดูโครงการเกี่ยวกับค้างคาว (สัตว์พาหะนำเชื้อโควิด-19) ที่เมืองอู่ฮั่นของจีน ในปี 2558 หรือ 5 ปีก่อนเกิดสถานการณ์โรคระบาด

หรือไม่ต้องใช้เทคโนโลยีอะไรเลย เพียงนำภาพเก่ามาโพสต์ใหม่แต่บรรยายในบริบทอื่นที่ไม่ตรงกับเหตุการณ์จริงในภาพนั้น (Re – Contextualizing) เท่านั้น โดยบทความยกตัวอย่างภาพ บารัค โอบามา อยู่ในห้องทดลองแห่งหนึ่ง ที่มาจริงๆ ของภาพนั้นอยู่ในปี 2557 สมัยที่โอบามา ยังเป็น ปธน. สหรัฐฯ ไปตรวจเยี่ยมการพัฒนาวัคซีนโรคอีโบลาในแล็บที่รัฐแมรีแลนด์ แต่ในปี 2563 ที่โลกเริ่มเผชิญสถานการณ์โรคระบาดโควิด-19 ที่เริ่มมาจากเมืองอู่ฮั่น ประเทศจีน มีการนำภาพดังกล่าวกลับมาแชร์กันอีกครั้ง แล้วบอกว่า เป็นภาพในปี 2558 ที่ ปธน.โอบามา ไปฟังบรรยายโครงการบางอย่างที่เกี่ยวกับค้างคาว (ซึ่งต่อมาจะถูกอ้างว่าเป็นพาหะนำเชื้อโควิด-19) ที่แล็บในเมืองอู่ฮั่น

ในวันที่ 18 ธ.ค. 2566 WIRED นิตยสารดังของสหรัฐฯ ที่เน้นเสนอข่าวสารด้านเทคโนโลยี เผยแพร่บทความ Worried About Political Deepfakes? Beware the Spread of ‘Cheapfakes’ ระบุว่า ในขณะที่แวดวงการเมืองทั่วโลก (โดยเฉพาะในสหรัฐฯ ที่กำลังนับถอยหลังสู่การเลือกตั้งประธานาธิบดีในช่วงปลายปี 2567) กำลังกังวลเกี่ยวกับข้อมูลหรือเนื้อหาที่สร้างโดยปัญญาประดิษฐ์ (Generative AI) แต่การเผยแพร่ข้อมูลที่ทำให้เกิดความเข้าใจผิดทำได้ง่ายกว่าด้วยการติดป้ายกำกับรูปภาพ วิดีโอ หรือคลิปเสียงผิดบริบทเพื่อบอกเป็นนัยว่ามาจากเวลาหรือสถานที่อื่น หรือแก้ไขสื่อเพื่อให้ดูเหมือนมีบางอย่างเกิดขึ้นทั้งที่เรื่องนั้นไม่ได้เกิดขึ้นจริง

บทความของ WIRED ยกตัวอย่างในปี 2563 มีคลิปวีดีโอ แนนซี เพโลซี (Nancy Pelosi – ปัจจุบันเป็นประธานสภาผู้แทนราษฎรของสหรัฐฯ) เป็นคลิปจริงไม่ได้ใช้ AI ทำขึ้น แต่ใช้วิธีตัดต่อให้เล่นด้วยความเร็วช้าลง เพื่อให้ผู้ที่ชมคลิปเข้าใจว่านักการเมืองผู้นี้อยู่ในอาการมึนเมา ซึ่งเมื่อดูการกำกับดูแลของแต่ละแพลตฟอร์ม พบว่า ในขณะที่ X (ทวิตเตอร์) TikTok และยูทูบ ลบคลิปดังกล่าวออกจากระบบ แต่เฟซบุ๊กไม่ได้ลบออกโดยทำเพียงมีคำเตือนว่า “มีเนื้อหาบางส่วนเป็นเท็จ” ซึ่งบทความนี้มองว่า เนื้อหาทำนองนี้ยังคงมีผลกระทบอย่างมากหากได้รับอนุญาตให้เผยแพร่บนแพลตฟอร์มสื่อสังคมออนไลน์

สำนักข่าวออนไลน์ในสหรัฐฯ อย่าง Slate เผยแพร่รายงาน Beware the Cheapfakes เมื่อวันที่ 12 มิ.ย. 2562 เตือนประชาชนว่า แม้ Deepfake จะเป็นเทคโนโลยีที่น่ากังวล แต่ความเสียหายหลายๆ ครั้งก็เกิดจากเทคนิคพื้นๆ แบบ Cheapfake โดยยกตัวอย่างคลิปวีดีโอนักการเมืองอเมริกัน แนนซี เพโลซี ที่ดูเหมือนมีอาการมึนเมา แต่ในความเป็นจริงคือคลิปนี้ถูกตัดต่อด้วยการทำให้เล่นด้วยความเร็วช้าลง ซึ่งท้าทายการตรวจจับและหักล้างเพราะเป็นคลิปวีดีโอจริงที่ผ่านการแก้ไขดัดแปลงเพียงเล็กน้อย

คลิปวีดีโอที่ถูกตั้งชื่อว่า Drunk Pelosi ถูกโพสต์บนเพจเฟซบุ๊กหนึ่งที่มียอดผู้ติดตามถึง 35,000 บัญชี บรรยายว่า แนนซี เพโลซีพูดไม่ชัดและมีกิริยาอาการเหมือนคนเมา อย่างไรก็ตาม เมื่อเปรียบเทียบกับวิดีโออื่นจากเหตุการณ์เดียวกัน แม้แต่คนที่ไม่ใช่ผู้เชี่ยวชาญก็ยังดูออกว่าวิดีโอถูกลดความเร็วลง ถึงกระนั้นก็น่าเป็นห่วง เพราะคลิปบิดเบือนนี้ถูกนำไปไปขยายความต่อโดย โดนัลด์ ทรัมป์ (Donald Trump) ประธานาธิบดีในขณะนั้น รวมถึงนักการเมืองคนอื่นๆ ของพรรครีพับลิกัน อันเป็นขั้วการเมืองตรงข้ามกับพรรคเดโมแครตที่ เพโลซี สังกัดอยู่ 

ภาพ 02 : โพสต์คำเตือนจากศูนย์ต่อต้านข่าวปลอม กระทรวงดิจิทัลเพื่อเศรษฐกิจและสังคม กรณีมีการแชร์ภาพที่อ้างว่า พล.อ.ประยุทธ์ จันทร์โอชา นายกรัฐมนตรีในขณะนั้น ลงพื้นที่ช่วงเดือน มี.ค. 2563 ปลุกคนไทยสู้ภัยโควิด – 19 ว่าเป็นข่าวลวง โดยเป็นภาพเก่าที่ พล.อ.ประยุทธ์ ไปลงพื้นที่ถนนเยาวราช
ภาพ 03 : เว็บไซต์ นสพ.ผู้จัดการ รายงานข่าว วันที่ 15 ธ.ค. 2562 พล.อ.ประยุทธ์ จันทร์โอชา นายกรัฐมนตรีในขณะนั้น ลงพื้นที่ถนนเยาวราชเพื่อเยี่ยมชมกิจกรรมถนนคนเดินและสตรีทฟู้ด ซึ่งหลังจากนั้นไม่กี่เดือน จะมีภาพจากงานนี้ถูกนำไปใช้อ้างว่า พล.อ.ประยุทธ์ ลงพื้นที่กลางกรุงเทพฯ ปลุกคนไทยสู้ภัยโควิด – 19 

กลับมาที่ประเทศไทย Cheapfake ที่น่าจะผ่านหูผ่านตากันบ่อยๆ คงเป็นเรื่องของภาพเก่าเล่าใหม่อย่างผิดบริบท (Re – Contextualizing) ยกตัวอย่างจากที่ ศูนย์ต่อต้านข่าวปลอม กระทรวงดิจิทัลเพื่อเศรษฐกิจและสังคม เคยรวบรวมไว้ เช่น ในเดือน มี.ค. 2563 ที่ประเทศไทยเริ่มเผชิญสถานการณ์โรคระบาดโควิด – 19 มีการแชร์ภาพ พล.อ.ประยุทธ์ จันทร์โอชา นายกรัฐมนตรีในขณะนั้น ลงพื้นที่ปราศรัยบนท้องถนนใจกลางกรุงเทพฯ ปลุกพลังคนไทยสู้ภัยไวรัสโคโรนา แต่เรื่องนี้เป็นข่าวลวง เพราะในความเป็นจริง ภาพดังกล่าวถูกถ่ายในวันที่ 15 ธ.ค. 2562 ซึ่ง พล.อ.ประยุทธ์ ไปลงพื้นที่ถนนเยาวราชเพื่อเยี่ยมชมกิจกรรมถนนคนเดินและสตรีทฟู้ด 

หรือในช่วงปี 2565 ที่มีการแชร์ภาพปั๊ม ปตท. ใน สปป.ลาว ถูกไฟไหม้ซึ่งอ้างว่ามีการวางเพลิงเกิดขึ้น วนไป – มาอยู่หลายครั้ง ในความเป็นจริงภาพที่แชร์กันเป็นเหตุการณ์ในประเทศไทยเมื่อหลายปีก่อน เช่น ภาพรถกระบะถูกไฟไหม้ เหตุเกิดที่ปั๊ม ปตท. ละงูปิโตรเลียม ริมถนนละงู-ปากบารา เขตเทศบาลตำบลกำแพง อ.ละงู จ.สตูล วันที่ 22 พ.ย. 2560 โดยพบสื่อไทย 2 สำนัก คือ นสพ.ไทยรัฐ และ นสพ.ผู้จัดการ รายงานข่าวนี้ โดยในส่วนของ นสพ.ไทยรัฐ ยังรายงานด้วยว่า สาเหตุการเกิดไฟไหม้ครั้งนี้ เกิดจากขณะคนงานกำลังใช้เครื่องสูบน้ำมันแบบใช้มือหมุน สูบน้ำมันอี 20 ลงถัง ได้เกิดการเสียดสีบริเวณปากถัง 200 ลิตร และเกิดประกายไฟขึ้นมาจนทำให้เกิดไฟไหม้

เทคนิค Cheapfake ยังถูกมิจฉาชีพนำไปใช้หลอกให้เหยื่อ (โดยเฉพาะที่เป็นคน “ใจดี – ใจบุญ” ชอบสร้างกุศลบริจาคเงิตช่วยเหลือผู้ตกทุกข์ได้ยาก) โอนเงินบริจาคได้ด้วย รายงานข่าวเมื่อวันที่ 16 มี.ค. 2564 มีคุณแม่ท่านหนึ่งได้ออกมาเปิดเผยเป็นอุทาหรณ์ว่า ตนได้เข้าแจ้งความที่ สภ.บึงสามพัน จ.เพชรบูรณ์ หลังพบมีมิจฉาชีพ นำภาพเก่าของลูกชายที่เข้ารับการรักษาโรคปากแหว่งเพดานโหว่เมื่อเดือน มิ.ย. 2563 ไปโพสต์ขอรับบริจาคนม ผ้าอ้อมหรือปัจจัยช่วยค่าใช้จ่ายในการรักษา พร้อมระบุเลขบัญชีธนาคาร โดยอ้างว่าเด็กในภาพเป็นโรคหัวใจหอบ ซึ่งคุณแม่ท่านนี้ยืนยันว่า ปัจจุบันลูกชายตน (หรือเด็กที่ถูกนำภาพไปแอบอ้าง) สุขภาพแข็งแรงดี 

ภาพ 04 : ข้อความและภาพเรื่องตา-ยายพิการเก็บขยะเลี้ยงหลาน 5 ชีวิต ที่สอบถามเข้ามาในระบบของ Cofact และที่แชร์ทางกลุ่มเฟซบุ๊ก ในเดือน ก.พ. และ มี.ค. 2567 ระบุผู้ต้องการความช่วยเหลือคือ นายไพศาล แซ่ตั๊น 
ภาพ 05 : ข่าวจาก นสพ.สยามรัฐ เมื่อวันที่ 2 ก.ค. 2560 เนื้อข่าวเดียวกันกับที่ถูกนำมาแชร์ในอีกเกือบ 7 ปีให้หลัง ยกเว้นชื่อของผู้ที่ต้องการความช่วยเหลือ คือนายณรงค์ ทองมนต์ 

ภาพ 06 : ข่าวจาก นสพ. ผู้จัดการ เมื่อวันที่ 4 ก.ค. 2560 เนื้อข่าวและภาพประกอบเดียวกันกับที่ถูกนำมาแชร์ในอีกเกือบ 7 ปีให้หลัง ยกเว้นชื่อของผู้ที่ต้องการความช่วยเหลือ คือนายณรงค์ ทองมนต์ 

นอกจากการใช้ภาพเก่าแล้ว การใช้ข่าวเก่าแบบลอกมาทั้งหมด แต่เปลี่ยนชื่อและบัญชีธนาคารผู้รับบริจาค ก็ต้องระมัดระวัง โดยเมื่อเดือน ก.พ. 2567 มีผู้ส่งข้อความเข้ามาถามในระบบฐานข้อมูลของ Cofact เป็นเรื่องของ ตา-ยายพิการเก็บขยะเลี้ยงหลาน 5 ชีวิต” ในพื้นที่ ต.ดงเดือย อ.กงไกรลาศ จ.สุโขทัย ซึ่งเมื่อลองนำส่วนหนึ่งของข้อความไปค้นหาดู ยังพบการแชร์ในกลุ่มเฟซบุ๊กเมื่อวันที่ 4 มี.ค. 2567 อย่างไรก็ตาม เมื่อทดลองนำข้อความที่โพสต์ไปค้นหาในอินเตอร์เน็ต กลับพบว่าทั้งภาพและเนื้อหา ไปตรงกับข่าวที่มีสื่ออย่างน้อย 2 สำนัก รายงานเมื่อเกือบ 7 ปีก่อน 

โดย นสพ.สยามรัฐ และ นสพ.ผู้จัดการ เคยรายงานข่าวนี้เมื่อวันที่ 2 และ 4 ก.ค. 2560 ตามลำดับ จะแตกต่างก็มีเพียงข่าวจากหนังสือพิมพ์ 2 ฉบับข้างต้น ระบุครอบครัวที่ได้รับความเดือดร้อน คือ นายณรงค์ ทองมนต์ บัญชีเลขที่ 055610268819 ธนาคารออมสิน สาขากงไกรลาศ หมายเลขโทรศัพท์ 093-8475136 ในขณะที่ข้อความซึ่งแชร์กันบนโลกออนไลน์ ตามเวลาล่าสุดที่พบคือเดือน ก.พ. และ มี.ค. 2567 ได้เปลี่ยนเป็นชื่อ นายไพศาล แซ่ตั๊น บัญชีเลขที่ 177-3-412258 ธนาคารกสิกรไทย สาขากงไกรลาศ หมายเลขโทรศัพท์ 09-4371-4208

(หมายเหตุ : กรณีข่าวตา-ยายพิการเก็บขยะเลี้ยงหลาน 5 ชีวิต ในพื้นที่ ต.ดงเดือย อ.กงไกรลาศ จ.สุโขทัย ผู้เขียนมิได้เจตนากล่าวหาบุคคลที่ปรากฏชื่อว่าเป็นมิจฉาชีพ เพียงแต่พบข้อสงสัยว่าด้วยเนื้อหาและภาพข่าวเดียวกันแต่ถูกเผยแพร่ส่งต่อในต่างห้วงเวลาและมีการแก้ไขชื่อ เลขบัญชีธนาคาร รวมถึงหมายเลขโทรศัพท์ของผู้ที่ต้องการความช่วยเหลือ ซึ่งถือว่าเป็นข้อน่าสงสัย จึงหยิบยกขึ้นมาเพื่อเป็นกรณีศึกษา ทั้งนี้ ผู้เขียนพร้อมเผยแพร่คำชี้แจงเพิ่มเติมหากผู้ถูกพาดพิงชี้แจงเข้ามา)

ยังมีกรณีที่เทคนิค Cheapfake ไม่ได้ใช้เพื่อหลอกคนบนโลกออนไลน์ แต่นำไปใช้ตบตาเจ้าหน้าที่ตำรวจบนท้องถนน โดยเมื่อวันที่ 27 ธ.ค. 2566 สถานีโทรทัศน์ช่อง 7 รายงานข่าวตำรวจจับผู้ต้องหา เปิดเพจเฟซบุ๊กจำหน่ายป้ายทะเบียนรถปลอมและป้ายแสดงการเสียภาษีประจำปี (ป้ายวงกลม) ปลอม โดยผู้ต้องหารับสารภาพว่า ป้ายทะเบียนปลอมนั้นซื้อมาขายต่อ แต่ป้ายแสดงการเสียภาษีประจำปี (ป้ายวงกลม) ปลอม ทำขึ้นเองโดยใช้โปรแกรม Photoshop ใช้เวลาทำประมาณ 3 นาที ต้นทุนไม่ถึง 10 บาท แต่ขายได้ราคาสูงถึง1,300 – 1,500 บาท

โดยสรุปแล้ว แม้เราจะกังวลกับเทคโนโลยีใหม่ๆ อย่าง AI หรือ Deepfake ที่ทำให้ข่าวลวงหรือข้อมูลบิดเบือนทำได้แนบเนียนจับผิดได้ยาก แต่ก็อย่าลืมหรืออย่าประเมินอันตรายของ Cheapfake ต่ำเกินไป เพราะอย่างหลังนี้เจอได้บ่อยๆ เนื่องจากสามารถทำได้ง่ายๆ ไม่ต้องอาศัยความรู้ซับซ้อน และหากมันไป กระตุ้นอารมณ์ บางอย่างในตัวเรา เมื่อนั้นไม่ว่าใครก็อาจเผลอ เชื่อ และ แชร์ ข่าวนั้นต่อไปได้

อย่างข่าวอดีตนายกฯ พล.อ.ประยุทธ์ ลงพื้นที่ปลุกสู้ภัยโควิด-19 ท่ามกลางผู้คนห้อมล้อมหนาแน่น ก็อาจกระตุ้นได้ทั้งคนที่ชอบ-ไม่ชอบ พล.อ.ประยุทธ์ ให้ตีความและแชร์ออกไปในมุมที่ต่างกัน กลายเป็นความขัดแย้งทะเลาะเบาะแว้งขึ้นมาในหมู่ประชาชน หรือข่าวตา-ยายชีวิตรันทดเปิดรับบริจาค หากรีบโอนไปทันทีด้วยใจสงสารโดยยังไม่ทันได้ตรวจสอบ เงินนั้นก็อาจไปไม่ถึงมือของผู้ที่ตกทุกข์ได้ยากและต้องการความช่วยเหลือจริงๆ

ตั้งสติก่อนเชื่อ..เช็คให้ชัวร์ก่อนแชร์ (และโอนเงิน)” ยังคงเป็นหลักปฏิบัติที่ต้องยึดให้มั่นเสมอ!!!

-/-/-/-/-/-/-/-/-/-/-

อ้างอิง

https://mgronline.com/onlinesection/detail/9650000023797 (แก๊งคอลเซ็นเตอร์” ก้าวไปอีกขั้น ใช้ “deepfake” ภาพตำรวจขยับแค่ปากหลอกเหยื่อ : ผู้จัดการ 10 มี.ค. 2565)

https://www.facebook.com/photo/?fbid=5217890471594448&set=a.1047112478672289 (ตร. เตือน แก๊งคอลเซ็นเตอร์ไฮเทค ใช้ Deep Fake ตัดต่อคลิปตำรวจ หลอกเอาเงิน : กองสารนิเทศ สำนักงานตำรวจแห่งชาติ 11 มี.ค. 2565)

https://www.thaich8.com/news_detail/112669(เตือนภัย! มิจฉาชีพคิดกลโกงใหม่ ใช้ AI ปลอมเสียงเป็นคนคุ้นเคยโทรหลอกยืมเงิน : ช่อง8 26 ก.ย. 2565)

https://www.bbc.com/news/av/technology-40598465 (Fake Obama created using AI tool to make phoney speeches : BBC 17 ก.ค. 2560)

https://blog.cofact.org/deepfake2022/(‘DEEPFAKE’อีกระดับของข่าวปลอม ‘หลอกเนียน-ลวงเหมือน-สกัดยาก’รู้อีกทีเป็นเหยื่อ : Cofact 13 มี.ค. 2565)

https://www.euronews.com/next/2023/03/25/audio-deepfake-scams-criminals-are-using-ai-to-sound-like-family-and-people-are-falling-fo (Audio deepfake scams: Criminals are using AI to sound like family and people are falling for it : Euronews 25 มี.ค. 2566)

https://blog.cofact.org/specialreport4-66/ (‘ปลอมเสียงคนรู้จัก’ เทคโนโลยี‘AI’ก้าวหน้า..เอื้อ ‘มิจฉาชีพ’ สวมรอยหลอกเหยื่อแนบเนียน : Cofact 9 พ.ค. 2566)

https://www.facebook.com/photo/?fbid=364219319444945&set=a.127278969805649(ระวัง Deepfake สู่ Fake News วิธีสังเกตคนจริง หรือ AI : ตำรวจสอบสวนกลาง 15 พ.ย. 2566)

https://www.samsungsds.com/en/insights/what-are-cheapfakes.html (What Are Cheapfakes (Shallowfakes)? : Samsung SDS : 23 พ.ค. 2565)

https://www.wired.com/story/meta-youtube-ai-political-ads/ (Worried About Political Deepfakes? Beware the Spread of ‘Cheapfakes’ : WIRED 18 ธ.ค. 2566)

https://slate.com/technology/2019/06/drunk-pelosi-deepfakes-cheapfakes-artificial-intelligence-disinformation.html (Beware the Cheapfakes : Slate 12 มิ.ย. 2562)

https://www.facebook.com/AntiFakeNewsCenter/photos/ข่าวปลอม-อย่าแชร์-นายกฯ-ลงพื้นที่ปลุกคน-สู้-covid-19-กลางถนนตามที่ได้มีข่าวปรากฎ/205219940912187/?locale=it_IT&paipv=0&eav=AfY6ugC3AEHqWGJt9fjHB8xovtbNPBpNnOrmekHIkXQtaPJ1Z3CKkbNZ0S-ol8jISq4&_rdr (ข่าวปลอม อย่าแชร์! นายกฯ ลงพื้นที่ปลุกคน สู้ COVID-19 กลางถนน : ศูนย์ต่อต้านข่าวปลอมฯ 23 มี.ค. 2563)

https://mgronline.com/politics/detail/9620000119525 (“บิ๊กตู่” ลุยถนนคนเดินเยาวราช ประกาศสู้ ปชช.ตะโกนเชียร์ลุง : ผู้จัดการ 15 ธ.ค. 2562)

https://www.antifakenewscenter.com/ความสงบและความมั่นคง/ข่าวปลอม-อย่าแชร์-มีการ-3/ (ข่าวปลอม อย่าแชร์! มีการเผาปั๊มน้ำมันปตท. ในประเทศลาว : ศูนย์ต่อต้านข่าวปลอมฯ 2 ธ.ค. 2565)

https://www.thairath.co.th/news/society/1133465 (นาทีระทึก! คลิปไฟไหม้รถกระบะในปั๊มน้ำมัน อ.ละงู เสียวระเบิด : ไทยรัฐ 23 พ.ย. 2560)

https://mgronline.com/south/detail/9600000117842 (เพลิงไหม้กระบะวอดทั้งคันขณะนำน้ำมันลงท่อในปั๊ม ปตท.ละงู กลางเมืองสตูล : ผู้จัดการ 22 พ.ย. 2560)

https://www.thairath.co.th/news/local/northeast/2051281 (แม่อุ้มลูกน้อยแจ้งจับโจรในโซเชียล เอารูปเด็กไปโพสต์ ขอรับบริจาค : ไทยรัฐ 16 มี.ค. 2564)

https://cofact.org/article/28nr75gxky3s9

https://siamrath.co.th/n/18721 (น่าเวทนา!ตายายพิการเก็บขยะขายเลี้ยงดูหลาน 5 คน ลูกสาวเพิ่งเสียชีวิต : สยามรัฐ 2 ก.ค. 2560)

https://mgronline.com/local/detail/9600000067779 (สุดลำเค็ญ…ตา-ยายพิการเก็บขยะเลี้ยงหลาน 5 ชีวิต ลูกตายชาวบ้านต้องช่วยทำศพ : ผู้จัดการ 4 ก.ค. 2560)

https://news.ch7.com/detail/694950 (จับพ่อค้าหัวใส ทำป้ายปลอมขาย : ช่อง 7 27 ธ.ค. 2566)