ส่องข้อกังวล เมื่อสารคดี Netflix ใช้ AI จำลอง ‘ภาพจากอดีต’ 

ธีรนัย จารุวัสตร์ สมาชิก CoFact

อุตสาหกรรมบันเทิงตะวันตกหันมาใช้เทคโนโลยี AI มากขึ้นเรื่อยๆ แต่ขณะเดียวกันก็ทำให้เกิดข้อถกเถียงว่าอะไรคือขอบเขตที่เหมาะสมของการใช้ AI ในสื่อบันเทิง หลังเริ่มมีกรณีรายการสารคดีนำเอา “หลักฐานในอดีต” ที่ AI ทำขึ้นเอง มาเสนอราวกับว่าเป็นเรื่องจริง 

ตลอดช่วงปี 2566 อุตสาหกรรมบันเทิงในสหรัฐอเมริกาต้องสั่นสะเทือนครั้งใหญ่ เมื่อสหภาพคนทำงานสื่อบันเทิง นักเขียนบท และนักแสดง รวมตัวกันหยุดงานประท้วง ติดต่อกันหลายเดือน เพื่อเรียกร้องค่าตอบแทนและสวัสดิการที่เป็นธรรมจากบรรดากลุ่มทุนเจ้าของค่ายหนังและสื่อบันเทิงต่างๆ 

ที่น่าสนใจคือ หนึ่งในประเด็นปัญหาที่นำไปสู่การนัดหยุดงานประท้วงครั้งนี้ คือการที่ผู้บริหารสื่อบันเทิงใช้ ปัญญาประดิษฐ์ หรือ Artificial Intelligence (AI) สร้างผลงานแทนคนทำงานบ่อยครั้งขึ้นเรื่อยๆ อีกทั้งยังเริ่มมีกรณีบังคับให้นักแสดงรุ่นใหม่ๆ ยินยอมให้ค่ายหนังเก็บภาพและเสียงของตน เพื่อนำไปใช้เป็น AI ในสื่อต่างๆ โดยถือสิทธิ์ขาดแต่เพียงผู้เดียว เป็นต้น

การประท้วงดำเนินต่อเนื่องตั้งแต่เดือนกรกฎาคม ก่อนจะสิ้นสุดลงในเดือนพฤศจิกายน หลังการเจรจาต่อรองระหว่างสหภาพกับตัวแทนผู้บริหารเป็นผลสำเร็จ แต่ในขณะนั้น ผู้เชี่ยวชาญหลายคนตั้งข้อสังเกตว่าประเด็นการใช้ AI ในอุตสาหกรรมบันเทิง มิได้มีข้อยุติอย่างสมบูรณ์เช่นเดียวกับข้อเรียกร้องอื่นๆ พร้อมเตือนไว้ว่าเรื่องนี้จะกลับมาเป็นปมปัญหาในอนาคตอีกอย่างแน่นอน 

ตัดภาพมาที่ปี 2567 คำเตือนเหล่านั้นดูเหมือนจะกลายเป็นจริง เพราะ AI ยังปรากฎตัวขึ้นอย่างต่อเนื่องในสื่อบันเทิง จนเสมือนว่ากลายเป็นเรื่อง “ปกติ” ไปแล้วก็ว่าได้

สร้างสรรค์หรือขี้เกียจ?

ตัวอย่างหนึ่งของการใช้ AI เมื่อไม่นานมานี้ คือโปสเตอร์โปรโมทภาพยนตร์ฟอร์มยักษ์ “Civil War – วิบัติสมรภูมิเมืองเดือด” ซึ่งได้นำเสนอภาพจินตนาการสภาพบ้านเมืองในสหรัฐอเมริกา หลังเกิดเหตุการณ์สงครามกลางเมืองระหว่างฝ่ายต่างๆ 

แต่เมื่อชาวเน็ตสายตาดีลองเพ่งดู กลับพบว่าโปสเตอร์ดังกล่าวมีรายละเอียดพิลึกๆ เช่น ทหารไม่มีขา, รถยนต์มี 3 ประตู, รูปแบบสถาปัตยกรรมที่ผิดรูปร่าง, หงส์มีสัดส่วนผิดปกติ ฯลฯ จนกระทั่งแหล่งข่าวของค่ายหนังยอมรับกับสื่อมวลชนว่า โปสเตอร์เหล่านี้เป็นผลงานของ AI ตามที่หลายคนสงสัย

ยิ่งทำให้ชาวเน็ตหลายคนเกาหัวกันแกรกๆ เพราะภาพยนตร์เรื่องนี้ใช้งบประมาณในการตลาดและโฆษณาหลายล้านเหรียญสหรัฐ แต่ทำไมค่ายหนังกลับอุตริประหยัดเงิน ด้วยการใช้ AI สังเคราะห์ภาพที่บิดเบี้ยวขึ้นมา แทนที่จะให้ศิลปินทำโปสเตอร์แบบหนังเรื่องอื่นๆ

เหตุการณ์คล้ายๆกัน เกิดขึ้นเมื่อต้นปีนี้ เมื่อแฟนคลับซีรีส์ชื่อดัง “True Detective” ของ HBO สังเกตว่าสิ่งของประกอบฉาก ของฉากหนึ่งในซีรีส์ ดูผิดเพี้ยนแบบแปลกๆ

Props ดังกล่าวคือโปสเตอร์ของวง IVE และวง Metallica แต่กลับเป็นโปสเตอร์ที่ AI สร้างขึ้นมา และผลลัพธ์ที่ได้ก็คือ ไม่ได้มีความใกล้เคียงกับโปสเตอร์ของจริงแต่อย่างใด เช่น สะกดผิด และภาพก็บิดเบี้ยวด้วย แถมหน้าตาสมาชิกวง Metallica กลับกลายเป็นหน้าของวง KISS อีกต่างหาก 

ด้านคอมเมนต์จากชาวเน็ตจำนวนหนึ่งก็ตั้งคำถามว่า ทำไมผู้ผลิตรายการถึงต้องใช้ AI ทำภาพขึ้นมา แทนที่จะใช้ภาพของจริง (ซึ่งหาได้ทั่วไปในอินเทอร์เน็ต)

“อันนี้ดูขี้เกียจโคตรๆ” ผู้ใช้ Reddit คนหนึ่งแสดงความเห็น

สารคดีกับความจริง(ที่ทำขึ้น)

การใช้ AI ในสื่อบันเทิงยังดูเหมือนจะยิ่ง “ข้ามเส้น” ไปอีกขั้น พร้อมกับสารคดีของ Netflix เรื่อง What Jennifer Did

สารคดีดังกล่าวนำเสนอชีวประวัติของ Jennifer Pan หญิงชาวแคนาดาที่กลายเป็นผู้ต้องหาในคดีฆาตกรรมสะเทือนขวัญ หลังจากที่เธอและแฟนหนุ่มจ้างมือปืนให้สังหารบิดาและมารดาของตนเอง เพราะความโลภอยากได้เงินมรดกจำนวนมหาศาล เหตุเกิดเมื่อปี 2553

อย่างไรก็ตาม มีชาวเน็ตตาดี (อีกแล้ว) สังเกตว่าสารคดีดังกล่าว เอาภาพที่ AI ทำขึ้น มาใช้ประกอบในฉากที่อ้างว่าเป็นภาพในอดีตของ Jennifer Pan

ดังนั้น เหตุการณ์นี้จึงถือว่า “ข้ามเส้น” ไปยิ่งกว่าหลายกรณีอื่นๆ เพราะ (1) กรณีอย่าง Civil War และ True Detective เป็นผลงานบันเทิง ซึ่งผู้ชมทราบดีว่าไม่ได้เกิดขึ้นจริง แต่กรณีของ What Jennifer Did เป็นสารคดี ซึ่งผู้ชมคาดหวังว่าข้อมูลต่างๆ ต้องเป็นเรื่องจริง และมีความถูกต้อง

(2) ในขณะที่กรณี Civil War และ True Detective ที่นำเอา AI มาใช้ผลิตผลงานด้านการตลาด หรือผลิตของประกอบฉาก แต่ในกรณีของ What Jennifer Did ถือได้ว่าเป็นการใช้ AI สร้างข้อมูลหลักฐานในอดีตขึ้นมาใหม่ทั้งหมดเลยทีเดียว นับเป็นมาตรฐาน “ใหม่” ของวงการสารคดีก็ว่าได้ 

เทียบเท่าได้กับว่า สมมติมีสารคดีเกี่ยวกับประวัติศาสตร์ แต่ผู้ทำสารคดีกลับใช้ AI สร้างภาพหรือคลิปเก่าๆ แล้วนำเสนอว่าเป็นเหตุการณ์จริงในอดีต แทนที่จะค้นคว้าหาภาพหรือคลิปจากประวัติศาสตร์จริงๆ

นอกจากนี้ หลายคนยังวิจารณ์ว่านอกจาก Netflix จะทำผิดกระทงแรกด้วยการเอา AI มาใช้ในสารคดีแล้ว ยังทำผิดกระทงที่สองด้วย นั่นคือไม่ได้เปิดเผยว่าภาพที่นำมาใช้ประกอบในสารคดี ไม่ได้เป็นภาพจริงๆ ต่างจากการทำสารคดีทั่วๆไป ซึ่งถ้าหากมีการจำลองเหตุการณ์ หรือทำภาพและคลิปเหตุการณ์ขึ้นมาใหม่ จะขึ้นคำเตือนให้ผู้ชมได้รับทราบ 

กรณีดังกล่าวไม่ใช่ครั้งแรกที่ผู้ผลิตสารคดีทดลองการใช้คอนเทนต์จาก AI โดยก่อนหน้านี้เมื่อปี 2564 สารคดีเรื่อง “Roadrunner: A Film About Anthony Bourdain” เกี่ยวกับเชฟชื่อดัง Anthony Bourdain ซึ่งถูกวิพากษ์วิจารณ์อย่างหนักมาแล้ว เพราะใช้เทคโนโลยี “deepfake” สร้างเสียงพูดของ Bourdain ขึ้นมาเอง เพื่อใช้ประกอบสารคดี และไม่ได้แจ้งให้ผู้ชมได้รับทราบว่าเป็นการใช้เทคโนโลยี ไม่ใช่เสียงของเชฟ Bourdain จริงๆ

ในครั้งนั้น ผู้กำกับสารคดีอ้างว่าได้ปรึกษากับครอบครัวของ Bourdain แล้ว รวมถึงอดีตภรรยาของเชฟคนดังกล่าวด้วย และทุกคนยินยอมให้สารคดีทำเสียงจำลองขึ้นมา แต่ปรากฎว่าอดีตภรรยาของ Bourdain เองยืนยันว่า ตนเองไม่เคยให้คำยินยอมตามที่ผู้กำกับกล่าวอ้าง

AI ความบันเทิง และความโปร่งใส

ด้วยกระแส AI ที่กำลังมาแรงตอนนี้ กรณีการใช้ AI ในธุรกิจบันเทิง คงเป็นเรื่องที่หลีกเลี่ยงยาก และที่น่ากังวลคือในขณะนี้ยังไม่มีมาตรฐานหรือจริยธรรมที่ผู้ผลิตสื่อบันเทิงตกลงร่วมกัน ว่าด้วยขอบเขตของการใช้ AI อย่างเหมาะสม

ทั้งนี้ ปฏิเสธไม่ได้ว่าเทคโนโลยี AI มีศักยภาพอย่างมากในการช่วยให้คนทำงานสื่อบันเทิง ไม่ว่าจะเป็นภาพยนตร์หรือสารคดี สามารถทำงานได้ง่ายและประหยัดเวลามากขึ้น 

แต่ผู้เชี่ยวชาญจำนวนหนึ่งก็ได้เริ่มเตือนเช่นกันว่า ถ้าหาก AI นำเอามาใช้ผิดวิธี หรือประหยัดงบประมาณ หรือใช้แทนคนทำงาน ก็จะกลายเป็นผลร้ายต่อวงการสื่อบันเทิงเช่นกัน ไม่ว่าจะเป็นคุณภาพงานที่ต่ำลง การเลิกจ้างงานหรือกดราคาคนทำงานโดยไม่เป็นธรรม หรือแม้กระทั่งกระทบต่อความน่าเชื่อถือของผลงานนั้นๆเอง

“ตอนนี้พวกเราก็ถูกกดันในเรื่องงบประมาณกันอยู่แล้ว” Dawn Porter ผู้กำกับภาพยนตร์ ให้สัมภาษณ์กับ Variety “พวกบริษัททีวีกับสตรีมเมอร์ชอบมาหาเราแล้วก็ถามว่า ‘คุณทำงานโดยใช้งบประมาณน้อยลงได้มั้ย?’ แต่วิธีเดียวที่จะทำให้งานนั้นใช้งบประมาณนั้นน้อยลงได้ ก็คือต้องตัดคนออก เพราะส่วนที่ใช้เงินมากที่สุดในการทำภาพยนตร์คือ ค่าจ้างงาน

“เพราะฉะนั้น ถ้าผมเอาเครื่องจักรมาใช้ทำงานแทนคนเขียนบท หรือผู้ช่วยโปรดิวเซอร์ แน่นอนว่าผมจะสามารถประหยัดงบประมาณได้อยู่แล้ว แต่ก็หมายความว่าสิ่งที่เสียไปก็คือคนทำงาน ซึ่งเป็นเรื่องไม่ดีสำหรับอุตสาหกรรมของเรา และหมายความว่าคุณภาพงานก็จะลดต่ำลงด้วย”

ด้านผู้กำกับอีกคนหนึ่ง Andrew Rossi ระบุว่าตนเคยใช้ AI ในผลงานมาแล้วในสารคดีเกี่ยวกับศิลปิน Andy Warhol โดยใช้ AI สร้างเสียงของ Warhol ขึ้นมาเช่นกัน แต่ขณะเดียวกัน ตนก็เปิดเผยให้ผู้ชมได้รับทราบเกี่ยวกับการใช้ AI และได้รับความยินยอมอย่างเป็นทางการจากทายาทของศิลปินคนดังกล่าวแล้วด้วย 

ดังนั้น Rossi จึงมองว่าอุตสาหกรรมบันเทิงสามารถใช้ AI ได้ในโอกาสที่เหมาะสม แต่สิ่งที่ละเลยไม่ได้เลยคือ “ความโปร่งใส” 

“ทางที่ดีที่สุดคือต้องทำอย่างจริงจัง ต้องแสวงหาคำปรึกษา และ – อันนี้สำคัญที่สุด – คุณต้องเปิดเผยอย่างชัดเจนกับผู้ชมของคุณ” Rossi กล่าวสรุป ซึ่ง Porter ก็เห็นด้วยในประเด็นนี้ 

“ผมเคยทำงานที่สำนักข่าว ABC News และเจ้านายผมย้ำอยู่ตลอดว่า ถ้าสาธารณชนไม่ไว้ใจเราอีกต่อไป เราก็จบเห่” Porter กล่าว “ผมคิดว่าสารคดีก็อยู่ในจุดนี้เหมือนกัน ผมคิดว่าตอนนี้เราควรมาตั้งหลักแล้วคิดกันใหม่จริงๆจังๆว่า อะไรคือสารคดีกันแน่?” 

อ่านเพิ่มเติม

Doc Filmmakers Debate Growing Use of AI in Non-Fiction Projects: ‘We Are Supposed to Be the Truth’

Netflix doc accused of using AI to manipulate true crime story 


สรุปข่าวจริง ลวงประจำวันที่ 27 เมษายน 2567

นอนตะแคงเล่นมือถือ ทำให้สายตาเอียง…จริงหรือ?

อ่านต่อได้ที่  https://cofact.org/article/2fdzunb1q2ehe


ผลิตภัณฑ์ Firmax-3 เป็นครีมมหัศจรรย์ รักษาสารพัดโรค …จริงหรือ?

อ่านต่อได้ที่  https://cofact.org/article/2c4awgj030o0e


2 นาที คลายร้อนให้รถ เมื่อจอดรถตากแดดนานๆ…จริงหรือ?

อ่านต่อได้ที่  https://cofact.org/article/2bhumf2u8gw1e


กระดาษทิชชู ทำให้ไฟไหม้ในรถได้…จริงหรือ?

อ่านต่อได้ที่  https://cofact.org/article/kn69ligctjlj


   สั่งดำเนินการให้เครื่องครัว stainless เป็นสินค้าควบคุม 7 รายการ หวั่นโลหะหนักปนเปื้อน

อ่านต่อได้ที่  https://cofact.org/article/lshr6ml7wfel


  กรุงไทยช่วยข้าราชการกลุ่มเปราะบาง ปล่อยสินเชื่อรวมหนี้ข้าราชการ ยั่งยืน

อ่านต่อได้ที่  https://cofact.org/article/3vshmzyflkrfe


  เตรียมคืนเงินที่เหลือในบัตรสวัสดิการแห่งรัฐ เป็นเงินสดผ่านบัญชีพร้อมเพย์

อ่านต่อได้ที่  https://cofact.org/article/3udj8nlxjegma


เตือน ขับรถร้อน ๆ ระวังโดนสาดน้ำเย็น ทำกระจกรถแตกได้…จริงหรือ?

อ่านต่อได้ที่  https://cofact.org/article/paz3x3881nlx


“มะเร็งลำไส้” มะเร็งอันดับ 3 ของไทย …จริงหรือ?

อ่านต่อได้ที่  https://cofact.org/article/2fi5dascc1tvv


กสทช. ย้ำ เครื่องหมาย + นำหน้าเบอร์โทร รู้ไว้…ให้ระวัง เป็นเบอร์ที่โทรจากต่างประเทศ…จริงหรือ?

อ่านต่อได้ที่  https://cofact.org/article/33f63eqzrf8op


จากศาสนาถึงวิทยาศาสตร์! ‘มีสติ-ตั้งคำถาม-ตรวจสอบข้อมูล’ หลักคิดป้องกันภัย ‘ข่าวลวง’

เมื่อเร็วๆ นี้ ภาคีโคแฟค (ประเทศไทย) ร่วมกับ สำนักงานกองทุนสนับสนุนการสร้างเสริมสุขภาพ (สสส.) กรุงเทพมหานคร (กทม.) และองค์กรต่างๆ ที่เกี่ยวข้อง เปิดวงเสวนา “การรับมือกับข้อมูลลวงทั้งมวล ด้วยมิติทางจิตวิญญาณ” ซึ่งเป็นส่วนหนึ่งของงานสัมมนาระดับชาติเนื่องในวันตรวจสอบข่าวลวงโลก 2567 (International Fact-Checking Day 2024)ภายใต้ธีมงาน “Cheapfakes สู่ Deepfakes: เตรียมรับมืออย่างไรให้เท่าทัน” ณ หอศิลปวัฒนธรรมแห่งกรุงเทพมหานคร พร้อมถ่ายทอดสดผ่านเพจเฟซบุ๊ก “Cofact โคแฟค” และช่องยูทูบ “Thai PBS”

พระมหานภันต์ สนฺติภทฺโท ผู้ช่วยเจ้าอาวาส วัดสระเกศราชวรมหาวิหาร และประธานกรรมการ มูลนิธิสถาบันการจัดการวิถีพุทธเพื่อสุขและสันติ (สกพ.) กล่าวว่า การรับมือข่าวลวง จะมีทั้งคนที่รู้และไม่รู้ ซึ่งคนที่ไม่รู้จะถูกกระทบ ดังนั้นต้องมี Mindfulness (การมีสติ) ซึ่งไม่ควรเป็นเรื่องของปัจเจกบุคคล แต่ควรเป็นเรื่องทั้งสังคม ดังนั้นจึงอนุโมทนากับโคแฟคที่สร้างชุมชนที่ทุกคนสามารถเป็นผู้ตรวจสอบความถูกต้องของข้อมูลได้

ทั้งนี้ ชีวิตของคนเรา คือ เสียงสะท้อนของสิ่งที่เราคิด พูด และทำ และเราล้วนอยู่ในห้องเสียงสะท้อน (Echo Chamber) ที่เรียกว่า สังคม ซึ่งมีวัฒนธรรม ศาสนา ความเชื่อ หลายอย่างที่ทำให้เราคิด-เราพูด แล้วก็สะท้อนกลับมาที่ตัวเรา สิ่งที่ควรทำ คือ การทำลายห้องเสียงสะท้อนที่ทำให้เราคิดและเชื่อไปทางเดียวกันโดยไม่ได้ฟังความต่างเพราะสภาวะดังกล่าวจะทำให้ข่าวลวงหรือข้อมูลที่ไม่เป็นจริงได้ผล และสุดท้ายก็จะทำลายเรา

“บางทีข่าวลวงไม่ได้ทำลายเฉพาะปัจเจกบุคคลที่เชื่อว่า มะนาวโซดาช่วยแก้มะเร็งได้ แต่บางครั้งมันไปถึงการทำให้คนเชื้อชาตินี้ ศาสนานั้น คนภาคนั้นภาคนี้เกลียดกัน แล้วสุดท้ายก็ห้ำหั่นบีฑากัน ทั้งหมดนี้เกิดจากภาวะที่ทั้งตัวคนและตัวสังคมไม่มีกลไกในการรับรู้ต่อสู้กับข่าวลวง ฉะนั้นมุมของอาตมาที่อยากจะฝาก คือ พระพุทธเจ้าตรัสว่า สติ เตสัง นิวารณัง สติเป็นเครื่องมือที่จะปิดกั้นกระแสของกิเลส ความเชื่อความเข้าใจผิด ๆ ทิฐิที่ไม่ถูกต้อง ตลอดจนการประพฤติผิดทั้งทางการพูด การคิด การลงมือทำ ดังนั้นจึงใช้สติในการช่วยรับข้อมูลข่าวสาร ด้วยพุทโธ-รู้ว่าอะไรเป็นอะไร ตื่น-ทำในสิ่งที่ตัวเองรู้ และรับส่งข้อมูลด้วยความเบิกบาน” พระมหานภันต์ กล่าว

บาทหลวงอนุชา ไชยเดช ผู้อนวยการสื่อมวลชนคาทอลิกประเทศไทย กล่าวว่า ในศาสนาคริสต์มีคำสอนว่า เมื่อเราอยู่กับผู้คน เราต้องฟังด้วยหัวใจ” หมายถึง ไม่ใช่เพียงการฟังด้วยหู แต่ต้องแปลสารที่ได้รับฟังนั้นด้วยหัวใจของเรา ดังนั้นการอยู่ในสังคมที่มีทั้งข่าวจริงและข่าวลวง สิ่งแรกคือการเริ่มที่ตัวเรา ด้วยการฟังที่หัวใจและสัมผัสให้ได้ แล้วเวลาสื่อสารอย่าพยายามเป็นอีกคนหนึ่งที่เผยแพร่ข่าวลวงหรือข่าวที่ทำให้ไม่เกิดสันติสุข

“เราจะต้องมีโคแฟคอีกกี่หน่วยงานที่ลุกขึ้นมาต่อต้านความลวงโลก แต่ถ้าเรามีตัวตนของเราที่มี Wisdom (ปรีชาญาณ) ฟังด้วยหัวใจ เราอาจจะไม่นับถือใคร แต่อย่างน้อยนับถือตัวเองที่จะต้องสื่อสารที่ดี ศาสนาคริสต์จึงสอนให้รักเพื่อน-พี่น้อง เพราะฉะนั้นเราจึงปฏิบัติต่อพี่น้องด้วยสิ่งที่เราอยากให้เขาปฏิบัติต่อเรา” บาทหลวงอนุชา กล่าว 

อันธิกา เสมสรร ผู้แทนเครือข่ายสื่อมุสลิมเชียงใหม่ กล่าวว่า ในหลักคิดของศาสนาอิสลามมีโองการขององค์อัลเลาะห์ที่กล่าวไว้ว่า พระองค์ได้สร้างมนุษย์ด้วยรูปลักษณ์ที่สวยงามพร้อมกับให้สติปัญญาที่ดีสำหรับการไตร่ตรอง และเราเชื่อว่า ทุกการกระทำ คำพูด หรือแม้แต่ความคิดจะถูกบันทึกเสมอ ทั้งความดีและความชั่ว นอกจากนั้น ท่านศาสดายังมีคำสอนที่ว่า หากเราไม่สามารถพูดในสิ่งที่ดีได้ก็จงนิ่งเสีย นี่คือสิ่งที่มุสลิมทุกคนพึงตระหนัก

“สิ่งที่เราจะสื่อสารออกไป ในมุมของคนที่จะสร้างข่าวลวงหรือส่งต่อสิ่งที่เกิดความเสียหายกับคนอื่น ถ้าเราเชื่อในคำสั่งของพระผู้เป็นเจ้ากับคำสอนของท่านศาสดา มันก็จะช่วยให้เรายับยั้งตัวเราในการที่จะส่งต่อสิ่งที่ไม่ดี กับอีกอันหนึ่งที่เป็นโองการจากพระอัลเลาะห์ คือ ถ้ามีคนชั่วคนใดคนหนึ่งบอกกล่าวข่าวสารที่ไม่ดี แล้วเราไม่สอบสวน แล้วส่งต่อข่าวสารที่ไม่ดีนั้น จนเกิดความเสียหายกับคนอื่น นั่นคือ เราต้องรับผิดชอบเท่ากับคนที่ส่งต่อมาให้เรา เพราะพระองค์ให้สติปัญญามาแล้วหมายความว่า เมื่อเราได้รับข่าวสารมา เราจะต้องทำการตรวจสอบข้อมูลก่อน จึงจะส่งต่อข้อมูลนั้นไปให้ผู้อื่นได้” อันธิกา กล่าว

ธนิสรา เรืองเดช CEO และผู้ร่วมก่อตั้ง PUNCH UP กล่าวว่า งานที่ตนทำเกี่ยวข้องกับวิทยาศาสตร์ข้อมูล (Data Science) ซึ่งเมื่อมองข้อมูลข่าวสาร อย่างแรกที่มองคือ Pool of Resource หมายถึง ของที่มีอยู่ทั้งหมด ส่วนจะดี-ไม่ดี หรือจริง-ไม่จริงอย่างไรค่อยจำแนก ซึ่งเปรียบเทียบได้กับการเดินเข้าไปในซูเปอร์มาร์เก็ต การมีสินค้าให้เลือกจำนวนมากนั้นย่อมดีกว่าไม่มีอะไรให้เลือกเลย

ส่วนการนิยามคำว่า ความจริง-ความลวงเป็นสิ่งที่เราต้องถกเถียงกัน อย่างในมุมของวิทยาศาสตร์ก็ถกเถียงว่า ความจริงนั้นมีเพียงหนึ่งเดียวจริงหรือไม่? หรือเป็นเพียงความจริงเฉพาะ ณ เวลานั้น แต่เมื่อเวลาผ่านไป การมีเทคโนโลยีหรือวิธีวิจัยที่ดีขึ้น ก็อาจมีความจริงอีกชุดหนึ่งเกิดขึ้นได้ ในทางกลับกัน หลายครั้งความลวงก็ไม่ได้เกิดขึ้นโดยตั้งใจ แต่มาจากความไม่รู้หรือความเชื่อว่าเป็นแบบนั้น จึงสรุปออกมาเป็นหลักสำคัญ 4 ประการ คือ

1. มีสติในการรับรู้ (Mindfulness) หมายถึง เมื่อรับรู้หรือได้ข้อมูลอะไรมา อย่าเพิ่งจบเพียงตรงนั้นหรืออย่าเพิ่งเชื่อในทันที ควรใส่เครื่องหมายคำถามให้ตั้งคำถามกับข้อมูลนั้น เช่น มันเป็นแบบนั้นหรือไม่? มีทางอื่นอีกหรือเปล่า? หรือก็คือการคิดเชิงวิพากษ์ (Critical Thinking) 2. หาคำตอบ (Prove)อย่างในมุมของวิทยาศาสตร์ข้อมูล ก็ต้องไปเรียนรู้ว่ามีเครื่องมืออะไรบ้าง อย่างโคแฟคก็เป็นอีกเครื่องมือหนึ่งในการหาความรู้ของคนมารวมกัน ซึ่งไม่ได้หมายความว่า เสียงข้างมากคือความจริง แต่เป็นการหาความเป็นไปได้ รวมถึงทำให้เห็นว่าคนที่เชื่อในความจริงชุดอื่น ๆ เขามีเหตุผลเบื้องหลังอย่างไร 

3. สร้างการรู้เท่าทัน (Literacy) การแบ่งปันความรู้และการทำความเข้าใจกับกลไกการทำงานของสิ่งนั้นหรือกลลวงที่เกิดขึ้นเป็นอย่างไร เช่น เคยมีคนใกล้ตัวตกเป็นเหยื่อแก๊งคอลเซ็นเตอร์ สิ่งที่เขาทำได้คือ แชร์ประสบการณ์กับคนรอบข้างว่าไปทำอย่างไรถึงถูกหลอก ซึ่งการทำงานเรื่องความจริงความลวงก็เช่นเดียวกัน คือ การนิยามว่าอะไรคือความจริง-ความลวง หรือมีจุดประสงค์ที่ใช้เป็นอย่างไร 

และ 4.รู้เท่าทันอารมณ์ตนเอง (Emotional Awareness) สังเกตความรู้สึกของตนเอง

อย่าง “บางทีเรารู้ว่ามันอาจจะไม่ได้จริง 100% แต่เราอยากเชื่อ ทำไมเราถึงไปหาหมอดูคนเดิมทั้งๆ ที่เราไม่รู้ว่าแม่นหรือเปล่า แต่เราบอกเขาแม่นเพราะว่าเขาพูดในสิ่งที่เราอยากได้ยิน คิดว่าข้อมูลข่าวสารคล้าย ๆ กัน บางทีเราจมอยู่กับสิ่งที่เราอยากได้ยินมากกว่าสิ่งที่มาตั้งคำถามกับสิ่งที่เชื่อของเรา” ธนิสรา กล่าว

ธนกฤต ศรีวิลาศ เจ้าของช่อง The Principiaกล่าวว่า ในทางวิทยาศาสตร์มีการแบ่งชั้นข้อมูลเป็น 2 ระดับ คือ ข้อมูลปฐมภูมิ เป็นข้อมูลที่นักวิจัยลงพื้นที่ไปเก็บข้อมูลและศึกษาด้วยตนเอง เป็นข้อมูลที่มีความน่าเชื่อถือสูง กับ ข้อมูลทุติยภูมิเป็นการนำข้อมูลปฐมภูมิที่นักวิจัยทำไว้แล้วมาบอกเล่าต่อ ความน่าเชื่อถือก็อาจเชื่อไม่ค่อยได้ หรืออาจเชื่อถือได้หากมีหลักฐานอื่น ๆ มาสนับสนุน เช่น เปรียบเทียบจากผลการศึกษาหลายๆ ชิ้น

ดังนั้นเมื่อไปดูข้อมูลในสื่อสังคมออนไลน์ หลายครั้งเป็นข้อมูลที่ถูกส่งต่อกันมาหลายทอด ความน่าเชื่อถือก็อาจลดทอนลง อย่างไรก็ตาม แม้กระทั่งข้อมูลปฐมภูมิก็ใช่ว่าจะน่าเชื่อถือไปเสียทั้งหมดเช่น เคยมีนักวิจัยชาวญี่ปุ่นเคยเผยแพร่งานวิจัยที่อ้างว่าสามารถเปลี่ยนเซลล์ของหนูให้กลายเป็นสเต็มเซลล์ได้ แต่เมื่อนักวิจัยคนอื่น ๆ ลองนำวิธีการนั้นไปใช้กลับพบว่าไม่สามารถทำได้ จนเมื่อไปตรวจสอบย้อนหลังก็พบว่า งานวิจัยถูกตีพิมพ์ไปทั้งที่ไม่ใช่เรื่องจริง

จริง ๆ แล้ววิทยาศาสตร์หลักการของมันเลยคือเราจะต้อง Falsification ได้ หมายถึง เราจะต้องตรวจว่ามันผิดได้ ไม่ใช่ตรวจว่ามันถูก หมายถึง ถ้าเราดูข้อมูลแล้วเราพยายามจับผิดมันเพื่อหาข้อมูลว่ามันมีตรงไหนที่ผิดหรือเปล่า? หรือมันมีหลักฐานสนับสนุนครบถ้วนทุกส่วนเลย เพราะอย่างนี้มันถึงได้มีการต่อยอดงานวิจัยได้เรื่อย ๆ ว่าถ้าเกิดเจอช่องโหว่ของงานวิจัยก่อนหน้า เราก็จะทำการวิจัยต่อยอดจากงานวิจัยเดิม ๆ ได้ ในขณะเดียวกันการตรวจสอบข้อมูลจากหลาย ๆ แหล่งที่ตรงกันก็อาจนำไปสู่คำตอบที่น่าเชื่อถือได้ ธนกฤต กล่าว

-/-/-/-/-/-/-/-/-/-/-

วันตรวจสอบข่าวลวงโลกปี’67 ‘มิจฉาชีพออนไลน์’เรื่องใหญ่น่าห่วง ส่ออันตรายขึ้นในยุค‘Deepfake’

เมื่อเร็วๆนี้ ภาคีโคแฟค (ประเทศไทย) ร่วมกับ สำนักงานกองทุนสนับสนุนการสร้างเสริมสุขภาพ (สสส.) กรุงเทพมหานคร (กทม.) และองค์กรต่างๆ ที่เกี่ยวข้องได้จัดงานสัมมนาระดับชาติเนื่องในวันตรวจสอบข่าวลวงโลก 2567 (International Fact-Checking Day 2024) ภายใต้ธีมงาน “Cheapfakes สู่ Deepfakes: เตรียมรับมืออย่างไรให้เท่าทัน” ณ หอศิลปวัฒนธรรมแห่งกรุงเทพมหานคร พร้อมถ่ายทอดผ่านเพจเฟซบุ๊ก “Cofact โคแฟค” และช่องยูทูบ “Thai PBS”

รองศาสตราจารย์ ดร.ชัชชาติ สิทธิพันธุ์ ผู้ว่าราชการกรุงเทพมหานคร (กทม.) กล่าวว่า ข่าวลวงหรือข่าวปลอมก็เหมือนกับเชื้อโรค เช่น ในสถานการณ์การระบาดของไวรัสโควิด-19 สมมติมีคำถามว่าโควิดจะแก้อย่างไร ในช่วงแรกบอกว่าล้างมือให้สะอาดเพื่อฆ่าเชื้อโรค แต่จริง ๆ แล้วทำอย่างไรเชื้อโรคก็ไม่หมดเพราะมันมีเยอะมาก หรือสวมหน้ากากปิดปาก-จมูกเพื่อไม่ให้แพร่เชื้อไปสู่ผู้อื่น ก็เหมือนกับตัวเราไม่เป็นผู้แพร่กระจายข่าวปลอม แต่สุดท้ายก็ต้องฉีดวัคซีนสร้างภูมิต้านทาน

“ผมว่าภูมิต้านทานของคนสำคัญที่สุด ถ้าคนมีภูมิต้านทานโอกาสที่ข่าวปลอมมันจะทำร้ายเรา มันจะน้อยลง เราอาจจะไปไล่กำจัดข่าวปลอมไม่ได้หมดหรอก เพราะว่ามันมีเยอะเหมือนกับเชื้อโรค แต่สุดท้าย ถ้าคนมีภูมิต้านทานก็จะทำให้เราสามารถป้องกันเชื้อโรคร้ายได้” ผู้ว่าฯ กทม. กล่าว

นพ.พงศ์เทพ วงศ์วัชรไพบูลย์ ผู้จัดการกองทุน สสส. กล่าวว่า เวทีครั้งนี้เป็นการมาพูดคุยกันว่า จะทำอย่างไรให้ทุก ๆ คน เป็นผู้ตรวจสอบข่าวลวง ซึ่งในวันที่ 2 เมษายนของทุกปีเป็นวันตรวจสอบข่าวลวงของโลก โดยเลือกวันที่ต่อจากวันที่ 1 เมษายน ซึ่งเป็นวัน April Fool’s Day หรือวันข่าวลวงของโลก เพื่อตรวจสอบว่าเมื่อวันข่าวลวงผ่านพ้นไปมีข่าวลวงเรื่องใดผ่านเข้ามาบ้าง ทุกคนจึงต้องมาช่วยกันทำเรื่องนี้ โดยเฉพาะกรณีการหลอกลวงทางออนไลน์มิจฉาชีพจะมุ่งเจาะเป้าหมายทุกคนที่อ่อนแอ มีภูมิต้านทานข่าวลวงต่ำ ดังนั้นจึงจำเป็นต้องมารวมพลังกันเพื่อสร้างเกราะป้องกันจากข่าวลวง เพราะหากคนที่อ่อนแอหลาย ๆ คนมารวมกันก็จะเกิดความเข็มแข็งขึ้นมาได้

อย่างไรก็ตาม มีรายงานจาก Whoscall แอปพลิเคชั่นระบุตัวตนสายเรียกเข้าที่ไม่รู้จักและป้องกันสแปม พบว่า ประเทศไทยถูกหลอกลวงเป็นอันดับ 1 ในทวีปเอเชีย โดยแต่ละคนจะได้รับ SMS หลอกลวงเฉลี่ย 20 ข้อความต่อคนต่อปี และในปี 2566 อัตราการหลอกลวงเพิ่มขึ้นร้อยละ 18 หรืออยู่ที่ 79 ล้านครั้ง หมายความว่า มิจฉาชีพมีความพยายามหลอกลวงเอาทรัพย์สินจากเหยื่อให้ได้มากขึ้น ดังนั้นเราจึงต้องยิ่งรวมกลุ่มกันให้เข้มแข็งมากขึ้น ซึ่งตนเห็นว่า โคแฟคเป็นจุดตั้งต้น ขณะที่ สสส. ก็พยายามสนับสนุน แต่ทุกภาคส่วนต้องลุกขึ้นมาร่วมมือกัน ไม่ว่าจะเป็น ประชาชน มหาวิทยาลัย นักวิชาการ และภาคประชาสังคมต้องร่วมกันสร้างความเข้มแข็ง สร้างจิตอาสาเพื่อร่วมกันช่วยเหลือในการตรวจสอบข่าวลวง และช่วยป้องกันคนที่อาจจะอยู่ในความเสี่ยงในการรับข่าวสารต่าง ๆ เช่น กลุ่มผู้สูงอายุ กลุ่มผู้ที่อยู่ห่างไกลข้อมูล เป็นต้น

สสส. ได้ทำงานร่วมกับทีมโคแฟคตั้งแต่ปี 2563 และต้องขอบคุณอาจารย์หลาย ๆ ท่านที่ทำโครงการนี้ เพราะเครือข่ายที่สร้างขึ้นมานี้ ทำให้ สสส. ได้อาศัยเครือข่ายในการที่จะช่วยกันตรวจสอบข่าว  ซึ่งการมีส่วนร่วมดังกล่าวสำคัญอย่างยิ่ง นพ.พงศ์เทพ กล่าว

จากนั้นจึงเข้าสู่ช่วง Lightning Talks ในหัวข้อภาพรวมการตรวจสอบข้อมูลลวงในรอบปี 2566ประกอบด้วย วิทยากร 5 ท่านที่ร่วมให้มุมมอง ได้แก่ ศ.ดร.เจษฎา เด่นดวงบริพันธ์ อาจารย์ภาควิชาชีววิทยา คณะวิทยาศาสตร์ จุฬาลงกรณ์มหาวิทยาลัย และนักสื่อสารวิทยาศาสตร์ เจ้าของเพจ อ๋อ มันเป็นอย่างนี้นี่เอง by อาจารย์เจษฎ์เปิดเผยว่า สิ่งที่พบในรอบปีที่ผ่านมา คือ ข่าวปลอมที่พบและได้โพสต์อธิบายชี้แจง มากกว่าครึ่งเป็นเรื่องเดิม ที่ถูกแชร์วนซ้ำกลับมาใหม่ วนกลับมาทุกปีบ้าง หรือบางครั้งก็กลับมาแชร์ใหม่ในรอบ 10 ปี 

ขณะที่เนื้อหาข่าวลวงหรือข่าวปลอมที่พบได้บ่อยๆ คือ ข่าวที่เป็นเรื่องใกล้ตัว เช่น เรื่องสุขภาพ เพราะผู้พบเห็นจะเกิดความตกใจและอยากแชร์ต่อ แต่เนื้อหาที่สร้างผลกระทบต่อสังคมอย่างมาก คือ ข่าวปลอมประเภทแอบอ้างบริษัทที่มีชื่อเสียงเพื่อชักชวนให้ลงทุน เพราะเป็นเนื้อหาที่ทำให้ผู้หลงเชื่อสูญเสียทรัพย์สิน ซึ่งสังเกตว่า แพลตฟอร์มสื่อสังคมออนไลน์อย่างเฟซบุ๊ก นอกจากจะไม่ช่วยนำเนื้อหาทำนองนี้ออกจากระบบแล้วยังเหมือนกับสนับสนุนการเผยแพร่เสียด้วยซ้ำไป 

“พวกนี้มักจะเป็นโพสต์ที่มีสปอนเซอร์หมดเลย แม้จะช่วยกันรีพอร์ตอย่างไรมันก็ไม่ออกไป เป็นสถานการณ์ที่น่าห่วงในรอบปีที่ผ่านมา ตัวแพลตฟอร์มเองทำให้เราเจอข่าวปลอม ส่วนหนึ่งที่ใกล้ชิดประชาชนอาจจะไม่ได้อยู่ในโลกโซเชียล คือกลุ่ม SMS หลอกลวง คอลเซ็นเตอร์ต่าง ๆ พวกนี้ผลกระทบสูงมาก เฉพาะที่ผมเจอกับตัวเองแล้วเอาไปโพสต์ให้ดูว่าผมเจออย่างนี้ชาวบ้านเจอไหม? เจอกันทุกคน ข่าวปลอมที่น่าห่วงคือ เรื่องที่ทำให้สูญเสียทรัพย์สิน ในช่วงรอบปีที่ผ่านมาถือเป็นอันที่เด่นชัดและอันตรายมาก” รศ.ดร.เจษฎา กล่าว

นอกจากนี้ รศ.ดร.เจษฎา ยังให้ข้อมูลว่า แหล่งที่มาของข่าวปลอมที่มาจากผู้ที่ได้รับความน่าเชื่อถือในสังคม ไม่ว่าจะเป็น หมอ อาจารย์ หรือ อินฟลูเซอร์จากแพลตฟอร์มต่าง ๆ ถือเป็นสิ่งที่น่ากังวลไม่น้อย เช่น ข่าวต่อต้านดื่มนมที่มีที่มามาจากกลุ่มแพทย์ทางเลือกที่มีชื่อเสียงและศรัทธาในสังคม รวมทั้งข่าวปลอมที่สร้างขึ้นมาจากปัญญาประดิษฐ์ (AI) ที่คนยังไม่สามารถแยกแยะความจริงกับความลวงออกจากกันได้จากข่าวเหล่านั้นได้

 

ณัฐกร ปลอดดี ผู้ตรวจสอบข่าวประจภูมิภาคเอเชียแปซิฟิ สนักข่าว AFP กล่าวถึง การตรวจสอบข่าวลวง อย่าง ภาพที่ถูกดัดแปลงหรือถูกสร้างด้วยปัญญาประดิษฐ์แล้วเผยแพร่ออกไปหากเทียบระหว่างการโพสต์ภาพธรรมดา กับการโพสต์ภาพที่มาพร้อมกับคำบรรยาย หรือโพสต์ที่ถูกแชร์ออกไปโดยคนที่ทำงานสื่อ แบบใดจะส่งผลกระทบต่อสังคมมากกว่ากัน ดังนั้นสื่อจึงต้องทำหน้าที่เป็นผู้ตรวจสอบข้อเท็จจริง (Fact-checker) ที่มาของข้อมูล และต้องคัดกรอง (Gatekeeper) ระหว่างข้อมูลที่ดีกับข้อมูลที่ผิดพลาดคลาดเคลื่อน

“เมื่อสื่อกระแสหลักให้พื้นที่กับข้อมูลพวกนี้ เท่ากับเป็นการอนุญาตให้ข้อมูลชุดนี้ขึ้นไปสู่ Highway (ถนนสายหลัก) แล้วก็มีการแชร์กันต่ออย่างรวดเร็ว อีกประเด็นที่กลับมาอีกครั้งในปีนี้ ก็คือ ข้อมูลเท็จเกี่ยวกับวัคซีน อาจจะโยงไปถึงเรื่องทฤษฎีสมคบคิด และหากสื่อหลักโดยเฉพาะสื่อที่มียอดผู้ติดตามอย่างต่อเนื่องสูงๆ ให้พื้นที่กับข้อมูลเหล่านี้ จะยิ่งขยายไปอย่างเร็วเร็วมากและ Fact-check ที่ตามตรวจสอบ Viral (การแพร่กระจาย) ไม่เท่ากับตัวข้อมูลชุดที่ผิดแน่นอน” ณัฐกร กล่าว

ดร.สันติภาพ เพิ่มมงคลทรัพย์ รองผู้อนวยการศูนย์ต่อต้านข่าวปลอม กระทรวงดิจิทัลเพื่อเศรษฐกิจและสังคม กล่าวว่า ในช่วงแรกของการเปิดศูนย์ฯ ซึ่งอยู่ในช่วงที่มีสถานการณ์โควิด-19 ซึ่งมีข่าวปลอมที่เกี่ยวกับโควิดจำนวนมาก จากนั้นก็จะมีข่าวที่เกี่ยวกับอาหารเสริม แต่ปัจจุบันภัยที่เกิดขึ้น  มากไปกว่าข่าวปลอมแล้ว คือ การหลอกลวงทางออนไลน์หรือแก๊งคอลเซ็นเตอร์ ทำให้ระยะหลัง ๆ จะมีข้อมูลเหล่านี้เข้ามาให้ศูนย์ฯ ช่วยตรวจสอบมากขึ้น และส่วนใหญ่เป็นการแอบอ้างหน่วยงานภาครัฐ 

ส่วนใหญ่จะเป็นข่าวที่ส่งมาเป็น Link โดยที่มิจฉาชีพจะส่ง Link ไปให้กลุ่มเป้าหมายด้วยการอ้างว่ามาจากกรมที่ดิน เมื่อเป้าหมายเห็นแล้วอยากรู้ว่าใช่กรมที่ดินจริงหรือไม่ ก็กดเข้าไปดู แล้วก็พบว่า หน้าเว็บไซต์เหมือนเว็บจริงของกรมที่ดินแทบทุกอย่าง ต่างก็แต่เพียง URL ของ Link ที่ใช้เข้าไปดูเว็บไซต์เท่านั้น หรือเทคโนโลยีใหม่ ๆ เช่น แอปพลิเคชั่นแต่งภาพปรับหน้าตาของเราให้ดูดีขึ้นโดยไม่ต้องไปให้แพทย์ทำศัลยกรรม ทำให้เกิดกรณีภาพที่เห็นกับตัวจริงที่ได้พบเจอเหมือนเป็นคนละคน 

“ช่วงนี้ในการที่จะตัดต่อ แต่งเติม หรือเผยแพร่ข่าวสาร ทำได้ง่ายมาก ๆ มีคนไม่น้อยสามารถเป็นนักข่าวได้ เป็น Bubble Culture (วัฒนธรรมฟองสบู่) ที่ทุกคนแห่กันผลิตสื่อ อยู่ ๆ ผมอาจจะอุปโลกน์ขึ้นมาว่าเป็นหมอคนหนึ่ง ซึ่งไม่มีใครมาโชว์ใบรับรองคุณวุฒิวิชาชีพ และพูดเนื้อหาเกี่ยวกับสุขภาพแบบผิดๆ ถูกๆ เป็นเรื่องที่พึงระวังในยุคปัจจุบัน”สันติภาพ กล่าว

พีรพล อนุตรโสตถิ์ ผู้จัดการศูนย์ชัวร์ก่อนแชร์ สนักข่าวไทย อสมท. กล่าวว่า ปัจจุบันการทำงานของชัวร์ก่อนแชร์ล่วงเข้าสู่ปีที่ 10 แล้ว ตอนแรกที่เริ่มทำตั้งใจจะทำเพียง 10 ปี แต่วันนี้เห็นแล้วว่ายังมีอะไรต้องทำต่ออีกมาก จากความท้าทาย 3 ประการ คือ 1ปัญญาประดิษฐ์ (AI) ที่จะหลอกประสาทสัมผัสของเรา ทำให้แยกแยะสิ่งต่าง ๆ ได้ยากขึ้น 2ข้อมูลเก่ากลับมาแชร์วนซ้ำบนแพลตฟอร์มใหม่ ข่าวลวงหลายเรื่องเกิดมาตั้งแต่ยุคฟอร์เวิร์ดเมล ก่อนแปลงเข้าสู่สื่อสังคมออนไลน์ ล่าสุดนำไปแชร์กันในแพลตฟอร์ม TikTok และอนาคตก็อาจไปต่อที่แพลตฟอร์มอื่น ๆ อีก และ 3การหลอกลวงสามารถแปลงเป็นเงินได้ ขณะที่แพลตฟอร์มดูเหมือนจะกลายเป็นเครื่องมือของมิจฉาชีพ

“หลายแพลตฟอร์มกลายเป็นเครื่องมือของมิจฉาชีพ ซึ่งเป็นสิ่งที่น่ากังวลมาก ถ้าเราเห็นคำว่า ‘ได้รับการสนับสนุน’ บนโพสต์เมื่อไหร่ อันดับแรกคิดไว้ก่อนว่าหลอกหรือเปล่า? เพราะคนร้ายใช้เรื่องนี้ในการหลอกลวงเราเยอะมาก” พีรพล กล่าวสิ่งสำคัญที่สุดของ Fact-checker คือ การสร้างความรู้ ความเข้าใจในการเท่าทันสื่อให้แก่ทุก ๆ คน เพื่อไม่ให้ตนเองตกเป็นเหยื่อ

สุภิญญา กลางณรงค์ ผู้ร่วมก่อตั้งภาคีโคแฟค (ประเทศไทย) กล่าวว่า โคแฟคทำงานมาจนถึงปัจจุบันซึ่งเป็นปีที่ 5 แล้ว โดยในช่วง 2-3 ปีแรกที่เริ่มทำงานตรงกับสถานการณ์โรคระบาดโควิด-19 ดังนั้นข่าวลวงที่ได้ตรวจสอบบ่อย ๆ ก็จะเป็นเรื่องเกี่ยวกับสุขภาพ เช่น เรื่องโควิด เรื่องวัคซีน กระทั่งในปี 2566 ที่ผ่านมา ข้อมูลจำนวนมากที่พบจะเป็นเรื่องการเมือง จนปัจจุบันที่ข้ามจาก Cheapfake มาเป็น Deepfake แม้เรื่องอย่างมะนาวโซดารักษามะเร็ง เรื่องทฤษฎีสมคบคิด เรื่องการเมือง หรือเรื่องศาสนาที่ทำให้เกิดความขัดแย้งเกลียดชังกันจะยังคงมีอยู่ประปราย 

แต่โจทย์ที่ยากขึ้น คือ การหลอกลวงของมิจฉาชีพ ซึ่งตามสถิติของ Whoscall ในปีที่ผ่านมา ประเทศไทยขึ้นอันดับ 1 ของเอเชียในการที่ถูกหลอก ทำให้โคแฟคมีโจทย์ที่ซับซ้อนขึ้น อย่างปัจจุบันที่โคแฟคมีไลน์แชทบอทให้คนเข้ามาถามข่าว-ตรวจสอบ ยังทันหรือไม่ในยุคของ Deepfakeจึงค่อนข้างกังวล อย่างไรก็ตาม โคแฟคยังคงยืนหยัดในการทำงาน 3 เรื่อง ก็คือ 

1.สร้างนวัตกรรมเครื่องมือในการตรวจสอบง่าย ๆ ให้กับพลเมือง ที่จะสามารถใช้เช็คได้ด้วยตนเอง ต่อมา 2การสร้างขยายเครือข่ายชุมชนที่เข้มแข็ง อย่างทุกคนที่มาร่วมงานในครั้งนี้ และ 3) งานแคมเปญเชิงนโยบาย อย่างในปี 2567 นี้เราอาจต้องทำงานกับหลายภาคส่วนมากขึ้น เช่น กสทช. ตำรวจ ธนาคารแห่งประเทศไทย องค์กรผู้บริโภค เพื่อรับมือกับ Deepfake ซึ่งไม่ว่าจะเป็น Deepfake หรือ Cheapfake ล้วนมาจากปัญหาเดียวกันคือ การตั้งใจใช้ข้อมูลเพื่อหลอกลวงผู้อื่น

Cheapfake ก็คือ การหลอกลวงกันแบบง่าย ๆ โทร.มาหลอก ขนาดใช้ Cheapfake ยังเสียหาย 3 หมื่นกว่าล้านบาท ถ้า Deepfake จะเป็นเท่าไหร่?เป็นเรื่องที่เราต้องช่วยกันคิดในการรับมือ สุภิญญา กล่าว

นอกจากนี้ ภายในงานยังมีวงเสวนาอีก 2 หัวข้อ คือ “จากชีพเฟคถึงดีพเฟค การตรวจสอบรู้เท่าทันยังเพียงพอหรือไม่” ประกอบด้วยผู้ร่วมเสวนา ดังนี้ภิญโญ ตรีเพชราภรณ์ ผู้อำนวยการฝ่ายบริหารความเสี่ยงภาพรวม ธนาคารแห่งประเทศไทย (ธปท.), ฐิตินันท์ สุทธินราพรรณ ผู้อำนวยการฝ่ายการตลาดประจำภูมิภาคเอเชียตะวันออกเฉียงใต้ บริษัท Gogolook และ Whoscall, จีรพงษ์ ประเสริฐพลกรัง เลขาธิการสมาคมนักข่าวนักหนังสือพิมพ์แห่งประเทศไทย, จิรพร วิทยศักดิ์พันธุ์ ประธานคณะกรรมการบริหารแผนคณะที่ 8 สสส., มาซาโต กาจิโมโต ศาสตราจารย์ประจำศูนย์วารสารศาสตร์และสื่อศึกษา มหาวิทยาลัยฮ่องกง และเฟธ เฉิน ตัวแทนจาก APAC News Partnerships, Google News Initiative (GNI)

และหัวข้อ การรับมือกับข้อมูลลวงทั้งมวล ด้วยมิติทางจิตวิญญาณ ประกอบด้วยผู้ร่วมเสวนา ดังนี้พระมหานภันต์ สนฺติภทฺโท ผู้ช่วยเจ้าอาวาส วัดสระเกศราชวรมหาวิหาร และประธานกรรมการ มูลนิธิสถาบันการจัดการวิถีพุทธเพื่อสุขและสันติ (สกพ.), บาทหลวงอนุชา ไชยเดช ผู้อำนวยการสื่อมวลชนคาทอลิกประเทศไทย, อันธิกา เสมสรร ผู้แทนเครือข่ายสื่อมุสลิมเชียงใหม่, ธนิสรา เรืองเดช CEO และผู้ร่วมก่อตั้ง PUNCH UP และธนกฤต ศรีวิลาศ เจ้าของช่อง The Principia

-/-/-/-/-/-/-/-/-/-/-

วงเสวนา ‘Deepfake-Cheapfake’ แนะวิธีป้องกันการถูกหลอก-หวังเป็นสำนึกร่วมของสังคม

เมื่อเร็วๆ นี้ เภาคีโคแฟค (ประเทศไทย) ร่วมกับ สำนักงานกองทุนสนับสนุนการสร้างเสริมสุขภาพ (สสส.) กรุงเทพมหานคร (กทม.) และองค์กรที่เกี่ยวข้องต่าง ๆ เปิดวงเสวนา “จาก ‘ชีพเฟค’ ถึง ‘ดีพเฟค’ การตรวจสอบรู้เท่าทันยังเพียงพอหรือไม่” ซึ่งเป็นส่วนหนึ่งของงานสัมมนาระดับชาติเนื่องในวันตรวจสอบข่าวลวงโลก 2567 (International Fact-Checking Day 2024) ภายใต้ธีมงาน “Cheapfakes สู่ Deepfakes: เตรียมรับมืออย่างไรให้เท่าทัน” ณ หอศิลปวัฒนธรรมแห่งกรุงเทพมหานคร พร้อมถ่ายทอดผ่านเพจเฟซบุ๊ก “Cofact โคแฟค” และช่องยูทูบ “Thai PBS”

ภิญโญ ตรีเพชราภรณ์ ผู้อนวยการฝ่ายบริหารความเสี่ยงภาพรวม ธนาคารแห่งประเทศไทย (ธปท.) กล่าวว่า ความหมายของคำว่า ชีพเฟค (Cheapfake) ก็ตรงตามชื่อคือ การหลอกลวงด้วยวิธีง่าย ๆ และมีมาอย่างยาวนาน เช่น การตัดต่อภาพบุคคลมีชื่อเสียงเพื่อเอาไปใช้แอบอ้างว่าเป็นบุคคลนั้น หรือการตัดต่อคลิปวีดีโอแบบไม่ซับซ้อน อย่าง การทำภาพหน้าคนให้ขยับเฉพาะส่วนปากเท่านั้นจึงทำให้การสังเกตการหลอกลวงแบบชีพเฟคสามารถทำได้ง่าย เพราะจะไม่ค่อยเหมือนของจริงและใช้เพียงเทคโนโลยีพื้นฐานที่ทำขึ้นได้อย่างง่าย 

ในขณะที่ ดีพเฟค (Deepfake) เป็นการใช้เทคโนโลยีสมัยใหม่และต้องมีการศึกษาโดยละเอียด เช่น ปัญญาประดิษฐ์ (AI) ที่ทำให้เนื้อหาที่ผลิตออกมา ทั้งภาพ เสียง หรือคลิปวิดีโอมีความคล้ายกับของจริงหรือบุคคลนั้นมากขึ้น แต่การใช้เทคโนโลยีดีพเฟคเพื่อการหลอกลวงยังจำกัดอยู่ที่การใช้บุคคลที่มีชื่อเสียงเพื่อแอบอ้างในการสวมรอย จึงทำให้บุคคลมีชื่อเสียงที่ปรากฏตัวในสื่อบ่อย ๆ ถูกมิจฉาชีพนำไปใช้หลอกลวงได้ง่าย

ถ้าเราเจอลักษณะนี้จะมีมุมมองในการสังเกตหรือเป้องกันได้อย่างไร? ให้เข้าใจแบบง่าย ๆ คือเทคโนโลยีมีอยู่จริง แต่ว่ามันก็ไม่ได้เหมือน 100อันดับแรกให้ดูก่อนว่า คนที่พูดมีลักษณะการพูดอย่างไร ถึงแม้จะป็นดีพเฟค มันก็จะมีลักษณะจุดบกพร่องให้เห็น คือ ต้องบอกว่าถ้าจะทำให้เหมือนจริง ๆ เทคโนโลยีต้องเป็นระดับองค์กรขนาดใหญ่ที่มีเทคโนโลยี Processer (ประมวลผล) ระดับสูง แต่ถ้าเป็นมิจฉาชีพอาจจะมีส่วนที่ไม่ได้เหมือนจริงบ้าง จึงควรดูเรื่องของการขยับปาก พูดคำที่ไม่ตรงกัน เป็นอย่างแรก

แต่ถ้าเราสังเกตตรงนี้ไม่ได้ เราต้องเริ่มใช้วิจารณญาณตัวเองเพิ่ม ด้วยการดูที่เนื้อหาว่าลักษณะที่เขาหลอกลวงให้เราไปลงทุนด้วยเงินไม่กี่บาทได้ผลตอบแทนจำนวนมาก มันสมเหตุสมผลหรือเปล่า? ให้ปรึกษาคนข้าง ๆ อย่าฟังข้อมูลเพียงคนเดียว ให้ชวนคนอื่นมาฟังด้วย ให้ตั้งข้อสังเกตไว้ว่า เวลาคนเขามาหลอกเรา เขาจะพยายามให้เราอยู่คนเดียว ด่านสุดท้ายในการสังเกต คือ ถ้าเราเชื่อแล้วต้องโอนเงินให้เขา จังหวะที่จะโอนเงินให้ดูชื่อบัญชีนิดหนึ่ง ถ้าชื่อบัญชีไม่ตรงกับเจ้าของหน้า ขอให้ระวังไว้เลยว่าอาจไม่ใช่ตัวจริง เพราะส่วนใหญ่โจรที่หลอกให้เราโอนเงินเพื่อไปลงทุน เขาจะใช้บัญชีม้า” ภิญโญ กล่าว

มาซาโต กาจิโมโต ศาสตราจารย์ประจำศูนย์วารสารศาสตร์และสื่อศึกษา มหาวิทยาลัยฮ่องกงได้เพิ่มเติมข้อน่ากังวลไว้ว่า ความก้าวหน้าทางเทคโนโยลีและการพัฒนาเทคโนโลยีที่ใช้ทุนน้อยลงทำให้เส้นแบ่งระหว่างชีพเฟคและดีพเฟคเกิดความเบลอมากขึ้นเรื่อย ๆ เช่น การเปิดเผยข้อมูลจาก OpenAI ที่ว่า ตอนนี้มีเทคโนโลยีที่สามารถใช้เสียงต้นแบบแปลงเป็นภาษาต่าง ๆ ได้  

ทั้งนี้ ตามสถิติความเสียหายที่เกิดขึ้น พบว่า ปริมาณหรือจำนวนผู้เสียหาย อันดับ 1 คือ การหลอกลวงเกี่ยวกับการซื้อ-ขายสินค้าทางออนไลน์ ประเภทซื้อของแต่ไม่ได้ของ แต่หากดูจากมูลค่าความเสียหาย อันดับ 1 จะเป็นการหลอกลวงให้ลงทุน ซึ่งหากติดตามข่าวจะพบว่า ในระยะหลัง ๆ มิจฉาชีพใช้วิธีปลอมแปลงใบหน้าของผู้มีชื่อเสียง หรือการทำคลิปเสียงหรือคลิปวีดีโอที่เหมือนกับว่าคนคนนั้นเป็นผู้พูดจริง ๆ เพื่อชักชวนให้เข้าร่วมลงทุน ทำให้มีผู้หลงเชื่อที่นำไปสู่การถูกหลอกให้เสียเงินไปจำนวนมาก

เฟธ เฉิน ตัวแทนจาก APAC News Partnerships, Google News Initiative (GNI) เห็นด้วยกับสามหลักการในการตรวจสอบความเป็นดีพเฟคเบื้องต้นที่ให้พิจารณาดูลักษณะรูปภาพ, วิธีการพูด ดูเนื้อหาว่าเนื้อหาหลอกลวงไหม และดูบัญชีการเงินว่าเป็นของเจ้าตัวจริง ๆ หรือไม่ โดยสามารถใช้ประโยชน์จากทาง Google Search ในการเข้าไปสืบค้นข้อมูลหรือการส่งข้อมูลกลับให้กูเกิล เพื่อสร้างเป็นฐานความรู้ให้คนอื่น ๆ ต่อไป

ฐิตินันท์ สุทธินราพรรณ ผู้อนวยการฝ่ายการตลาดประจภูมิภาคเอเชียตะวันออกเฉียงใต้ บริษัท Gogolook และ Whoscall กล่าวว่า ตัวอย่างของการหลอกลวงแบบชีพเฟค เช่น มิจฉาชีพโทรศัพท์มาหลอกให้เปลี่ยนแพลตฟอร์มการติดต่อจากการโทรศัพท์พูดคุยไปเป็นแอปพลิเคชันไลน์ เพื่อให้สามารถวีดีโอคอลได้ การพูดคุยแบบวีดีโอคอลจะเห็นภาพของอีกฝ่ายเป็นตำรวจ ถึงแม้จะขยับเพียงริมฝีปาก แต่กลับทำให้มีผู้ตกเป็นเหยื่อได้จำนวนไม่น้อย 

โดยมิจฉาชีพจะเล่นกับอารมณ์คนอยู่ 3 แบบ คือ 1) ความกลัว เช่น การหลอกว่าเป็นเจ้าหน้าที่รัฐ หรือหลอกว่าเป็นคนใกล้ตัวที่กำลังเดือดร้อน อาทิ อ้างเป็นลูกที่ไปเกิดอุบัติเหตุรถชนแล้วขอให้แม่โอนเงินช่วยเหลือ 2) ความโลภ ลักษณะที่เห็นได้บ่อย ๆ คือข้อความประเภท “ยินดีด้วยคุณได้รับรางวัล” คือใช้ความโลภของเรามาหลอกเรา และ 3) ความรัก คือการหลอกให้รักแล้วชักชวนให้ลงทุน (Romance Scam) ส่วน Deepfake หรือ Cheapfake เป็นเทคโนโลยีที่ถูกนำมาใช้ประโยชน์เพื่อตอบโจทย์ 3 อารมณ์ดังกล่าวที่นำไปสู่การถูกหลอกลวง ซึ่งถือว่าน่ากลัวทั้งคู่

มิจฉาชีพสามารถเข้าไปในกูเกิลและค้นหา How to turn the image into Video (ทำอย่างไรเปลี่ยนรูปให้กลายเป็นคนพูดได้) ได้อย่างง่ายดายจึงทำให้ชีพเฟคน่ากลัวมาก เพราะสามารถนำมาใช้ได้กคน      ส่วนในขอดีพเฟคต่อไปจะถูกพัฒนาขึ้นเรื่อย ๆ จนทำให้ทุกคนสามารถใช้ได้ อย่างที่เราเริ่มเห็นการเอามาใช้งานจริงที่ต่างประเทศเมื่อ 2 เดือนที่แล้ว 

นั่นคือ การสร้างเป็นวีดีโอคอลของบริษัทหนึ่งที่ฮ่องกง โดยใช้วีดีโอคอลหลอกเป็น CFO (ผู้อำนวยการฝ่ายบัญชีและการเงิน) แล้วอนุมัติเงินออกไป 25 ล้านดอลลาร์ ในกรณีนี้จะเห็นว่า พอกลายเป็นดีพเฟค มิจฉาชีพเพียงแค่ลงทุนเพิ่มขึ้นนิดหนึ่ง แต่ผลกำไรกลับทวีมหาศาล ดังนั้นจึงเห็นได้ว่า ทั้งชีพเฟคและดีพเฟคต่างก็น่ากลัวทั้งคู่ ขึ้นอยู่กับว่ามิจฉาชีพจะใช้วิธีหลอกทีละเล็กทีละน้อย หลอกคนไปเรื่อย ๆ หรือหลอกทีหนึ่งเป็นหลอกองค์กรใหญ่เลย” ฐิตินันท์ กล่าว

จีรพงษ์ ประเสริฐพลกรัง เลขาธิการสมาคมนักข่าวนักหนังสือพิมพ์แห่งประเทศไทย กล่าวว่า การทำสื่อในปัจจุบันปรับเปลี่ยนมาทางแพลตฟอร์มออนไลน์มากขึ้น หลายคนออกจากอุตสาหกรรมสื่อไปเปิดเพจหรือเว็บไซต์ของตนเอง แต่องค์ความรู้กลับไม่ได้ตามไปด้วย ซึ่งเมื่อนักข่าวไม่มีความรู้ก็อาจส่งผลกับผู้ที่ติดตามสื่อนั้นด้วย ยกตัวอย่างที่ตนไปร่วมงานสัมมนาในเวทีหนึ่ง มีกรณีศึกษาภาพไดคัทหน้าคนร้องไห้และภาพบ้านพัง พร้อมคำบรรยาย สิ้นเนื้อประดาตัว และภาพนี้ทำให้นักข่าวถูกตำหนิว่าทำไมไม่ให้ความช่วยเหลือ ซึ่งแสดงให้เห็นว่า บางครั้งทั้งคนทำข่าวและคนติดตามข่าวต่างก็ไม่มีความรู้ในการรับสาร

ทั้งนี้ เพื่อขจัดปัญหาการไม่มีความรู้ในเรื่องชีพเฟคจึงทำให้วงการข่าวได้พยายามเติมความรู้ต่างๆ ในวงเล็ก ๆ ที่ไม่ได้ขยายกว้างในทันทีก่อนในช่วงแรก ส่วนดีพเฟคที่อาจยังไม่เกิดขึ้นในวงกว้างมากนักก็ได้มีการพูดคุยกันภายในองค์กรสื่อ เนื่องจากเห็นนวัตกรรม อย่าง การสร้างภาพใบหน้าและเสียงที่จำลองจากบุคคลที่มีชื่อเสียง ซึ่งหากเกิดขึ้นเป็นข่าวในช่วงที่กำลังมีสถานการณ์แหลมคมหรืออ่อนไหว ไม่ว่าจะเป็น การเมือง เศรษฐกิจ หรือสุขภาพ หากเทคโนโลยีถูกนำไปใช้โดยทำภาพและเสียงเลียนแบบผู้ประกาศข่าวสักคนหนึ่งออกมา นี่คือการส่งสัญญาณว่าผู้รับสื่อต้องมีวิจารณญาณมากขึ้น

“จากที่ไปอบรมในบางหน่วยงาน เช่น สำนักงานความมั่นคงปลอดภัยไซเบอร์ ทำให้นักข่าวเผยแพร่เรื่องนี้ให้ประชาชนรู้ว่า เวลามิจฉาชีพโทรศัพท์ หรือไลน์มา อย่าเปิดกล้องนะ เพราะจะถูก Generate (สร้าง) หน้าเราไปได้ ยิ่งตอบโต้นาน หน้าไปด้วยเสียงไปด้วย หน้าเราจะถูกปลอมเป็นมิจฉาชีพ หรือพฤติกรรมการแชทในเฟซบุ๊ก เขา Inbox มาแล้วเราตอบ ๆ ไป มิจฉาชีพจะจำพฤติกรรมการตอบของเราเพื่อไปหลอกลวงญาติหรือเพื่อนของเราต่อ ผมมองว่า ในวงการสื่ออาจจะไม่รู้เรื่องดังกล่าวอย่างทั่วถึง หากองค์กรไหนจะมาเพิ่มพูนทักษะความรู้ให้กับนักข่าว เพื่อให้รู้ทันและบอกสังคมต่อได้จะเป็นสิ่งที่ดีมาก ” จีรพงษ์ กล่าว

จิรพร วิทยศักดิ์พันธุ์ ประธานคณะกรรมการบริหารแผนคณะที่ 8 สสส. กล่าวว่า หลายครั้งที่มีคำถามว่า “คนที่ตกเป็นเหยื่อมิจฉาชีพเชื่อในสิ่งที่มิจฉาชีพนำมาใช้หลอกลวงได้อย่างไร?” หากเป็นดีพเฟคอาจหมายถึง ความกลัว ความรักหรือความโลภ แต่หากเป็นชีพเฟค คือ เข้าได้กับทุกอย่าง ทั้งความโลภ อยากรวย หรือความอยากสวย-อยากหายป่วย หรืออะไรก็ตามที่จะช่วยทำให้ปัญหาปัจจุบันของตนเองลดลง 

ดังนั้น ไม่ว่าจะเป็นดีพเฟคหรือชีพเฟค คนก็พร้อมกระโจนเข้าไป เพราะมันตอบโจทย์ความต้องการของมนุษย์ปุถุชน ที่ต้องการให้มีเวทมนต์ (Magic) อะไรสักอย่างหนึ่งมาทำให้ปัญหาของตนเองคลี่คลาย เช่น ป่วยแล้วไม่มีเงินหรือไม่มีเวลาไปหาหมอ แต่ไปเจอโฆษณาว่า กินสิ่งนั้นสิ่งนี้แล้วสามารถรักษาโรคภัยไข้เจ็บที่เป็นอยู่ได้ ก็จะมีคนที่คิดว่าลองดูก็ไม่เสียหายอยู่เป็นจำนวนไม่น้อย และคนจำนวนนี้ก็จะตกเป็นเหยื่อได้อย่างง่ายดาย

ทั้งนี้ สิ่งที่โคแฟคและภาคีเครือข่ายทำนั้นเป็นสิ่งที่ดีและช่วยเหลือสังคมได้มาก แต่หากมองว่า ความรู้เท่าทันสื่อเป็นความรู้และทักษะ ก็ต้องบอกว่ายังไม่เพียงพอ เพราะความรู้ที่กระจายไปต้องไปถึงคนที่อยากรู้ด้วย และเมื่อคนคนนั้นเปิดรับความรู้ก็จะกลายเป็นทักษะติดตัว แต่ถึงกระนั้นก็ไม่ได้กลายเป็นสิ่งที่ช่วยเหลือเกื้อกูลกัน อย่างครอบครัวไหนที่มีสมาชิกมีความรู้เรื่องนี้ก็อาจรอด สามารถเตือนผู้สูงอายุในบ้านได้ว่าให้รอก่อนอย่าเพิ่งตัดสินใจ ดังนั้นสิ่งที่ภาคประชาสังคมต้องช่วยกัน คือ การทำให้ความรู้และทักษะนี้กลายเป็นจิตสำนึกหรือสำนึกของพลเมือง

อยากมองเป็น 2 ระดับ สำนึกพลเมืองในระดับแรกก็คือ สำนึกในเชิงสิทธิที่จะได้ข้อมูลที่ถูกต้อง ดังนั้นมันจะต้องเกิดกระแสที่เรียกร้องข้อมูลและข้อเท็จจริงที่ถูกต้อง แล้วก็ต้องพยายามลดข่าวลวง ข่าวปลอม  โดยต้องสร้างกระแสเรียกร้อง ไม่ใช่แค่ภาครัฐ แต่ภาคที่เกี่ยวข้อง เช่น สื่อมวลชน ภาคธุรกิจ โฆษณาหลอกลวง ไม่ใช่เพียงรับรู้แล้วไม่ทำอะไร  แต่ต้องสร้างให้มีสำนึกสาธารณะ ไม่ใช่แค่ปกป้องสิทธิของตัวฉัน แต่ปกป้องสิทธิของสังคม ของชุมชน ของท้องถิ่น ของประเทศชาติด้วย จิรพร กล่าว

-/-/-/-/-/-/-/-/-/-/-

Cheapfakes VS Deepfakes: จาก “มะนาวโซดารักษามะเร็ง” สู่ “AI ปลอมเสียง“ พัฒนาการกลโกงออนไลน์ ภัยร้ายจากมิจฉาชีพ

เฝ้าระวัง ‘อย่าเพิ่งเชื่อ’ ร่วมกับภาคีโคแฟค สร้างโมเดลการรู้เท่าทันข้อมูลยุคดีฟเฟค 

ไฮไลต์

ชีปเฟก (cheapfakes) คือการหลอกลวงหรือบิดเบือนข้อมูลด้วยวิธีการง่าย ๆ ไม่ซับซ้อน เช่น ภาพตัดต่อ

• ดีปเฟก (deepfakes) คือการหลอกลวงหรือบิดเบือนข้อมูลโดยใช้เทคโนโลยีที่ซับซ้อน เช่น ใช้ AI ในการปลอมใบหน้าบุคคล ปลอมเสียง 

• ทั้งชีปเฟกและดีปเฟกยังคงสร้างความเสียหายให้เศรษฐกิจไทย โดยคนไทยถูกหลอกด้วย ชีปเฟกมากกว่าและยังถูกหลอกจากจากสายโทรเข้าและส่งข้อความหลอกลวงมากเป็นอันดับ 1 ในเอเชีย

ท่ามกลางข้อมูลข่าวสารที่ถาโถมผ่านสื่อต่าง ๆ ในปัจจุบันโดยเฉพาะโซเชียลมีเดีย “ข่าวปลอม” หรือ “ข่าวลวง” นับเป็นภัยสังคมที่ทวีความรุนแรงมากขึ้นทุกวัน ทั้งในแง่ของปริมาณ รูปแบบการนำเสนอ และความซับซ้อนของเทคโนโลยีที่ใช้ สร้างความเสียหายให้กับเศรษฐกิจและสังคมอย่างมหาศาล งาน สัมมนาระดับชาติเนื่องในโอกาสวันตรวจสอบข่าวลวงโลก 2567 (International Fact-Checking Day 2024) ภายใต้หัวข้อ “Cheapfakes สู่ Deepfakes: เตรียมรับมืออย่างไรให้เท่าทัน” โดยสำนักงานกองทุนสนับสนุนการสร้างเสริมสุขภาพ (สสส.) ร่วมกับภาคีโคแฟค ประเทศไทย และกรุงเทพมหานคร (กทม.) ได้สร้างความตระหนักและความเข้าใจในอันตรายที่เกิดขึ้นจากข่าวลวง ตลอดจนนำเสนอวิธีการตรวจสอบความถูกต้องของข้อมูลบนโลกออนไลน์ก่อนส่งต่อเพื่อป้องกันความเสียหายต่อจิตใจและทรัพย์สิน

สุขภาพกับความกลัว…เรื่องใกล้ตัวที่มักโดนหลอก

 หมาล่าพิษ น้ำประปาคลอรีนเกินมาตรฐาน และมะนาวโซดารักษามะเร็ง คือตัวอย่างหนึ่งของข่าวลวงที่ผู้คนมักตกเป็นเหยื่อและแชร์ต่อในทันที ทั้งนี้ เนื่องจากเรื่องสุขภาพเป็นเรื่องใกล้ตัวที่สร้างความกังวลใจได้มากที่สุด ยิ่งเมื่อสื่อกระแสหลักหรือผู้มีอิทธิพลบนโซเชียลมีเดีย (อินฟลูเอนเซอร์) เป็นผู้เผยแพร่เนื้อหาดังกล่าวโดยปราศจากการตรวจสอบความถูกต้องของข้อมูล ข่าวลวงดังกล่าวจะยิ่งดูมีความน่าเชื่อถือมากยิ่งขึ้น 

จาก “หลอกให้เชื่อแล้วแชร์” สู่ “หลอกให้ซื้อ-โอน-กู้”

 เดิมที ข่าวลวงมักมีลักษณะ “พาดหัวยั่วให้คลิก” (clickbait) ซึ่งมีวัตถุประสงค์เพื่อหลอกให้เชื่อแล้วแชร์หรือมุ่งสร้างความเข้าใจผิดในลักษณะ “ให้ร้าย” (bully) บุคคล หน่วยงาน หรือผลิตภัณฑ์อย่างใดอย่างหนึ่งโดยใช้ “ชีปเฟก” (Cheapfakes) ซึ่งเป็นเทคโนโลยีที่ไม่ซับซ้อน เช่น ภาพตัดต่อ คลิปปลอม แต่ปัจจุบันพบว่าข่าวลวงมักมีเป้าหมายหลอกเอาข้อมูลส่วนบุคคล (phishing) เพื่อนำไปใช้ประโยชน์ในทางทุจริต ไม่ว่าจะเป็นการหลอกให้ซื้อสินค้า หลอกให้โอนหรือกู้เงิน ตลอดจนหลอกให้ลงทุน โดยใช้ “ดีปเฟก” (Deepfakes) หรือเทคโนโลยีที่มีความซับซ้อนเสมือนจริงยิ่งขึ้น อาทิ การใช้ปัญญาประดิษฐ์ (AI) ในการปลอมภาพและเสียง โดยยังคงอาศัยความกลัวเป็นปัจจัยหลักอย่างเช่น ปลอมเสียงของเจ้าหน้าที่รัฐโดยสามารถบอกข้อมูลของเหยื่อได้ถูกต้องครบถ้วนเพื่อหลอกให้กระทำการบางอย่าง เช่น ให้ข้าราชการเกษียณกดลิงก์หรือแจ้งข้อมูลส่วนตัวโดยหลอกว่าหากไม่ทำจะไม่ได้รับเงินบำนาญเข้าบัญชี หรือปลอมหมายเลขโทรเข้าด้วยหมายเลข 191 ซึ่งไม่ใช่หมายเลข 191 จริงแต่มักมีเครื่องหมายอย่าง +191  หรือ 191. และมีตำรวจ (ปลอม) หลอกให้โอนเงินเนื่องจากญาติของเหยื่อกำลังเดือดร้อน เป็นต้น

“โลภ-หลง-เหลื่อมล้ำ-ความหวัง” ปัจจัยที่ทำให้ยังเชื่อ

 แม้ว่าปัจจุบันจะมีความตระหนักในข่าวลวงมากขึ้นกว่าเดิม แต่ปัจจัยสำคัญที่ยังคงทำให้หลายคนตกเป็นเหยื่อคือธรรมชาติที่อยู่คู่กับมนุษย์มาโดยตลอดนั่นคือ ความโลภและความหลง ไม่ว่าจะเป็นสินค้าออนไลน์ราคาถูกเกินจริง การลงทุนที่ให้ผลตอบแทนสูงเหลือเชื่อ หรือหลอกให้รักในลักษณะ “พิศวาสอาชญากรรม” (Romance scam) ผ่านแอปหาคู่หรือโซเชียลมีเดียแล้วจึงลงมือปฏิบัติการหลอกซ้ำซ้อนให้โอนเงินหรือกระทำใด ๆ ที่สร้างความเสียหาย นอกจากนี้ ปัจจัยระดับชาติอย่างความเหลื่อมล้ำทางสังคม การไม่สามารถเข้าถึงบริการด้านสาธารณสุข ยังทำให้ข่าวลวงประเภทมะนาวโซดารักษามะเร็งได้ ยังคงมีคนเชื่ออยู่ด้วยความหวัง (ลม ๆ แล้ง ๆ) ว่าจะรักษาได้ รวมทั้งความคิดที่ว่าลองดูก็ไม่เสียหาย

ป้องกันภัยด้วยสุขอนามัยทางดิจิทัล 

วิธีที่ดีที่สุดที่จะไม่ตกเป็นเหยื่อของข่าวลวงคือ การสร้างสุขอนามัยทางดิจิทัล (Digital Hygiene) ให้กับตนเอง โดยฝึกเป็นคนช่างสังเกตอย่างเช่น สังเกตว่าภาพที่สร้างขึ้นจากเอไอมักมีความบกพร่องแฝงอยู่ ไม่ว่าจะเป็นอวัยวะต่าง ๆ อย่างมือ เท้า ปาก รอยต่อหน้าผากกับเส้นผมขาดความละเอียด ศีรษะไม่ขยับ ตาไม่กะพริบ ฯลฯ การจัดระเบียบการเก็บเงินในบัญชีธนาคารโดยแบ่งเป็น “กระเป๋าร้อน” ซึ่งเป็นบัญชีสำหรับหมุนเวียนหรือเก็บเงินเฉพาะที่จำเป็นต่อการใช้จ่ายและเชื่อมต่อกับอินเทอร์เน็ตเพื่อถอนใช้ได้สะดวก กับ “กระเป๋าเย็น” ซึ่งเป็นบัญชีเงินเก็บที่ไม่เชื่อมต่อกับอินเทอร์เน็ตและการเบิกถอนมีขั้นตอนยุ่งยาก เป็นต้น

รู้เท่าทันสื่อ…สำนึกพลเมือง สำนึกสาธารณะ สติ 

 นอกจากนี้ ในระยะยาว เรายังต้องสร้างภูมิคุ้มกันให้กับตนเอง โดยทุกคนต้องมีจิตสำนึกพลเมืองด้วยการตระหนักในสิทธิที่ได้รับข้อมูลและข้อเท็จจริงที่ถูกต้องของตนเอง ผ่านการเรียกร้องให้หน่วยงานทั้งภาครัฐและเอกชนที่เกี่ยวข้อง ตลอดจนสื่อมวลชนให้ร่วมกันรับผิดชอบต่อข้อมูลข่าวสารที่เผยแพร่ในปัจจุบันให้มากขึ้น อีกทั้งยังต้องมีจิตสำนึกสาธารณะช่วยกันเป็นหูเป็นตาและให้ความร่วมมือกับทุกฝ่ายในการตรวจสอบและไม่เผยแพร่ข่าวลวง โดยเฉพาะในขณะที่มิจฉาชีพไม่เคยหยุดพัฒนาวิธีการหลอกลวงและกระทำได้แยบยลมากขึ้นเรื่อย ๆ ผ่านแหล่งที่น่าเชื่อถืออย่างเช่น ข้อความ SMS จากธนาคาร จดหมายจากสถาบันการเงิน เป็นต้น ดังนั้น ภูมิคุ้มกันเบื้องต้นที่ดีที่สุดคือ สติ ที่จะช่วยให้เกิดการตื่นรู้ ไหวตัวทัน และไม่ตกเป็นเหยื่อ ตลอดจนตระหนักว่า อย่าเพิ่งเชื่อ อย่าแชร์ อย่าเพิ่งโอน และตรวจสอบแหล่งที่มาของข้อมูลอย่างเคร่งครัดเสียก่อน ก็จะสามารถป้องกันไม่ให้ตนเองตกเป็นเหยื่อของข่าวลวงและมิจฉาชีพได้


สรุปข่าวจริง ลวงประจำวันที่ 20 เมษายน 2567

กำไลลวดทองแดง รักษาสารพัดโรค…จริงหรือ?

อ่านต่อได้ที่  https://cofact.org/article/2wn6no87w0k5d


ภาพถ่ายของ “แพนด้า” ที่เดินทางในชั้นธุรกิจบนเที่ยวบิน…จริงหรือ?

อ่านต่อได้ที่  https://cofact.org/article/1w0bvrniimpgn


ธอส. ใช้เบอร์ 082-946-4808 โทรสอบถามเลขบัญชี เพื่อโอนเงินให้ 2,000 บาท…จริงหรือ?

อ่านต่อได้ที่  https://cofact.org/article/1sblgechnljta


ซื้อ-ขายข้าว ต้องผ่านรัฐเท่านั้น ฝ่าฝืนมีโทษ…จริงหรือ?

อ่านต่อได้ที่  https://cofact.org/article/216ysirzf6tri


  สาเหตุผู้โดยสารหมดสติ – อาเจียนในรถตู้ ขณะเดินทางช่วงสงกรานต์ คาดเกิดจากก๊าซคาร์บอนมอนนอกไซด์

อ่านต่อได้ที่  https://cofact.org/article/1nwexaaxt4342


  เงินพิเศษกลุ่มผู้พิการเลื่อนจ่ายเร็วขึ้น 19 เม.ย. 67

อ่านต่อได้ที่   https://cofact.org/article/i1oik3ut8c3z


  ไม่ควรโกนขน สุนัข สายพันธุ์ที่มีขน 2 ชั้น

อ่านต่อได้ที่  https://cofact.org/article/2mteqrtigf4ad


“มุ้งสู้ฝุ่น PM2.5″ สำหรับผู้ป่วยติดเตียง…จริงหรือ?

อ่านต่อได้ที่  https://cofact.org/article/1fpomhpiji790


ดีอี เตือน ระวังคนร้ายแอบอ้างเป็นศูนย์ 1441…จริงหรือ?

อ่านต่อได้ที่  https://cofact.org/article/3fdjexmue74t6


ข่าวลวง-คลิปเก่าระบาดทั่วเน็ต หลังอิหร่านโจมตีตอบโต้อิสราเอล COFACT Special Report 33/67

ระบบป้องกันทางอากาศของอิสราเอล สกัดขีปนาวุธและโดรนจากอิหร่าน ขณะมุ่งมายังเป้าหมายในประเทศอิสราเอล เมื่อวันที่ 13 เมษายน 2567 ภาพโดย Reuters

โดย ธีรนัย จารุวัสตร์

สมาชิก Cofact

ผู้เชี่ยวชาญพบคลิปและภาพเชิงบิดเบือนในโซเชียลมีเดียจำนวนมาก ขณะเหตุการณ์กองทัพอิหร่านยิงขีปนาวุธและโดรนนับร้อยลูกใส่อิสราเอลเมื่อช่วงสงกรานต์ที่ผ่านมา โดยส่วนใหญ่เผยแพร่โดยบรรดาบัญชีผู้ใช้ที่อ้างตัวเองว่าเป็น “แหล่งข่าว” น่าเชื่อถือ ที่มียอดผู้ติดตามรวมกันหลายล้านคน 

สถานการณ์ในภูมิภาคตะวันออกกลางขณะนี้ หากจะใช้สำนวนว่า “ความวัวไม่ทันหาย ความควายเข้ามาแทรก” ก็คงไม่ผิดนัก เมื่อสองชาติคู่อริไม้เบื่อไม้เมาตลอดกาล “อิหร่าน-อิสราเอล” กำลังเผชิญหน้ากันท่ามกลางความตึงเครียดในระดับที่ไม่เคยมีมาก่อน จนหลายฝ่ายกังวลว่าอาจจะบานปลายเป็นสงครามระลอกใหม่ในภูมิภาค

ชนวนเหตุการเผชิญหน้าครั้งนี้ เริ่มจากเหตุกองทัพอากาศอิสราเอลทิ้งระเบิดใส่สถานกงสุลอิหร่าน ณ กรุงดามัสกัส ประเทศซีเรีย เมื่อวันที่ 1 เมษายน คร่าชีวิตผู้คนกว่า 16 ราย มีทั้งเสนาธิการและเจ้าหน้าที่การทหารระดับสูงของอิหร่านจำนวนมาก และประชาชนที่ไม่เกี่ยวข้องอีก 2 ราย 

ต่อมาเมื่อกลางดึกของคืนวันที่ 13 เมษายน ถึงเช้ามืดวันที่ 14 เมษายน อิหร่านได้โต้ตอบการโจมตีดังกล่าว ด้วยการปล่อยขีปนาวุธและโดรนติดอาวุธกว่า 300 ลูก ไปยังอิสราเอล ซึ่งส่วนใหญ่ถูกสกัดโดยระบบป้องกันทางอากาศของอิสราเอลและชาติพันธมิตร ทั้งนี้ ถึงแม้จะไม่มีรายงานผู้เสียชีวิตจากการโจมตีของอิหร่าน แต่รัฐบาลอิสราเอลยืนยันว่าจะต้องโต้ตอบกลับไปยังอิหร่านอีกรอบเช่นกัน

ด้าน António Guterres เลขาธิการสหประชาชาติ ได้แถลงประณามทั้งเหตุโจมตีสถานกงสุลอิหร่านโดยอิสราเอล และประณามการโจมตีอิสราเอลโดยอิหร่าน พร้อมเรียกร้องให้ทุกฝ่ายช่วยกันใช้ความอดกลั้นต่อกัน ไม่ให้การเผชิญหน้ารุนแรงไปมากกว่านี้

ขณะเดียวกัน ข่าวสารเกี่ยวกับเหตุการณ์นี้ในโลกอินเทอร์เน็ต ยังได้มาพร้อมกับ “ข่าวบิดเบือน” ระลอกใหญ่ตามระเบียบ 

AI อาละวาดก่อนใครเพื่อน

กรณีแรกๆของข่าวบิดเบือนระลอกนี้ เริ่มต้นตั้งแต่ช่วงวันที่ 4 เมษายน หรือไม่กี่วันหลังกองทัพอิสราเอลเปิดฉากสังหารเจ้าหน้าที่อิหร่านคาสถานกงสุลในซีเรีย โดยผู้ใช้ทวิตเตอร์ (หรือที่เปลี่ยนชื่อเป็น “X”) จำนวนมาก สังเกตเห็นข่าวใหญ่ในแท็บ Explore ของทวิตเตอร์ พาดหัวว่า “อิหร่านยิงมิสไซล์ถล่มกรุงเทลอาวีฟ”  

ส่วนเนื้อหาข่าวระบุด้วยว่า การโจมตีของอิหร่านสร้างความเสียหายอย่างหนัก เกิดเพลิงไหม้ในอาคารบางแห่ง 

ข่าวดังกล่าวได้สร้างความสับสนอย่างมาก เพราะขณะนั้นไม่ได้มีการโจมตีจากอิหร่านแต่อย่างใด ประกอบกับผู้ใช้ทวิตเตอร์จำนวนมาก รีทวีตและเผยแพร่ข่าวนี้อย่างแพร่หลาย จนทำให้ข่าวการโจมตีจากอิหร่าน(ซึ่งไม่มีอยู่จริง)ติดอันดับข่าว trending ในเวลาอันรวดเร็ว ยิ่งสร้างความสับสนเข้าไปใหญ่

ต้นตนของข่าวบิดเบือนครั้งนี้มาจาก “Grok” ซึ่งเป็น AI chatbot ของทวิตเตอร์ ซึ่ง Elon Musk เจ้าของทวิตเตอร์ได้พยายามโหมโฆษณามาตลอดหลายเดือนว่าเป็น AI chatbot ที่มีประสิทธิภาพและน่าเชื่อถือ ผู้ใช้ทวิตเตอร์สามารถพูดคุยกับ Grok เพื่อติดตามข่าวสารต่างๆได้รวดเร็ว

แต่ปรากฎว่า Grok เกิดอาการ “หลอน” ขึ้นมากระทันหัน และประมวลข่าวโจมตีจากอิหร่านออกมาโดยไม่มีข้อเท็จจริงใดๆรองรับ แถมอัลกอริทึมเจ้ากรรมของทวิตเตอร์ ยังรีบดันข่าวนี้ของ Grok ให้คนจำนวนมากได้พบเห็น อันเป็นส่วนหนึ่งของความพยายามจากทีมผู้บริหารทวิตเตอร์ เพื่อเพิ่มยอดการมองเห็นของ Grok นั่นเอง

นับเป็นอีกหนึ่งอุทาหรณ์สอนใจว่าด้วยการใช้ AI ในโซเชียลมีเดีย ซึ่งมักมาพร้อมความเสี่ยงต่อความผิดพลาดของข้อมูล ดังที่เกิดขึ้นครั้งแล้วครั้งเล่า 

เรื่องเก่าเล่าใหม่

เมื่ออิหร่านเปิดฉากโจมตีตอบโต้อิสราเอลขึ้นมาจริงๆในวันที่ 13 เมษายน ข้อมูลข่าวสารบิดเบือนระลอกใหญ่ก็ถล่มโซเชียลมีเดียทันที โดยเฉพาะในทวิตเตอร์ ส่วนหนึ่งเป็นเพราะทวิตเตอร์มีบัญชีผู้ใช้จำนวนมากระบุว่าเป็นแหล่งข่าว “ข่าวกรองทางแหล่งข้อมูลเปิด” (Open source intelligence หรือ OSINT) 

บัญชีผู้ใช้เหล่านี้มักเผยแพร่ “ข่าวกรอง” ที่ได้มาจากประชาชนทั่วไปหรือข้อมูลที่รวบรวมจากสาธารณะ อย่างไรก็ตาม หลังอิหร่านโจมตีอิสราเอล บัญชีเหล่านี้กลับกลายเป็นตัวการเผยแพร่ภาพและคลิปบิดเบือนจำนวนมากเสียเอง ยกตัวอย่างเช่น 

  • คลิปวิดิโอที่ระบุว่า “ชาวอิสราเอลวิ่งหนีแตกตื่น ขณะอิหร่านยิงมิสไซล์ถล่มอิสราเอล” แท้จริงแล้ว เป็นคลิปแฟนเพลงรุมล้อมศิลปินชาวอังกฤษ Louis Tomlinson ที่กรุงบัวโนสไอเรส ประเทศอาร์เจนตินา
  • ภาพที่ระบุว่า “โดรนของอิหร่านบินไปไม่ถึงอิสราเอล เพราะเกี่ยวติดสายไฟ” แท้จริงแล้ว เป็นภาพอุบัติเหตุโดรนตกที่ประเทศซีเรีย 
  • คลิปวิดิโอที่ระบุว่า “ขีปนาวุธถล่มเป้าหมายในอิสราเอล” แท้จริงแล้วเหตุการณ์สู้รบระหว่างฮามาสกับกองทัพอิสราเอล ตั้งแต่เมื่อปี 2564 และปลายปี 2566 
  • คลิปวิดิโอที่ระบุว่าเป็นจังหวะที่กองทัพอิหร่านยิงขีปนาวุธไปยังอิสราเอล แท้จริงแล้วเป็นคลิปการสู้รบในประเทศตุรกี ตั้งแต่uเมื่อปี 2563
  • คลิปวิดิโอที่ระบุว่า “ชาวอิสราเอลแห่ไปยังสนามบิน เพื่อหนีออกนอกประเทศ หลังอิหร่านโจมตีอิสราเอล” แท้จริงแล้วเป็นคลิปในสถานีรถไฟใต้ดินกรุงปารีส ตั้งแต่เมื่อปี 2562 
  • คลิปวิดิโอที่ระบุว่าเป็นจังหวะที่ขีปนาวุธลูกใหญ่ของอิหร่าน ถล่มเป้าหมายในอิสราเอล แท้จริงแล้วเป็นคลิปขีปนาวุธยูเครนถล่มกองทัพเรือรัสเซีย เมื่อเดือนมีนาคมที่ผ่านมา
  • คลิปวิดิโอที่ระบุว่าเป็นชาวปาเลสไตน์ออกมาเฉลิมฉลองการโจมตีอิสราเอลโดยอิหร่าน แท้จริงแล้ว เป็นคลิปชาวปาเลสไตน์ทำพิธีละหมาดร่วมกันที่มัสยิดอัล-อักซอ ในช่วงเดือนรอมฎอนที่ผ่านมา

ฯลฯ 

จะสังเกตได้ว่า กรณีเหล่านี้เป็นการเอาภาพหรือคลิปจากเหตุการณ์อื่นๆ ที่ไม่เกี่ยวข้องกัน มาเชื่อมโยงกับสถานการณ์ปัจจุบัน อันเป็นรูปแบบข้อมูลข่าวสารบิดเบือนที่ชาว factcheckers มักจะพบเจอเป็นประจำนั่นเอง 

สื่อทางการโดนดักด้วย (หรือเจตนา?)

นอกจากนี้ แม้แต่ช่องทางสื่อสารทางการของทั้งอิสราเอลและอิหร่าน ก็ได้นำเสนอข้อมูลผิดพลาดดังเช่นลักษณะข้างต้นด้วยเช่นกัน 

เช่น กองทัพอิสราเอลได้เผยแพร่คลิปวิดิโอที่ระบุว่าเป็นภาพการปล่อยจรวดซัลโวชุดใหญ่โดยกองทัพอิหร่าน แต่ปรากฎว่าเป็นคลิปเหตุการณ์กองทัพรัสเซียซ้อมรบตั้งแต่เมื่อปี 2560

ส่วนสื่อทางการของอิหร่าน ก็ได้เผยแพร่คลิปที่อ้างว่าเป็นระเบิดลูกใหญ่ในอิสราเอล หลังขีปนาวุธอิหร่านตกใส่เป้าหมายอย่างจัง แต่จริงๆแล้ว เป็นคลิปเหตุการณ์เพลิงไหม้ที่ประเทศชิลี เมื่อต้นปีที่ผ่านมาต่างหาก

ขณะเดียวกัน สื่อทางการอิหร่านยังได้เอาคลิปแฟนเพลง Louis Tomlinson ที่ประเทศอาร์เจนตินา ดังที่กล่าวมาแล้วข้างต้น มาเผยแพร่ในรายการข่าว แล้วระบุว่าเป็นความแตกตื่นโกลาหลในประเทศอิสราเอลด้วย 

ข่าวกรองหรือข่าวกลวง?

ทั้งนี้ ดังที่ผู้เขียนได้กล่าวมาแล้วว่า ภาพและคลิปเหตุการณ์ที่บิดเบือนส่วนใหญ่นั้น ล้วนแต่มาจากบรรดาแหล่งข่าว “ข่าวกรองทางแหล่งข้อมูลเปิด” หรือ “OSINT” ในทวิตเตอร์ 

บัญชี OSINT เหล่านี้ ได้รับความนิยมอย่างมากในช่วงไม่กี่ปีมานี้ เพราะมักจะนำเอาข้อมูล ภาพ คลิปวิดิโอ ฯลฯ จากบุคคลในพื้นที่การสู้รบหรือความขัดแย้งในประเทศต่างๆ มาเผยแพร่ต่อ โดยในหลายๆสถานการณ์เป็นเหตุการณ์ที่สื่อมวลชนทั่วไปไม่สามารถเข้าไปยังพื้นที่ได้ เช่น สงครามระหว่างยูเครนกับรัสเซียที่ดำเนินมาตั้งแต่ปี 2565

แต่ขณะเดียวกัน แหล่งที่มาของข้อมูลเหล่านี้ก็มักจะขาดความน่าเชื่อถือ เพราะในหลายๆครั้ง เป็นการเอาคลิปหรือภาพที่ส่งต่อกันในโซเชียลมีเดียมาเผยแพร่อีกที โดยที่ไม่ได้ตรวจสอบว่าเป็นภาพหรือคลิปเหตุการณ์อะไรกันแน่ ทำให้เสี่ยงที่จะความผิดพลาดและบิดเบือนสูง ดังที่ผู้เขียนยกตัวอย่างมาในบทความนี้

Shayan Sardarizadeh นักตรวจสอบข้อมูล (fact checker) มือฉมังจากสำนักข่าว BBC ก็ได้แสดงความเห็นไว้ด้วยว่า ผู้เสพข่าวสารในปัจจุบันควรหลีกเลี่ยงบรรดาบัญชี OSINT เกือบทั้งหมดที่เกลื่อนโซเชียลมีเดียขณะนี้ 

อีกปัจจัยหนึ่งที่ทำให้ผู้เสพข้อมูลข่าวสาร แยกแยะแหล่งข่าวที่น่าเชื่อถือได้ยากเย็นขึ้น นั่นคือการที่นาย Elon Musk เปลี่ยนนโยบายสำคัญของทวิตเตอร์ จากที่เมื่อก่อนทวิตเตอร์จะให้เครื่องหมาย blue checkmark เฉพาะกับสื่อมวลชนหรือแหล่งข่าวที่น่าเชื่อถือ เปลี่ยนมาเป็นใครก็ตามสามารถ “ซื้อ” เครื่องหมาย blue checkmark ได้ด้วยเงินเพียง 8 ดอลลาร์สหรัฐต่อเดือนเท่านั้น 

แถมบัญชีผู้ใช้ที่มีเครื่องหมาย blue checkmark ในปัจจุบันยังสามารถสร้างรายได้จากยอดการเข้าชม (views) และยอดปฏิสัมพันธ์ (engagement) กับผู้ใช้อื่นๆได้ด้วย 

ผลที่เกิดขึ้นคือ บัญชี OSINT ซึ่งมีประวัติเผยแพร่ข่าวสารบิดเบือนมาแล้วหลายครั้ง ยังสามารถมีเครื่องหมาย blue checkmark และมีแรงจูงใจทางการเงินที่จะเผยแพร่คลิปหรือวิดิโอที่ไม่ตรวจสอบให้แน่ชัดก่อน เวลาเกิดเหตุการณ์รุนแรงขึ้นในโลก เพื่อกระตุ้นยอดการเข้าชมและยอดปฏิสัมพันธ์โดยไม่ต้องสนใจต่อข้อเท็จจริงนั่นเอง

อ่านเพิ่มเติม:

As Iran attacked Israel, old and faked videos and images got millions of views on X

Shayan Sardarizadeh, BBC Verify


สรุปข่าวจริง ลวงประจำวันที่ 13 เมษายน 2567

Dermaxil ได้ผลจริง เพราะสามารถกำจัดสาเหตุและช่วยรักษาอาการของโรคสะเก็ดเงินได้ …จริงหรือ?

อ่านต่อได้ที่  https://cofact.org/article/mlo9r01wj0tr


จับกุมธนบัตร 1 พันบาทจำนวน 2 ล้านฉบับที่ อ.ไชยปราการ จ.เชียงใหม่…จริงหรือ?

อ่านต่อได้ที่  https://cofact.org/article/32zp59tbj3yyp


NASA ประกาศสุริยะจากดวงอาทิตย์ขนาดใหญ่จะกระทบโลก…จริงหรือ?

อ่านต่อได้ที่  https://cofact.org/article/1dn0cro5uv15b


  ข่าวดี! ขยายเวลาเก็บภาษีที่ดิน – สิ่งปลูกสร้าง ปี 67 ออกไปอีก 2 เดือน

อ่านต่อได้ที่  https://cofact.org/article/1xkux1qe9218f


”อัครสังฆมณฑลกรุงเทพฯ จัดสัมมนาประจำปี 2024 ชวนคนสื่อในทุกภาคส่วนต่าง ๆ ร่วมแบ่งปันความรู้ มุมมองและข้อสรุบเพื่อก้าวต่อไป

AI ความท้าทายในสังคมสมัยใหม่ กับ บทบาททางการอภิบาลของบาทหลวงคาทอลิก


วันที่ 10 เมษายน 2024 บ้านผู้หว่าน อ.สามพราน จ.นครปฐม คณะกรรมการจัดสัมมนาพระสงฆ์อัครสังฆมณฑลกรุงเทพฯ โดยร่วมกับสื่อมวลชนคาทอลิกประเทศไทย นำเสนอสาระที่เกี่ยวข้องกับ สื่อมวลชนในแง่มุมต่าง ๆ เป็นต้น สถานการณ์ของปัญญาประดิษฐ์หรือ AI เพื่อสร้างการตระหนัก รับรู้ รับมือ และทำความเข้าใจเพื่อสามารถแสดงบทบาทของตนในเชิงอภิบาล


การแบ่งปันเริ่มด้วย ดร.รัชดา มนต์เทียรวิเชียรฉาย เลขาธิการองค์กรสื่อนานาชาติ Signis World และผู้ร่วมก่อตั้งสำนักข่าวคาทอลิก Licas News ในหัวข้อ “พระศาสนจักรคาทอลิก – AI และพระสันตะปาปาฟรังซิส”. โดยได้นำสมณสาส์นต่าง ๆ ของสมเด็จพระสันตะปาปาฟรังซิส ตั้งแต่เริ่มสมณสมัยในปี 2013 จนถึงปัจจุบันเป็นต้นสารวันสื่อสารมวลชนในปี 2024 ซึ่งมีจุดเน้นคือ การแสวงหาปรีชาญาณและการฟังด้วยหัวใจ มากกว่าการให้ความสำคัญกับเทคนิค หรือเครื่องไม้เครื่องมือต่าง ๆ ซึ่งถ้าการบรรยายในวันนี้ผ่านไป เพียง 2-3 เดือน ข้อมูล หรือการพัฒนาข้อมูล อาจจะถูกปรับเปลี่ยนและมีข้อมูลใหม่เพิ่มขึ้นไปอีก
นอกจากนั้นดร.รัชดา ยังเล่าถึงการอภิบาลในสนามจริง ของบรรดามิชชันนารี นักบุญ หรือแม้กระทั่งบรรดาชาวบ้านที่ใช้ชีวิตจริงตามที่ต่าง ๆ อันเป็นข้อมูลที่คอมพิวเตอร์หรือเอไอให้ไม่ได้ เป็นข้อมูลที่การสั่งสมของเอไออาจจะมองว่า ไม่ปกติ ไม่ใช่เรื่องของคนส่วนใหญ่ มีความบ้าบิ่น แต่นั่นคือ เรื่องราวของการดำเนินชีวิตในแบบคริสตชน


คุณพีรพล อนุตรโสตถิ์ ผู้จัดการศูนย์ชัวร์ก่อนแชร์ บริษัทอสมท จำกัด (มหาชน) วิทยากรท่านถัดไป ได้แบ่งปันในหัวข้อ “AI กับความท้าทายเพื่อสร้างสรรค์” คุณพีรพล ได้เล่าประสบการณ์ที่พบเห็นในการทำรายการชัวร์ก่อนแชร์ ได้ท้าทายผู้เข้าร่วมสัมมนาด้วยการนำเสนอประสบการณ์และให้ผู้เข้าร่วมสัมมนาดูข้อมูลต่าง ๆ เพื่อฝึกสังเกตว่า ข้อมูลไหนจริงข้อมูลไหนเป็นการสร้างภาพลวงจากเอไอ นอกจากนั้นยังแนะนำข้อควรระวังที่อาจจะเกิดขึ้นจากการรับสื่อในปัจจุบัน และการลองเปิดการทำงานของเอไอบางตัว เพื่อให้เห็นว่าข้อมูลจากเอไอนั้นต้องนำมาเช็คอีกครั้งหนึ่งก่อนที่จะเชื่อ หรือนำไปขยายผลต่อ


ช่วงสุดท้ายในภาคเช้า คุณเทเรซา ณัฐพร สันธนะวิทย์ สัตบุรุษจากวัดพระมารดา ที่อยู่ในแวดวงการประกอบอาชีพด้านสื่อมวลชน ได้นำ Work Shop เพื่อให้เกิดการเรียนรู้ในภาคปฏิบัติ โดยให้คุณพ่อสองท่าน อ่านบทเทศน์สองบท ในเนื้อหาจากพระคัมภีร์ตอนเดียวกัน แต่มีบทเทศน์แตกต่างกัน และถามว่า บทไหนถูกเขียนโดยคน และบทไหนถูกเขียนโดยเครื่อง ต่อจากนั้นจึงประเมินความเข้าใจ โดยแบ่งเป็น 3 หัวข้อ คือ I like ,I wish และ I wonder และตบท้ายด้วยตัวอย่างของการใช้เอไอในการแต่งเพลงเพื่อใช้ในศาสนา โดยสื่อให้เห็นถึงความรวดเร็ว คุณภาพที่พอใช้ได้ เป็นตัวอย่างของกิจกรรมบางอย่างที่นำแง่ดีมาพัฒนาต่อในกิจกรรมศาสนาได้


ในช่วงสุดท้ายจัดเป็นช่วงเสวนาในประเด็น “มุมมองเพื่อสร้างชุมชนที่เข้มแข็ง เพื่อก้าวไปด้วยกันในยุค AI”โดยมีผู้ร่วมเสวนา คือ คุณภัควัฒน์ ไกรสมสุข จากสื่อมวลชนคาทอลิกประเทศไทย ,คุณสุภิญญา กลางณรงค์ ผู้ร่วมก่อตั้งโคแฟคประเทศไทย ซิสเตอร์ฉวีวรรณ เกษทองมา คณะธิดาแม่พระองค์อุปถัมภ์โดยมีคุณพ่อพรสรร เป็นผู้ดำเนินรายการ


คณะวิทยากรได้ให้ข้อมูลในมุมของตนเองเกี่ยวกับการนำเอไอไปใช้ในแง่มุมต่าง ๆ ไม่ว่าจะเป็นการใช้เอไอในพระศาสนจักรคาทอลิก เช่นการประชุมสหพันธ์สภาพระสังฆราชแห่งเอเซีย หรือการนำเทคโนโลยีสมัยใหม่ ไปใช้ในการประชุมซีนอดครั้งล่าสุด ประสบการณ์การเข้าร่วมกิจกรรมสื่อกับเยาวชนทั่วโลก กิจกรรมต่าง ๆ ของโคแฟค ที่จัดทั้งการให้ความรู้ในระดับต่าง ๆ ทั่วประเทศ รวมทั้งเครื่องมือในการตรวจสอบความถูกต้อง และการแบ่งปันของซิสเตอร์เป็นต้นการอบรมเยาวชนในโรงเรียนกับการใช้สื่อ มุมมองของเยาวชนในยุคปัจจุบันที่เกิดขึ้นมาพร้อมกับสื่อ โดยเป็นของคู่กันในชีวิตไปแล้ว รวมทั้งบทบาทของนักบวชในการแนะนำสื่อให้แก่เยาวชน ฯลฯ บรรดาวิทยากรในช่วงเสวนายังได้ตอบข้อซักถามและแบ่งปันประสบการณ์จริงจากชีวิตเพื่อบอกว่า เอไอไม่ได้เป็นอะไรที่น่ากลัว เราสามารถนำมาใช้ได้อย่างรู้เท่าทัน รู้ตัว และก่อเกิดประโยชน์ได้


แน่นอนว่าเทคโนโลยีย่อมนำความเจริญมาสู่สังคมมนุษย์ แต่ในขณะเดียวกันก็เป็นความท้าทายถึงผลกระทบ และผลร้ายที่อาจจะเกิดขึ้นต่อชีวิตของทุกคน เป็นพิเศษสำหรับบรรดาเยาวชน รวมทั้งการปฏิสัมพันธ์ที่แท้จริง ของความเป็นมนุษย์ AI จึงเป็นความท้าทายในสังคมสมัยใหม่ ที่บทบาทของบาทหลวงคาทอลิกในการเป็นผู้อภิบาล ผู้นำทางจิตวิญญาณจะต้องปรับตัว เรียนรู้ เพื่อเดินร่วมไปด้วยกันกับประชากรของพระเจ้า ประชาคมโลก และเทคโนโลยีต่าง ๆ ที่เกิดขึ้น เพื่อจะเป็นมโนธรรมให้กับสังคมสร้างเสริมจิตวิญญาณของกันและกัน ได้อย่างมีประสิทธิภาพต่อไป


สื่อมวลชนคาทอลิกประเทศไทย รายงาน

ภาพ ‘ทหารอิสราเอลถือธงชาติไทย’ ที่มายังไม่ชัดเจนกับความกังวลภารกิจช่วยตัวประกันในฉนวนกาซา COFACT Special Report 32/67

เป็นเวลากว่า 5 เดือนแล้ว นับตั้งแต่วันที่ 7 ต.ค. 2566 ที่กลุ่มติดอาวุธฮามาสยกพลข้ามจากฉนวนกาซา ซึ่งเป็นดินแดนปกครองของปาเลสไตน์ได้เข้าโจมตีอิสราเอล และนำไปสู่การเปิดปฏิบัติการกวาดล้างกลุ่มฮามาสโดยกองทัพอิสราเอล  แม้จะเป็นเหตุการณ์ที่ห่างไกลจากประเทศไทยมากเพราะทั้งอิสราเอลและปาเลสไตน์อยู่ในภูมิภาคตะวันออกกลาง แต่ก็มีความสำคัญเพราะมีคนไทยจำนวนมากไปทำงานเป็นแรงงานภาคการเกษตรในอิสราเอล และมีแรงงานไทยหลายคนเสียชีวิตและถูกจับเป็นตัวประกันจากเหตุการณ์นี้

ข้อมูลล่าสุด ณ วันที่ 28 มีนาคม 2567 นายปานปรีย์ พหิทธานุกร รองนายกรัฐมนตรี และ รัฐมนตรีว่าการกระทรวงต่างประเทศ ระบุว่ายังเหลือคนไทยที่ถูกจับเป็นตัวประกันอีก 8 คน ซึ่งกระทรวงการต่างประเทศยังคงติดตามสถานการณ์อยู่ทุกวัน และคาดหวังว่าการผ่านมติโดยองค์การสหประชาชาติ (UN) ให้หยุดยิงทันทีในฉนวนกาซาสมรภูมิสู้รบระหว่างกองทัพอิสราเอลและกองกำลังติดอาวุธกลุ่มฮามาส จะทำให้ตัวประกันได้รับอิสรภาพมากขึ้น

ถึงกระนั้น ในช่วงสัปดาห์ที่ผ่านมา มีรายงานข่าวที่สร้างความวิตกกังวลให้กับคนไทย เมื่อมีการแชร์ภาพ ทหารอิสราเอลถ่ายภาพพร้อมกับถือธงชาติไทย เพราะภาพดังกล่าวอาจส่งผลกระทบต่อความพยายามช่วยเหลือตัวประกันของทางการไทย และที่ผ่านมาไทยได้พยายามวางท่าที เป็นกลาง มาโดยตลอด รวมถึงการใช้ทุกช่องทางเพื่อช่วยเหลือนับตั้งแต่วันแรกที่ทราบข่าวว่ามีคนไทยถูกจับเป็นตัวประกัน จนกลุ่มฮามาสเริ่มทยอยปล่อยตัวประกันมาอย่างต่อเนื่อง

จากรายงานข่าวของ นสพ.ผู้จัดการ เมื่อวันที่ 28 มี.ค. 2567 อ้างอิงข้อมูลจาก ยูนิส ทีราวี (Younis Tirawi) นักข่าวปาเลสไตน์ด้านความมั่นคงและการเมือง ได้โพสต์ภาพทหารอิสราเอลยืนอยู่ด้านหน้ารถถังโดยถือธงชาติไทยอยู่ด้วยผ่านทวิตเตอร์ (หรือ X ในปัจจุบัน) เมื่อวันที่ 27 มีนาคม 2567 ซึ่งอ้างว่าภาพดังกล่าวนำมาจากอินสตา  แกรมของ เซกี เน็ตเซอร์ (Segi Netzerr) ซึ่งเป็นทหารอิสราเอลที่ปรากฏอยู่ในภาพ ทั้งนี้ ยูนิส ทีราวี ปรากฏชื่อว่าทำงานให้กับสำนักข่าวเบลิงแคต (Bellingcat) ของเนเธอร์แลนด์

จากนั้นในวันที่ 29 มีนาคม 2567 สำนักข่าวในไทยหลายแห่ง อาทิ สถานีโทรทัศน์ช่อง 3 , เว็บไซต์ The Standard , นสพ.ข่าวสด รายงานข่าวโดยอ้างความเห็นจากกระทรวงการต่างประเทศของไทย ซึ่งสรุปได้ดังนี้ 

1) กระทรวงการต่างประเทศสั่งการให้สถานเอกอัครราชทูต ณ กรุงเทลอาวีฟ ตรวจสอบข้อเท็จจริงในเรื่องดังกล่าว และแสดงความห่วงกังวลต่อผลกระทบที่อาจตามมาจากภาพดังกล่าว

2) กระทรวงการต่างประเทศอิสราเอลแจ้งว่า ไม่สามารถพิสูจน์ข้อเท็จจริงได้ว่า ภาพดังกล่าวเป็นภาพที่ถูกสร้างขึ้นเพื่อโฆษณาชวนเชื่อ (propaganda) หรือเป็นภาพจริง และหากทหารอิสราเอลถือธงชาติไทยจริงก็อาจเป็นการกระทำของทหารอิสราเอลโดยรู้เท่าไม่ถึงการณ์ ทั้งนี้ รัฐบาลอิสราเอลไม่ได้ให้การสนับสนุน แต่ยอมรับว่าไม่สามารถควบคุมการกระทำส่วนตัวของทหารทุกรายได้ 3) เอกอัครราชทูตฯ ย้ำขอให้ฝ่ายอิสราเอลตรวจสอบเรื่องดังกล่าว ซึ่งกระทรวงการต่างประเทศอิสราเอลได้ตอบรับที่จะประสานงานกับกองทัพอิสราเอล (IDF) เพื่อตรวจสอบเพิ่มเติม และ 4) หากมีความชัดเจนมากขึ้น ทางกระทรวงการต่างประเทศ จะแจ้งให้ทราบต่อไป

รวมถึงมีรายงานเพิ่มเติมว่า ตามที่กระทรวงการต่างประเทศได้ชี้แจงกรณีภาพทหารอิสราเอลถือธงชาติไทย โดยได้มอบหมายให้สถานเอกอัครราชทูต ณ กรุงเทลอาวีฟ ทักท้วงเรื่องดังกล่าวกับฝ่ายอิสราเอลนั้น ขณะนี้มีผู้แทนระดับสูงของฝ่ายอิสราเอลได้แจ้งสถานเอกอัครราชทูต ณ กรุงเทลอาวีฟ ว่า กระทรวงการต่างประเทศอิสราเอลกำลังเร่งตรวจสอบ ซึ่งขณะนี้ยังไม่สามารถพิสูจน์ได้ว่าเป็นภาพจริงหรือภาพตัดต่อ แต่เห็นด้วยว่าหากเกิดขึ้นจริงถือเป็นการกระทำที่ไม่เหมาะสมจึงได้ขอให้กองทัพอิราเอลเร่งตรวจสอบภาพดังกล่าวด้วยแล้ว  

ในการนี้ ฝ่ายไทยได้เน้นย้ำถึงความห่วงกังวลและขอให้ฝ่ายอิสราเอลได้กำชับเจ้าหน้าที่ให้ระมัดระวังมากขึ้น เพื่อไม่ให้เกิดการกระทำในลักษณะดังกล่าวขึ้นอีก เนื่องจากไทยมิได้มีความขัดแย้งกับฝ่ายหนึ่งฝ่ายใด และประสงค์ให้ความขัดแย้งนี้ยุติโดยเร็ว บนพื้นฐานของการเจรจามาโดยตลอด ทั้งนี้ประเทศไทยมีความห่วงใยต่อสวัสดิภาพของตัวประกันชาวไทยที่เหลืออีก 8 คน โดยขอย้ำคำเรียกร้องให้ทุกฝ่ายปฏิบัติตามข้อมติของคณะมนตรีความมั่นคงแห่งสหประชาชาติเมื่อวันที่25 มีนาคม 2567 ที่ผ่านมา ที่เรียกร้องให้ทุกฝ่ายหยุดยิงโดยทันทีในช่วงเดือนรอมฎอน เพื่อนำไปสู่การหยุดยิงที่ยั่งยืนในพื้นที่ฉนวนกาซา และปล่อยตัวประกันทั้งหมดโดยทันทีและไม่มีเงื่อนไข

อนึ่ง สำหรับรายงานข่าวของเว็บไซต์ The Standard นั้นยังมีการอ้างถือความเห็นของ นางออร์นา ซากิฟ (Orna Sagiv) เอกอัครราชทูตอิสราเอลประจำประเทศไทย ที่กล่าวว่า ภาพที่ปรากฏนั้นอาจเป็นภาพปลอมหรือภาพที่สร้างจากเทคโนโลยีปัญญาประดิษฐ์ (AI) หรืออาจเป็นการกระทำส่วนบุคคลของทหารที่ชื่นชอบประเทศไทย ซึ่งตนมองว่าภาพที่ออกมานั้นไม่ได้เป็นผลลบ หรือชี้ว่าไทยเกี่ยวข้องในความขัดแย้ง

ภาพที่ 1 : โพสต์จากบัญชีแพลตฟอร์ม X หรือทวิตเตอร์ ของ ยูนิส ทีราวี นักข่าวปาเลสไตน์ วันที่ 30 มี.ค. 2567 
ภาพที่ 2 : โพสต์จากบัญชีแพลตฟอร์ม X หรือทวิตเตอร์ ของ THAI for Palestine ที่แชร์โพสต์ของ ยูนิส ทีราวี นักข่าวปาเลสไตน์ วันที่ 30 มีนาคม 2567

อีกด้านหนึ่ง บัญชี X หรือทวิตเตอร์ของ Younis Tirawi | يونس หรือ @ytirawi  ซึ่งเป็นบัญชีทางการของ ยูนิส ทีราวี นักข่าวปาเลสไตน์ต้นเรื่อง ได้โพสต์ข้อความและภาพเพิ่มเติม เมื่อวันที่ 30 มีนาคม 2567 ระบุว่า “หลังจากที่ตนโพสต์ภาพทหารอิสราเอลถือธงชาติไทย ทางกระทรวงการต่างประเทศของไทยได้เรียกร้องให้อิสราเอลเร่งตรวจสอบภาพดังกล่าว และสถานเอกอัครราชทูตไทยในกรุงเทลอาวีฟได้ประท้วงเรื่องนี้กับทางอิสราเอล”

ขณะที่ในวันเดียวกัน บัญชี X ที่ใช้ชื่อว่า THAI for Palestine ได้แชร์โพสต์ดังกล่าวของ ทีราวีพร้อมระบุข้อความว่า “ปรากฏที่มาภาพของทหารอิสราเอลถือธงชาติไทยว่า มาจาก IG ของทหารอิสราเอลนายหนึ่ง ซึ่งปัจจุบันเข้าถึงไม่ได้แล้วทางกระทรวงต่างประเทศของไทยจึงได้เรียกร้องให้อิสราเอลสืบสวนกรณีที่เกิดขึ้น” และเมื่อผู้เขียนลองนำชื่อ saginetzerr ไปค้นหา ก็ไม่พบบัญชีอินสตาแกรมชื่อนี้เช่นกัน แต่กลับพบบัญชีชื่อคล้ายกันคือ saginetzer1 ที่ตั้งค่าเป็นส่วนตัวและไม่สามารถเข้าไปดูได้ (ค้นหาล่าสุด ณ วันที่ 31 มี.ค. 2567 เวลา 15.00 น.)

อย่างไรก็ตาม บนเพจเฟซบุ๊ก “Israel in Thailand” ซึ่งเป็นเพจทางการของสถานทูตอิสราเอลประจำประเทศไทย นับตั้งแต่ที่เริ่มมีการแชร์ภาพทหารอิสราเอลถือธงชาติไทย ก็ยังไม่ปรากฏว่า มีการเผยแพร่คำชี้แจง    ใด ๆ (ค้นหาล่าสุด ณ วันที่ 1 เม.ย. 2567 เวลา 15.00 น.) ดังนั้นก็คงต้องติดตามกันต่อไปว่า ตกลงแล้วภาพนี้มีที่มาอย่างไร แต่ไม่ว่าจะเป็นภาพตัดต่อ ภาพสร้างโดย AI หรือภาพจริงของทหารอิสราเอลที่ถือธงชาติไทยไม่ว่าจะด้วยเหตุผลใด ๆ เรื่องนี้ถือเป็นความกังวลใจของไทย ที่ในปัจจุบันยังคงมีตัวประกันชาวไทยอีก 8 คน ตกอยู่กลางสมรภูมิความขัดแย้ง และในอนาคตที่จะยังมีแรงงานไทยกลับไปทำงานในอิสราเอลอีกต่อไป จึงหวังว่า จะได้ข้อสรุปที่ชัดเจนโดยเร็ว!!!

-/-/-/-/-/-/-/-/-/-/-

อ้างอิง

https://www.thaipbs.or.th/news/content/338524 (“ปานปรีย์” เชื่อช่วย 8 ตัวประกันไทยได้ หลัง “ยูเอ็น” ประกาศหยุดยิง : ThaiPBS วันที่ 28 มี.ค. 2567)

https://www.bangkokbiznews.com/world/1092705  (ไทย ‘ปรับท่าที’ เป็นกลางสงคราม ‘อิสราเอล-ฮามาส’ สนับสนุนแนวทาง 2 รัฐ : กรุงเทพธุรกิจ วันที่ 9 ต.ค. 2566)

https://www.voathai.com/a/thai-negotiator-pledge-to-continue-talk-on-freeing-thai-remaining-hostages/7398652.html  (“หน้าที่เรายังไม่หมด”: ชุดเจรจาเผยเบื้องหลังคุย ‘ฮามาส’ และการช่วยตัวประกันไทย : Voice of America ภาคภาษาไทย วันที่ 15 ธ.ค. 2566)

https://mgronline.com/around/detail/9670000027595 (ระอุ! นักข่าวปาเลสไตน์ชื่อดังโพสต์หราภาพ “ทหารอิสราเอล” ชู “ธงชาติไทย” หลังรถถัง IDF ในเขตฉนวนกาซา กระทรวงต่างประเทศโต้ “ไทย” ไม่เกี่ยวข้องมั่นใจ “ไม่กระทบตัวประกัน” ในมือฮามาส : ผู้จัดการออนไลน์ วันที่ 28 มี.ค. 2567)

https://www.bellingcat.com/author/younis/

https://ch3plus.com/news/international/ch3onlinenews/393487 (‘กต.ไทย’ จี้ ‘อิสราเอล’ เร่งตรวจสอบภาพทหารถือธงชาติไทย ชี้ยังพิสูจน์ข้อเท็จจริงไม่ได้ : 3Plus วันที่ 29 มี.ค. 2567)

https://www.khaosod.co.th/update-news/news_8163365 (กต.ห่วงภาพทหารอิสราเอล ถือธงชาติไทย เร่งตรวจสอบภาพจริงหรือตัดต่อ : ข่าวสดออนไลน์ วันที่ 29 มี.ค. 2567)

https://thestandard.co/images-of-israeli-soldiers-holding-thai-flags/  (กต. แจ้งอิสราเอลเร่งตรวจสอบภาพทหารถือธงชาติไทย ทูตชี้อาจเป็นภาพปลอม – AI : The Standard วันที่ 29 มี.ค. 2567)

https://twitter.com/ytirawi/status/1773817429530960215/photo/1

https://www.facebook.com/IsraelinThailand/

https://www.facebook.com/thaiembassytelaviv/?locale=th_TH

ปี 66 ไทยขึ้นอันดับ 1 เอเชีย มิจฉาชีพโทร-ส่งข้อความหลอกคนไทย 79 ล้านครั้ง พุ่งสูงขึ้น 18%  

สสส.-ภาคีโคแฟค-กทม. เปิดเวทีสัมมนาวันตรวจสอบข่าวลวงโลก 67 ชวนใช้เครื่องมือดิจิทัล ตรวจสอบข่าวเช็คให้ชัวร์ก่อนเผยแพร่ สร้างพื้นที่สื่อออนไลน์ปลอดภัย สานพลังสังคมสร้างสุขภาวะที่ดี

เมื่อวันที่ 2 เม.ย. 2567 ณ หอศิลปวัฒนธรรมแห่งกรุงเทพมหานคร สำนักงานกองทุนสนับสนุนการสร้างเสริมสุขภาพ (สสส.ร่วมกับภาคีโคแฟค ประเทศไทย และกรุงเทพมหานคร (กทม.) จัดงาน “สัมมนาระดับชาติเนื่องในโอกาสวันตรวจสอบข่าวลวงโลก 2567 (International Fact-Checking Day 2024)” ภายใต้หัวข้อ “Cheapfakes สู่ Deepfakes: เตรียมรับมืออย่างไรให้เท่าทัน” เนื่องจากเครือข่ายองค์กรตรวจสอบข่าวสากล (International Fact Checking Network – IFCN) กำหนดให้วันที่ 2 เมษายนของทุกปีเป็น “วันตรวจสอบข่าวลวงโลก” หวังกระตุ้นให้คนทั่วโลกตื่นตัว ตรวจสอบข้อมูลบนโลกออนไลน์ก่อนส่งต่อ และเข้าใจอันตรายที่เกิดขึ้นจากข่าวลวง

โดย นพ.พงศ์เทพ วงศ์วัชรไพบูลย์ ผู้จัดการกองทุนสนับสนุนการสร้างเสริมสุขภาพ (สสส.) กล่าวว่า  จากรายงานประจำปี 2566 ของ ฮูสคอลล์ (Whoscall) แพลตฟอร์มระบุตัวตนสายเรียกเข้าที่ไม่รู้จักและป้องกันสแปม พบว่า ปี 2566 คนไทยโดนหลอกจากสายโทรเข้าและส่งข้อความหลอกลวง 79 ล้านครั้ง เพิ่มขึ้นจากปี 2565 ที่มี 66.7 ล้านครั้ง คิดเป็นเพิ่มขึ้น 18% โดยเฉลี่ยคนไทย 1 คน ได้รับ      เอสเอ็มเอสหลอกลวง 20.3 ข้อความ ถือว่าไทยถูกหลอกลวงมากเป็นอันดับ 1 ของเอเชีย รองลงมาคือ ฟิลิปปินส์ และฮ่องกง ทั้งนี้ งานสัมมนาระดับชาติฯ ที่จัดขึ้น สสส. หวังสร้างความเข้าใจต่อสาธารณะในประเด็นการตรวจสอบข้อมูลก่อนเชื่อหรือแชร์ด้วยเครื่องมือดิจิทัล ประเด็นการใช้ปัญญาประดิษฐ์อย่างสร้างสรรค์ และรณรงค์ให้สังคมตระหนักถึงการตรวจสอบข้อมูล นำไปสู่การสร้างสังคมสุขภาวะให้ยั่งยืนของประเทศไทยต่อไป

“สสส. วางเป้าหมายพัฒนานิเวศสื่อสุขภาวะที่ส่งผลต่อค่านิยมและพฤติกรรมการใช้สื่อเพื่อ        สุขภาวะ เสริมทักษะรู้เท่าทันสื่อ และให้ความสำคัญกับการส่งเสริมให้เกิดสื่อสุขภาวะและปกป้องผู้ใช้สื่อออนไลน์ทุกช่วงวัย จากผลการดำเนินงานของ โคแฟค ประเทศไทย ที่สสส. ร่วมผลักดันสนับสนุนให้         โคแฟคเป็นพื้นที่ตรวจสอบข้อเท็จจริงบนสื่อออนไลน์ ตั้งแต่ปี 2563-2567 โคแฟค ได้บริการตรวจสอบข่าวลวง 7,672 บทความ ช่วยปกป้องคนไทยไม่ให้ตกเป็นเหยื่อมิจฉาชีพผ่านการอบรมตรวจสอบข้อมูลกว่า 5,000 คน สสส. มุ่งหวังให้ทุกคนเป็นพลเมืองเท่าทันสื่อ มีความสามารถในการตรวจสอบข่าวได้ด้วยตนเอง จนมีส่วนร่วมในการเฝ้าระวังตรวจสอบข้อมูล  และเปิดพื้นที่ให้ทุกคนมาช่วยกันตรวจสอบข่าวลวงได้ โดยเชื่อว่า “Everyone is a fact checker”   นพ.พงศ์เทพ กล่าว

นายชัชชาติ สิทธิพันธุ์ ผู้ว่าราชการกรุงเทพมหานคร กล่าวว่า เทคโนโลยีเข้ามามีบทบาทช่วยให้การใช้ชีวิตของคนในปัจจุบันสะดวก รวดเร็ว และง่ายขึ้น ไม่ว่าจะด้านการทำธุรกรรมทางการเงิน  หรือการรับรู้ข้อมูลข่าวสารที่ต้องการ ทุกคนสามารถเป็นผู้ผลิตและเผยแพร่ข้อมูลบนโลกออนไลน์ได้ง่ายๆ แต่ความเสี่ยงต่อการถูกหลอก สร้างความเข้าใจผิด ความเกลียดชัง ถูกหลอกให้ลงทุนและโอนเงินออกจากบัญชี ก็เกิดขึ้นให้เห็นทุกวัน กทม. ให้ความสำคัญการป้องกันภัยคุกคามจากออนไลน์ทุกรูปแบบ จึงร่วมกับ สสส. เร่งสร้างการรับรู้ภัยอันตรายที่เกิดจากข่าวลวง ข่าวปลอม ซึ่งเครือข่าย “โคแฟค ประเทศไทย” จะเป็นเครื่องมือสำคัญที่ให้คนในสังคมได้ตรวจสอบข้อมูลข่าวหลอกลวงที่เกิดขึ้นร่วมกัน และขยายผลความรู้ความเข้าใจเพื่อให้ประชาชนเตรียมรับมือได้อย่างเท่าทัน

น.ส.สุภิญญา กลางณรงค์ ผู้ร่วมก่อตั้งโคแฟค (ประเทศไทย) กล่าวว่า คนไทยถูกมิจฉาชีพใช้ชีพเฟคหลอกลวงมากกว่าดีฟเฟค สอดคล้องกับสถิติศูนย์บริหารการรับแจ้งความออนไลน์ สำนักงานตำรวจแห่งชาติ รายงานว่า ตั้งแต่ 1 มี.ค. 2565-15 มี.ค. 2567 มีประชาชนแจ้งความออนไลน์มากกว่า 400,000 คดี สูงสุด 3 ประเภทที่มักโดนหลอก ได้แก่ 1.ถูกหลอกให้ซื้อสินค้าหรือบริการ (ไม่เป็นขบวนการ) 2.หลอกให้โอนเงินเพื่อทำงาน 3.หลอกให้กู้เงิน ปีนี้ โคแฟค จึงบูรณาการภาครัฐและเอกชนอบรมสร้างทักษะการตรวจสอบข้อมูลในยุคเอไอทั่วประเทศมีผู้เข้าร่วม 2,500 คน และสร้างคอนเทนต์ในอินฟลูเอนเซอร์สายตรวจสอบข่าว และพัฒนาให้เกิดศูนย์ตรวจสอบข่าวลวงภูมิภาคกว่า 7 แห่ง อาทิ อีสานโคแฟค มหาวิทยาลัยบูรพา สามจังหวัดชายแดนใต้ และจะเปิดรับภาคีใหม่มาทำกิจกรรมตรวจสอบข่าวและสร้างพลเมืองทุกคนให้เป็น fact-checker ต่อไป  และสุดท้ายขอชวนประชาชนทุกคนฝึกตรวจสอบข่าวเช็คให้ชัวร์ก่อนเผยแพร่ ไม่เชื่ออะไรง่ายๆ โดยเฉพาะในยุคปัญญาประดิษฐ์ เพื่อป้องกันการถูกหลอกลวง สามารถเข้าใช้งานได้ที่เว็บไซต์ cofact.org