องค์กรสื่อ นักวิชาการ และองค์กรตรวจสอบข่าว เผยงานรอบปีที่ผ่านมาพบข้อมูลลวงจาก AI  และสถานการณ์ความขัดแย้งจำนวนเพิ่มขึ้น  พร้อมเสนอแนะสร้าง “ปัญญารวมหมู่” เพื่อแก้ปัญหาด้วยกัน

เมษายน 2569 หอศิลปวัฒนธรรมแห่งกรุงเทพมหานคร โคแฟค (ประเทศไทยร่วมกับสำนักงานกองทุนสนับสนุนการสร้างเสริมสุขภาพ (สสส.)  มูลนิธิ ฟรีดิช เนามัน (ประเทศไทย)  องค์การกระจายเสียงและแพร่ภาพสาธารณะแห่งประเทศไทย (ไทยพีบีเอสและภาคีร่วมจัดอีก  11 องค์กร จับมือจัดงานสัมมนาวาระวันตรวจสอบข่าวลวงโลก 2569International Fact Checking Day 2026 Lost in information: When Disinformation becomes a global risk เมื่อข้อมูลลวงกลายเป็นความเสี่ยงโลกเพื่อรณรงค์ให้สาธารณชนตื่นตัวต่อสถานการณ์ข้อมูลลวงบิดเบือนสร้างผลกระทบต่อสังคมไทย

ในเวทีเรื่องเล่าจากพื้นที่ “ปัญญารวมหมู่ จากภูมิภาคสู่นโยบายสาธารณะ” นำเสนอผลสรุปจากเวทีดิจิทัลนักคิด 4 ภูมิภาค โดย รศ.ดร.สุชาดา พงศ์กิตติวิบูลย์ คณบดีคณะมนุษยศาสตร์และสังคมศาสตร์ มหาวิทยาลัยบูรพา กล่าวในช่วงสถานการณ์สงครามไทย-กัมพูชาพบว่าสิ่งที่หายไป คือ 1.เครือข่ายการตรวจสอบข้อมูลในพื้นที่ 2.บางทีข้อมูลที่มีไม่สามารถใช้งานได้จริง ทำให้การตัดสินใจว่าจะอยู่หรือจะอพยพ จะอยู่จุดไหนอย่างไร 3.บางทีก็ไม่ได้เป็นข้อมูลที่ตอบสนองได้ทันรวดเร็วในสิ่งที่เขาอยากจะรู้ตอนนี้เวลานี้ และ 4.ไม่รู้จะไว้ใจหรือฟังใครดีในสงครามครั้งนี้

Screenshot

หากไล่แก้ข่าวลวงทุกข่าวเราก็คงทำไม่ไหว จึงควรจะมีวิธีการอย่างไรในการที่จะจัดการที่เยอะแยะมากมาย เราจะสร้างระบบนิเวศที่ทำให้เข้าถึงระบบความจริงได้และไว้ใจ โดยสรุปแล้วในบทบาทของสถาบันอุดมศึกษาเราควรจะทำอย่างไร ใน 1 ครอบครัวเราควรจะมีสักคนไหม เราสร้างคนคนนั้นดีกว่าไหม สร้างนิสิตให้เขามีความรู้ที่จะตรวจสอบข้อเท็จจริงได้ เป็นที่ปรึกษาย่ายายได้ ตอนนี้กำลังตรวจสอบข่าว ส่วนใหญ่มักเป็นปัญหาเรื่องสุขภาพ แล้วคนที่ส่งข้อมูลก็มักเป็นปู่ย่าตายาย ส่งมาในกลุ่มไลน์ครอบครัว รศ.ดร.สุชาดา กล่าว

กมล หอมกลิ่น ผู้ประสานงานอีสานโคแฟค บอกเล่าเรื่องราวถ้อยคำที่สร้างความเกลียดชัง (Hate Speech) ในประเด็นสงครามชายแดนไทย – กัมพูชา จากผู้นำชุมชนหรือผู้มีอิทธิพลทางความคิดในระดับท้องถิ่น เช่น เกษตรกรและอดีตกำนันในพื้นที่ จ.อุบลราชธานี ใช้คำเรียกชาวกัมพูชาว่า “มัน” และบอกว่าชาวกัมพูชาเนรคุณ เชื่อถือไม่ได้ ชาวบ้านก็ไม่อยากให้เปิดด่านแม้จะดีกับการค้าขายเพราะไม่อยากถูกเอาเปรียบ

หรือกรณีของนักวิจัยในพื้นที่ จ.ศรีสะเกษ ซึ่งเคยทำงานร่วมกับนักวิจัยชาวกัมพูชา ในอดีตคน 2 ฝั่งข้ามแดนไปมาหาสู่กันได้ตามปกติ แต่เมื่อเกิดปะทะตามแนวชายแดนก็ทำให้ทีมวิจัยที่เคยทำงานด้วยกันโกรธกัน ซึ่งมาจากการสร้างเรื่องของผู้นำประเทศ โดยเฉพาะการเขียนประวัติศาสตร์ขึ้นมาใหม่ เช่น การเปลี่ยนชื่อสถานที่ซึ่งสร้างความสับสนให้กลับผู้คนทั้ง 2 ฝั่งจากที่เคยเรียกตรงกัน และนำไปสู่ความเกลียดชังผ่านการรับข้อมูลทางสื่อสังคมออนไลน์

Screenshot

อีกท่านหนึ่งเป็นสื่อในชุมชน เขาบอกว่าผมไม่รู้จะทำอย่างไรแล้วในช่วงนั้น แม้จะเป็นสื่อแต่ก็ทำอะไรไม่ได้ เพราะเราเป็นสื่อชุมชนที่เห็นวิถีชีวิตคน แต่อินฟลูเอนเซอร์ (ผู้มีอิทธิพลทางความคิดบนโลกออนไลน์และสื่อหลักส่วนมากจะเล่นในแง่อารมณ์ ฉะนั้นพอผมนำเสนอเรื่องราวความเป็นอยู่ของคนพื้นที่ชายแดนหรือแม้แต่ข้อเท็จจริงมันก็จะขัดกับความรู้สึกคน กลายเป็นเราต้องเชื่อความคิดจากคนข้างนอก และกลายเป็นที่มาของความปั่นป่วนที่คนคอยแต่จะดูข่าวความสะใจ ทำให้ชาวบ้านมองฝ่ายตรงข้ามเป็นปีศาจ กมล กล่าว

มะรูฟ เจะบือราเฮง ประธานมูลนิธิดิจิทัลเพื่อสันติภาพ (D4P) กล่าวถึง 3 จังหวัดชายแดนภาคใต้ ที่คนส่วนใหญ่มักนึกถึงปัญหาความรุนแรงหรือความขัดแย้ง แต่ในความเป็นจริงยังมีปัญหาภัยไซเบอร์ที่ทำให้คนในพื้นที่ถูกหลอกลวงสูญเสียเงินกันเป็นจำนวนมาก ข้อมูลที่ได้จากทางตำรวจพบว่าในช่วงปี 2565 – 2568 ประชาชนในพื้นที่ตกเป็นเหยื่อมิจฉาชีพสูญเงินราว 705 ล้านบาท หรือวันละ 5 แสนบาท ในจำนวนนี้จังหวัดปัตตานี ตกเป็นเหยื่อมิจฉาชีพมากที่สุด ลักษณะการหลอกลวงส่วนใหญ่คือ สั่งซื้อสินค้าแล้วไม่ได้รับ หรือจองที่พักแต่พบว่าไม่มีอยู่จริง ตลอดจนการโทรศัพท์มาข่มขู่อ้างเป็นเจ้าหน้าที่รัฐ

Screenshot

พบว่ามีผู้หญิงจำนวนมากที่เป็นเหยื่อ โอนเงินอย่างรวดเร็วเพราะตกใจ รวมถึงผู้สูงอายุ คนที่มีรายได้น้อย หลายคนไม่กล้าไปแจ้งตำรวจ อาจจะด้วยหน้าที่การงาน ช่องว่างทางภาษา ช่องว่างทางวัฒนธรรมทำให้ปัญหาดังกล่าวยังไม่ได้รับการแก้ไขมะรูฟกล่าว

ผศ.ดร.ณภัทร เรืองนภากุล คณะสารสนเทศและการสื่อสาร มหาวิทยาลัยแม่โจ้ ชวนทำความเข้าใจปรากฏการณ์ “AI หลอน” คือการที่เมื่อผู้ใช้งานถามเรื่องต่างๆ กับ AI และได้รับคำตอบที่ดูเหมือนน่าเชื่อถือ  มีแหล่งอ้างอิงครบถ้วน แต่เมื่อนำไปตรวจสอบย้อนกลับพบว่าแหล่งอ้างอิงนั้นไม่มีอยู่จริง การที่ AI มีอาการหลอนเนื่องจาก AI ถูกพัฒนาให้สร้างสรรค์ข้อมูลเพื่อตอบคำถามผู้ใช้งาน และเรียนรู้ว่าผู้ใช้งานเป็นคนแบบใด เช่น หากเราบอก AI ว่าเราทำงานสอนด้านการสื่อสาร หรือบอกว่าทำงานด้านไอที AI ก็จะเลือกคำตอบที่สอดคล้องกับอาชีพการงานของเราด้วย

Screenshot

ทางออกของเราที่เราจะรู้เท่าทัน AI คือปัญญารวมหมู่ รวมพลังช่วยกันตรวจสอบ ช่วยกันขับเคลื่อน เพราะจริงๆ แล้ว AI ไม่ใช่เป็นสิ่งที่อันตรายหรือมีแต่โทษ ประโยชน์ก็มีเช่นเดียวกันเพียงแต่พลังของมนุษย์ต้องช่วยกันตรวจสอบ   รวมถึงการที่มีคนใช้ AI ในการสร้างข่าวลวง เราต้องมีคำถามว่า ‘เอ๊ะ’ ภาพนี้จริงไหมคลิปวิดีโอนี้จริงไหมข้อมูลเหล่านี้จริงไหมซึ่งย้ำอีกครั้งว่าการที่คนแชร์เยอะๆ ไม่ได้หมายความว่าเป็นความจริงเสมอไป ผศ.ดร.ณภัทร กล่าว 

นอกจากนี้ก่อนปิดงานวันตรวจสอบข่าวลวงโลก  มีการนำเสนอผลงานสำคัญที่ผ่านมาและก้าวต่อไปของภาคีที่ทำหน้าที่ตรวจสอบข้อมูลในสื่อต่างๆ โดย กนกพร ประสิทธิผล ผู้อำนวยการสำนักดิจิทัล ไทยพีบีเอสกล่าวว่า นับตั้งแต่เดือน ต.ค. 2567 – มี.ค. 2569 ตรวจสอบข่าวทั้งสิ้น 421 ข่าว เนื้อหาที่มีผลกระทบสูงคือเรื่องสังคมและสุขภาพ แต่ในรอบปี 2568 ที่ผ่านมามีทั้งเรื่องการเลือกตั้ง สถานการณ์ชายแดนไทย – กัมพูชา และล่าสุดคือสงครามตะวันออกกลาง ทำให้เรื่องการเมืองและเหตุการณ์รอบโลกเพิ่มสูงขึ้นมา 

สถานการณ์ชายแดนไทย – กัมพูชา ตรวจพบ 61 เรื่อง เป็นข่าวจริง 3 เรื่อง ข่าวลวง 49 เรื่อง ข่าวบิดเบือน 9 เรื่อง และในจำนวนนี้พบเป็นเนื้อหาที่เกี่ยวข้องกับ AI 6 เรื่อง ส่วนสถานการณ์น้ำท่วมในภาคใต้ พบข่าวลวง 9 เรื่อง ข่าวจริง 1 เรื่อง ข่าวบิดเบือน 5 เรื่อง และครั้งนี้เริ่มเห็นเนื้อหาประเภท AI Slop คือภาพหรือคลิปวิดีโอที่สร้างด้วย AI ที่วัตถุประสงค์อาจทำเพื่อความสนุกสนาน เช่น ภาพสัตว์ช่วยเหลือกันเพื่อหนีน้ำท่วม จากภาพสุนัขคาบแมว กลายเป็นภาพฮิปโปคาบแมวและอื่นๆ อีกมากมาย สำหรับข่าวช่วงการเลือกตั้ง 2569 พบ 33 ข่าว เป็นข่าวจริง 1 เรื่อง ข่าวลวง 5 เรื่อง ข่าวบิดเบือน 14 เรื่อง นอกจากนั้น Thai PBS Verify ยังเพิ่มเรื่องการติดตามตรวจสอบนโยบาย (Policy Tracking) เช่น ทำได้หรือไม่ เคยพูดแบบนี้จริงหรือไม่ พูดเปลี่ยนไปหรือไม่ เพราะข่าวเลือกตั้งไม่มีถูก – ผิด ขาว – ดำ ไม่ใช่จริงเสมอไปและไม่ใช่เท็จ 100% และล่าสุดสถานการณ์ตะวันออกกลาง เริ่มพบการตัดต่อรวมคลิปวิดีโอคนละเหตุการณ์ทั้งที่จริงและไม่จริง และการใช้ภาพจากวิดีโอเกมมาอ้างว่าเป็นเหตุการณ์สู้รบ

Screenshot

จากการตรวจสอบข่าวที่ผ่านมาพบ 5 สิ่งที่ได้เรียนรู้ คือ 1.จงพึงระวังว่าเทคโนโลยีและ AI จะเป็นตัวเร่งให้เกิดข่าวปลอมมากขึ้นเรื่อยๆ 2.ข่าวปลอมกระจายเร็วแต่ข่าวจริงกว่าจะตามแก้จะช้า และคนมักเห็นข่าวปลอมในปริมาณที่เยอะกว่าข่าวที่แก้ 3.สื่ออาจตกเป็นเหยื่อได้เหมือนกันหลายๆ ครั้งจะเห็นสื่อไม่ได้ตรวจสอบ นำข้อมูลลวงมาเผยแพร่ 4.เมื่อใดที่มีวิกฤติ มีความละเอียดอ่อน – อ่อนไหว เป็นตัวเร่งอย่างดีที่ทำให้ข่าวปลอมเพิ่มปริมาณ และ 5.องค์กรไหนที่มีหน้าที่ตรวจสอบข่าว ต้องอย่าผิดเสียเองเพราะจะขาดความน่าเชื่อถือ ” กนกพร กล่าว

พีรพล อนุตรโสตถ์ ศูนย์ชัวร์ก่อนแชร์ สำนักข่าวไทย อสมท กล่าวถึง 3 กลุ่มข่าวลวงที่เป็นสัญญาณว่ากำลังจะเจอในอนาคต 1.ข่าวลวงที่ไม่ใช่ข่าวลวง ทุกข้อความที่เห็นเป็นจริงทุกตัวอักษรแต่สร้างความเข้าใจผิด เช่น หลายปีก่อนเคยมีข่าวว่าไลน์จะเก็บเงิน ซึ่งก็เก็บจริงแต่เป็นอีกบริการหนึ่งของไลน์ ไม่ใช่ส่วนของการส่งข้อความสนทนาที่หลายคนใช้กัน 2.ข่าวลวงจากการเชื่อใน AI พบว่าเมื่อเราค้นหาข้อมูลผ่าน Google จะพบว่าเนื้อหาด้านบนสุดเป็นสิ่งที่ AI สร้างขึ้นมา หากเราเข้าใจว่าสิ่งที่เห็นนั้นเหมือนกับผลการค้นหาผ่าน Google ในอดีต (ที่ขึ้นมาเป็นชื่อเว็บไซต์โดยยังไม่มีเนื้อหาจาก AI) นั่นเป็นความเข้าใจผิด กับกรณีที่เกิดจากผู้ผลิตเนื้อหาเขียนคำสั่งให้ AI สร้างเนื้อหาขึ้นมาแล้วนำมาเผยแพร่ กลุ่มที่ 3 เรียกว่าSourcehacking คือคนที่เป็นแหล่งข่าวถูกหลอกเและถูกใช้เป็นเครื่องมือในการเผยแพร่ต่อทั้งโดยตั้งใจและไม่ตั้งใจ คนที่ทำ Sourcehacking เป็นการสร้างข้อมูลอะไรบางอย่างให้ได้รับการพูดถึงมากๆ (Mass) จนมีสื่อใหญ่นำไปขยายผลต่อเอง ดังนั้นสื่อใหญ่ก็จะเป็นหนึ่งในเป้าหมายที่ถูกหลอก

จีรพงษ์ ประเสริฐพลกรัง อุปนายกด้านมาตรฐานวิชาชีพ สมาคมผู้ผลิตข่าวออนไลน์ (SONP)เล่าว่า SONP  ทำงานร่วมกับกองทุนพัฒนาสื่อปลอดภัยและสร้างสรรค์ ในโครงการ “Stop Fake Spread Fact” ได้โจทย์มาให้ตรวจสอบข่าว 120 ชิ้น ทำไปแล้วร้อยละ 33 ทั้งในเนื้อหาและคลิปวิดีโอ เช่น ข่าวหลุมยุบบริเวณถนนหน้า รพ.วชิรพยาบาล มีการใช้ภาพ AI ปลอมให้เหมือนมีคนมุงดูถึงขอบหลุม หรือคลิปวิดีโอคนแบกช้าง ซึ่งในความเป็นจริงร่างกายมนุษย์ไม่สามารถทำแบบนั้นได้  ข่าวใช้กิ๊ปติดผมหนีบคิ้วรักษาไมเกรน ข่าวค่ายรถไฟฟ้าเทสลาไม่ลงทุนในไทยเพราะมีปัญหาคอร์รัปชั่นสูง ข่าวตำรวจตั้งด่านตรวจสำเนาทะเบียนรถ ใครไม่มีเจอปรับ 2,000 บาท ภายใต้โครงการ Stop Fake Spread Fact มียอดการมองเห็นมากกว่า 1.8 ล้านครั้งแล้ว ซึ่งมาจากเครือข่าย 54 สำนักข่าวที่เป็นสมาชิก อีกทั้งยังมีเนื้อหาการตรวจสอบที่หลากหลายไม่ว่าการเมือง นโยบายรัฐ สุขภาพ ไปจนถึงบันเทิง

ในการทำงานมีการอบรมห้องข่าว AI (Newsroom) เพื่อให้เรียนรู้กระบวนการ AI ทั้งระบบโดยผู้เชี่ยวชาญ   ตั้งแต่ประโยชน์ โทษและสิ่งที่ต้องระวัง จนได้มาซึ่งจริยธรรม AI ในการนำเสนอข่าวแล้วเพื่อใช้กับสมาชิก มีการประกวดตรวจสอบข่าวเป็นครั้งแรกในการประกวดข่าวดิจิทัลเมื่อปีที่แล้ว ได้รับการสนับสนุนจากโคแฟค เป็นปีแรกในการให้รางวัลนักข่าวในการตรวจสอบข่าวลวงเพื่อเชิดชูและให้กำลังใจกัน มีการอบรมข่าวดิจิทัลรุ่นเยาว์ เอาหัวข้อการตรวจสอบข้อมูลเข้าไปอบรมการทำข่าว – การเรียนรู้ของนักศึกษาทั่วประเทศ หวังว่าเมื่อได้ความรู้แล้วจะนำกลับไปสอนเพื่อนๆ ในมหาวิทยาลัยและต่อยอดในระดับเยาวชน จีรพงษ์ กล่าว

ณัฐกร ปลอดดี AFP ประเทศไทย กล่าวถึงการพัฒนาอย่างก้าวกระโดดของเทคโนโลยี AI หากย้อนเวลาไป 1 – 2 ปี คนทำงานตรวจสอบข้อเท็จจริงจะสามารถรับมือกับการเปลี่ยนแปลงอย่างรวดเร็วนี้ได้มากน้อยเพียงใด แต่ปีที่ผ่านมา AFP ค่อนข้างมั่นใจในวิธีการรับมือเนื้อหาที่ผลิตจาก AI ก็คือใช้หลักคิดของ AFP หรือใช้เครื่องมือเป็นตัวเสริม และหลักการที่ยังคงใช้ได้อยู่คือพยายามหาหลักฐาน 2 ชิ้นขึ้นไปในการตรวจสอบ

ในปีที่ผ่านมา AFP ผลิตรายงานตรวจสอบข้อเท็จจริงไป 6,800 กว่าชิ้นจากทั่วโลก ในจำนวนนี้มีเนื้อหาที่เป็น AI เกี่ยวข้องด้วยประมาณ 11% ก็ประมาณ 600 – 700 เรื่อง ฉะนั้นถือว่าเยอะมากๆ แล้วก็ยังคงเพิ่มต่อไปเพราะ AI เป็นเครื่องมือที่ทำให้ใครก็ตามสามารถสร้างเป็นภาพเป็นคลิปได้ไม่ยากนัก ณัฐกร กล่าว

กุลธิดา สามะพุทธิ กองบรรณาธิการโคแฟค กล่าวถึงเหตุการณ์ตลอดปี 2568 ถึงต้นปี 2569 ทั้งแผ่นดินไหว สถานการณ์ชายแดนไทย – กัมพูชา น้ำท่วมภาคใต้ จนถึงปัจจุบันคือสถานการณ์ตะวันออกกลาง ซึ่งนับตั้งแต่วันที่ 1 มี.ค. 2568 – 31 มี.ค. 2569 ทีมโคแฟคตรวจสอบข้อมูลทั้งสิ้น 283 ชิ้น อันดับ 1 คือสถานการณ์ไทย – กัมพูชา 84 ชิ้น รองลงมาคือการเมือง 48 ชิ้น อันดับ 3 สุขภาพ 39 ชิ้น หรืออย่างสถานการณ์ตะวันออกกลางล่าสุดทำไปแล้ว 28 ชิ้น มียอดการเข้าชมผ่านเว็บไซต์ cofact.org จำนวน 104,255 ครั้ง ชิ้นงานที่มียอดการเข้าชมมากที่สุดคือการตรวจสอบประวัติการศึกษาของไชยชนก ชิดชอบ รัฐมนตรีกระทรวงดิจิทัลเพื่อเศรษฐกิจและสังคม (เผยแพร่ 12 ก.ย. 2568) ซึ่งถูกตั้งคำถามในเวลานั้น โดยการทำงานตรวจสอบข้อเท็จจริงไม่ได้มีแต่การจับเท็จเท่านั้น แต่อะไรที่คลุมเครือไม่ชัดเจนก็ต้องทำหน้าที่ในส่วนนี้ด้วย

ส่วนยอดการแชร์ผ่านเพจเฟซบุ๊กของโคแฟคจะอยู่ที่ 5,744 ครั้ง ถือว่ามากพอสมควรเมื่อเทียบกับองค์กรตรวจสอบสื่อขนาดเล็กอย่างโคแฟค โดยชิ้นงานที่มีการแชร์มากที่สุดคือคลิปสั้น ณัฐพงษ์ เรืองปัญญาวุฒิ หัวหน้าพรรคประชาชน ยืนมือไพล่หลังและไม่ร้องเพลงชาติ มีการแชร์ 732 ครั้ง ชิ้นนี้ตรวจสอบด้วยการชมคลิปเต็มในเวทีดีเบตตัวแทนพรรคการเมืองต่างๆ ซึ่งในช่วงที่มีการเคารพธงชาติจะเห็นว่าณัฐพงษ์ขยับปากร้องไปด้วย ส่วนการยืนมือไพล่หลัง เมื่อดูระเบียบสำนักนายกรัฐมนตรีพบระบุเพียงให้ยืนในอาการสำรวม ในส่วนนี้สามารถถกเถียงกันได้ว่าเหมาะสมหรือไม่

สุดท้ายคือ ความจริงอันเจ็บปวดที่พบจากการทำงาน คือ 1.เนื้อหาตรวจสอบแล้วว่าเท็จแต่ยังถูกอยู่ในระบบ เมื่อย้อนกลับไปดูโพสต์ที่เคยหยิบมาตรวจสอบ พบว่ายังอยู่ถึง 171 โพสต์ และถูกลบไปเพียง 46 โพสต์ 2.สื่อมวลชนมีส่วนในการเผยแพร่เนื้อหาเท็จ ทั้งที่สื่อมวลชนควรคัดกรองความเท็จและนำเสนอแต่ความจริงให้ประชาชนรับทราบเท่านั้น ไม่ใช่หยิบเนื้อหาบนโลกออนไลน์ที่เผยแพร่โดยบุคคลนิรนามมาเผยแพร่ต่อเพื่อปลุกปั่นความเกลียดชัง และ 3.คนจำนวนมากยังไม่เข้าใจ ไม่เห็นความจำเป็นและประโยชน์ของงานตรวจสอบข้อเท็จจริง 

Screenshot

หลายครั้งที่เราโพสต์รายงานการตรวจสอบในแพลตฟอร์มต่างๆ โดยเฉพาะเรื่องไทย – กัมพูชา จะมีความเห็น ‘ไม่จริงแล้วไง..มันสะใจดี..ปั่นประสาทเขมรดี’ หรือ ‘ดูก็รู้มันปลอมอยู่แล้ว..ปล่อยผ่านไม่ได้หรือ?..เขาล้อเล่นกันขำๆ’ หรือล่าสุดทีมงานของเราตรวจสอบคลิปวิดีโอไฟไหม้ร้านอาหารที่ดูไบ  พบว่าเป็นเท็จเพราะเป็นเหตุการณ์อิหร่านโจมตีอิสราเอล พบว่ามีคนมาคอมเมนต์ว่า ‘ต้องว่างมากเลยนะถึงมานั่งเช็คอะไรพวกนี้’ แม้ในความจริงเราจะเจอกับความจริงที่น่าเจ็บปวดแค่ไหน ทีมงานโคแฟคยังจะทำหน้าที่ของเราต่อไปอย่างดีที่สุด กุลธิดากล่าว