สำรวจข้อดี-ข้อเสียของระบบ Community Notes ที่เมตาจะเริ่มใช้เร็ว ๆ นี้

บทความ

เมื่อวันที่ 7 มกราคม 2568 มาร์ก ซักเคอร์เบิร์ก ซีอีโอบริษัทเมตา เจ้าของแพลตฟอร์มโซเชียลมีเดียยักษ์ใหญ่อย่างเฟซบุ๊ก อินสตาแกรม และเธรดส์ ได้ออกมาแถลงเกี่ยวกับการเปลี่ยนแปลงนโยบายของบริษัทกลับสู่ “รากเหง้า” ของแพลตฟอร์มในการเป็นพื้นที่เสรีภาพด้านการแสดงความคิดเห็น ด้วยการยกเลิกโครงการตรวจสอบข้อเท็จจริงโดยบุคคลที่สามและเตรียมหันมาใช้ฟีเจอร์ Community Notes คล้ายกับที่ใช้บน X แทน

ความเปลี่ยนแปลงครั้งใหญ่นี้มาจากการที่ซักเคอร์เบิร์กมองว่าผู้ตรวจสอบข้อเท็จจริงอิสระใช้อำนาจและอคติจนข้ามเส้นจากการตรวจสอบไปสู่การเซนเซอร์เนื้อหา แต่นักวิเคราะห์หลายรายมองว่านี่เป็นกลยุทธ์ทางการเมืองที่เมตาใช้เพื่อเอาใจรัฐบาลสหรัฐอเมริกาในยุคของประธานาธิบดีโดนัลด์ ทรัมป์

Community Notes คืออะไร?

Community Notes หรือโน้ตชุมชน คือระบบที่เปิดโอกาสให้ผู้ใช้งานมีส่วนร่วมในการตรวจสอบความถูกต้องของเนื้อหาที่ถูกแชร์บนแพลตฟอร์ม โดยผู้ใช้งานที่มีคุณสมบัติเป็นผู้ให้ข้อมูล (contributor) จะสามารถเขียนโน้ตเพิ่มเติมเพื่ออธิบายหรือให้ข้อมูลที่ถูกต้องเกี่ยวกับโพสต์ที่อาจมีเนื้อหาเป็นเท็จ บิดเบือน หรือทำให้เข้าใจผิดได้ หากโน้ตได้รับการโหวตจากผู้ให้ข้อมูลอื่น ๆ ว่าเป็นข้อมูลที่เป็นประโยชน์เพียงพอ โน้ตเหล่านี้ก็จะปรากฏควบคู่ไปกับโพสต์ต้นฉบับเพื่อให้ผู้ใช้งานรายอื่น ๆ ได้พิจารณาข้อมูลทั้งสองด้านด้วยตัวเอง

หน้าตาของ Community Note ที่แพลตฟอร์ม X ทำขึ้นเป็นตัวอย่าง
(Credit @CommunityNotes via X)
เมื่อผู้ใช้งานเพิ่มโน้ตเพื่อให้ข้อมูลเพิ่มเติม ระบบจะให้ผู้ใช้งานคนอื่น ๆ โหวตว่าข้อมูลนั้นมีประโยชน์หรือไม่ ถ้าได้รับการโหวตเพียงพอ โน้ตนั้นก็จะปรากฏควบคู่ไปกับโพสต์ต้นฉบับ (Credit @CommunityNotes via X)

จากประสบการณ์การใช้งานจริงของผู้เขียน ทั้งในฐานะผู้ใช้งานโซเชียลมีเดียและผู้ตรวจสอบข้อเท็จจริง ร่วมกับการเก็บข้อมูลจากงานวิจัยและความคิดเห็นของผู้เชี่ยวชาญ โคแฟคจะพาผู้อ่านไปทำความเข้าใจข้อดี-ข้อเสียของระบบ Community Notes ของ X ซึ่งน่าจะเป็นแม่แบบให้กับระบบใหม่ของเมตาเร็ว ๆ นี้

ข้อดีของ Community Notes

● ทุกคนมีส่วนร่วมในการตรวจสอบข้อมูล

ผู้ให้ข้อมูลต้องมีคุณสมบัติเบื้องต้นเป็นผู้ใช้งานที่สร้างบัญชี X มาไม่ต่ำกว่าหกเดือน มีเบอร์โทรศัพท์สำหรับยืนยันตัวตน และไม่เคยละเมิดกฎการใช้งาน X ซึ่งถือว่าเป็นคุณสมบัติพื้นฐานที่ทำให้ใคร ๆ ก็สามารถมีส่วนร่วมในการตรวจสอบข้อมูลได้ เท่ากับว่าผู้ใช้งานจะมีบทบาทในการสร้างสรรค์ชุมชนและกำหนดลักษณะของเนื้อหาบนแพลตฟอร์มด้วยตัวเอง

● ไม่จำกัดแค่การตรวจสอบข่าวปลอม

ผู้ให้ข้อมูลไม่ได้ถูกจำกัดเพียงแค่ว่าจะต้องเพิ่มโน้ตเกี่ยวกับข่าวปลอมหรือข้อมูลบิดเบือนเท่านั้น แต่ยังสามารถเพิ่มบริบทใด ๆ ก็ได้เกี่ยวกับโพสต์ ไม่ว่าจะเป็นการให้ข้อมูลว่าโพสต์ดังกล่าวอาจจะเป็นการแฝงโฆษณาหรือการโปรโมตสินค้าปลอมก็ย่อมทำได้ โน้ตชุมชนจึงทำหน้าที่เสมือนบริบทหรือเนื้อหาเพิ่มเติมเกี่ยวกับโพสต์ ทำให้ผู้ใช้งานมีโอกาสได้รับข้อมูลที่หลากหลายรอบด้านมากกว่าเดิม

ตัวอย่างเช่น โพสต์ที่นำรูปของลูกฮิปโปของสวนสัตว์ซินซินนาติในสหรัฐอเมริกามาใช้และอ้างว่าเป็นลูกฮิปโปของสวนสมเด็จพระศรีนครินทร์ จังหวัดศรีสะเกษ โดยโน้ตชุมชนของผู้ให้ข้อมูลรายหนึ่งได้รับการโหวตและปรากฏขึ้นใต้โพสต์ดังกล่าวภายในเวลาไม่ถึง 24 ชั่วโมง และมียอดชมมากกว่า 18,000 ครั้ง ถือว่าเป็นความร่วมมือของผู้ใช้งานบนแพลตฟอร์มที่ช่วยกันตรวจสอบข้อมูลอย่างรวดเร็ว และไม่จำกัดเพียงแค่ประเด็นข่าวปลอมร้ายแรง อย่างเช่น ประเด็นการเมืองหรือภัยธรรมชาติเท่านั้น

● โปร่งใส-ตรวจสอบได้

โน้ตชุมชนถูกออกแบบมาให้เป็นระบบ crowdsourcing หรือระบบที่อาศัยความร่วมมือของกลุ่มคนที่หลากหลายโดยไม่มีการแทรกแซงจากตัวแพลตฟอร์มเอง ดังนั้น ข้อมูลของโน้ตที่ได้รับคะแนนโหวตให้ปรากฏใต้โพสต์ต่าง ๆ รวมถึงอัลกอริธึมการจัดลำดับโน้ตที่เป็นประโยชน์จึงสามารถเข้าถึงได้จากสาธารณะ

ข้อเสียของ Community Notes

● ขาดการตรวจสอบจากมืออาชีพ

เนื่องจากแนวคิดของโน้ตชุมชนคือการให้ผู้ใช้งานช่วยกันตรวจสอบข้อเท็จจริงของเนื้อหาในแพลตฟอร์มกันเอง เราจึงไม่อาจวางใจได้อย่างเต็มที่ว่าผู้ให้ข้อมูลมีความรู้ความเชี่ยวชาญในเรื่องที่ตัวเองเขียนโน้ตอย่างรอบด้านและปราศจากอคติ สิ่งสำคัญอย่างหนึ่งของการเขียนโน้ตชุมชนคือการอ้างอิงเว็บไซต์ที่มีความน่าเชื่อถือ ดังนั้น สุดท้ายแล้วผู้ให้ข้อมูลก็ยังจำเป็นต้องใช้แหล่งอ้างอิงจากบุคคลที่สาม เช่น รายงานข่าว หรือรายงานตรวจสอบข้อเท็จจริงจากเว็บที่เชื่อถือได้ ซึ่งถือเป็นเครื่องยืนยันหนึ่งว่าแพลตฟอร์มโซเชียลมีเดียต่าง ๆ ยังมีความจำเป็นต้องพึ่งพาพันธมิตรหรือองค์กรตรวจสอบข้อเท็จจริงเพื่อช่วยยับยั้งการแพร่กระจายของข่าวปลอม

● ใช้อัลกอริธึมตัดสิน

แม้ว่าจะมีโน้ตที่ได้รับการโหวตจากผู้ให้ข้อมูลรายอื่น ๆ ว่าเป็นข้อมูลที่เป็นประโยชน์ ก็ไม่ได้แปลว่าโน้ตเหล่านั้นจะปรากฏในโพสต์ที่เป็นปัญหา ที่ผ่านมามีโน้ตชุมชนที่ได้รับคะแนนโหวตว่าเป็นประโยชน์มากถึงร้อยละ 60 ที่ไม่ได้รับการเผยแพร่ เนื่องจากอัลกอริธึมของ X จะทำหน้าที่เป็นผู้ตัดสินว่าจะให้ระบบแสดงโน้ตดังกล่าวใต้โพสต์หรือไม่ ซึ่งนั่นหมายความว่าข้อมูลที่เป็นประโยชน์อาจไม่ได้ถูกเผยแพร่หรือไม่มีใครเห็นเลยหากอัลกอริธึมมองว่าคะแนนโหวตนั้นยังไม่ได้มาจากกลุ่มคนที่หลากหลายเพียงพอ

ภาพข้างบนเป็นตัวอย่างของโพสต์ที่อาจทำให้เข้าใจผิดว่าเป็นภาพรูปปั้นเทพออปติมัสไพรม์ของจริงในไทย ซึ่งมีผู้ให้ข้อมูลบางส่วนเขียนโน้ตชุมชนไว้แล้วว่านี่เป็นรูปที่สร้างจากเอไอ แต่โน้ตเหล่านั้นกลับไม่ปรากฏใต้โพสต์ดังกล่าวเพราะอัลกอริธึมมองว่ายังไม่ได้รับการโหวตจากกลุ่มผู้ใช้งานที่หลากหลายพอ การโพสต์เนื้อหาที่ถูกต้องไว้ใต้โพสต์นั้น ๆ จึงสามารถถูกมองเห็นและแชร์ไปยังผู้ใช้งานรายอื่น ๆ ได้อย่างรวดเร็วและมีประสิทธิภาพมากกว่าการใช้โน้ตชุมชน

เราคงไม่สามารถปฏิเสธได้ว่ามนุษย์ทุกคนย่อมมีอคติหรือความเชื่อส่วนตัวของตัวเอง และโซเชียลมีเดียก็เป็นหนึ่งในพื้นที่ที่ทุกคนสามารถแสดงความคิดเห็นของตัวเองได้ ดังนั้น ความพยายามของแพลตฟอร์มที่จะเป็นพื้นที่ของอิสรภาพในการแสดงออก ก็อาจจะไม่สามารถส่งเสริมให้แพลตฟอร์มนั้น ๆ เป็นพื้นที่ของข้อเท็จจริงได้ในเวลาเดียวกันหากปราศจากการควบคุมดูแลอย่างเหมาะสม

อย่างไรก็ตาม เมตายังไม่ได้ระบุเกี่ยวกับกรอบเวลาหรือระบบ Community Notes อย่างชัดเจน โดยกล่าวเบื้องต้นเพียงว่ามีแผนเริ่มใช้งานระบบดังกล่าวในสหรัฐอเมริกาภายในอีกไม่กี่เดือนข้างหน้า และจะขยายการใช้งานไปยังประเทศอื่น ๆ ในอนาคต

เรื่องอื่น ๆ ที่น่าสนใจ

‘ข่าวลวง-ข้อมูลบิดเบือน’ภัยคุกคามโลก ยุค ‘AI’ยิ่งเนียนแยกยาก ‘รู้เท่าทัน’ยิ่งจำเป็น ‘ตรวจสอบ’หน้าที่ทุกคน

กิจกรรม

11 ก.พ. 2568 ภาคีโคแฟค (ประเทศไทย) ร่วมกับ สำนักงานกองทุนสนับสนุนการสร้างเสริมสุขภาพ (สสส.) มูลนิธิอินเทอร์เน็ตร่วมพัฒนาไทย ศูนย์ชัวร์ก่อนแชร์ สำนักข่าวไทย อสมท. ThaiPBS และกองทุนพัฒนาสื่อปลอดภัยและสร้างสรรค์ ร่วมจัดงานวันอินเทอร์เน็ตปลอดภัยสากล (Safer Internet Day 2025) ยกระดับรับมือข้อมูลลวง 4.0 เพื่อลดภัยคุกคามโลก

สุภิญญา กลางณรงค์ ผู้ร่วมก่อตั้งภาคีโคแฟค (ประเทศไทย) กล่าวว่า สภาเศรษฐกิจโลก (World Economic Forum หรือ WEF) กำหนดให้ข่าวลวงเป็นวาระแห่งโลก โดยระบุว่า ในห้วงเวลา 2 – 3 ปีนี้ เรื่องของข้อมูลบิดเบือน – คลาดเคลื่อน (Disinformation , Misinformation) คือภัยคุกคามอันดับ 1 ของโลก โดยเฉพาะผลกระทบจากเทคโนโลยีปัญญาประดิษฐ์ (AI) 

งานที่เราทุกคนทำ นอกจากจะลดปัญหาในเมืองไทยแล้ว เราก็น่าจะช่วยลดภัยคุกคามโลกได้ด้วยเพราะเป็นปัญหาที่ใหญ่จริงๆ เป็นที่มาของการที่เรารับมือร่วมกัน สุภิญญา กล่าว

กุลธิดา สามะพุทธิ บรรณาธิการภาคีโคแฟค (ประเทศไทย) กล่าวว่า รายงาน WEF Global Risk Report 2024 ระดมนักวิชาการและผู้เชี่ยวชาญเกือบ1,500 คน ทั้งจากภาครัฐ ภาคเอกชนและภาคประชาสังคม จัดลำดับความเสี่ยงที่ส่งผลกระทบต่อโลก และลงความเห็นว่า ข้อมูลบิดเบือน – คลาดเคลื่อน จะเป็นความเสี่ยงอันดับ 1 ในช่วงเวลาอันสั้นนี้ เนื่องจากเป็นช่วงที่หลายประเทศมีการเลือกตั้ง จึงคาดการณ์ว่าจะมีการใช้เนื้อหาเท็จเป็นเครื่องมือเอาชนะกันทางการเมืองจำนวนมาก

ซึ่งผลกระทบจากข้อมูลเท็จหวังผลในทางการเมือง เช่น อาจนำไปสู่การไม่ยอมรับผลการเลือกตั้ง ลุกลามสู่สถานการณ์ความรุนแรง ทำให้การรับรู้ความจริงของแต่ละคนแตกต่างกันอย่างสุดขั้วจนแทบจะคุยกันไม่ได้ในทุกเรื่อง และอีกด้านหนึ่งก็อาจเป็นข้ออ้างเรื่องการต่อต้านข่าวปลอมให้รัฐบาลควบคุมการเผยแพร่ข้อมูลข่าวสารและการแสดงความคิดเห็นของประชาชน โดยยอมให้เผยแพร่เฉพาะสิ่งที่รัฐบาลเห็นว่าถูกต้องเท่านั้น เป็นต้น

ขณะที่งาน Fact Checker หรือ นักตรวจสอบข้อเท็จจริง นั้นใช้เวลาไม่น้อยในการหาหลักฐานจากหลายแหล่งมาหักล้างข้อมูลเท็จอีกทั้งยังต้องเรียบเรียงให้เข้าใจง่ายและน่าเชื่อถือ และแม้จะทำออกมาแล้วคนก็ยังไม่ค่อยช่วยกันแชร์ ตรงข้ามกับข่าวลวงหรือเนื้อหาเท็จที่มีจำนวนมหาศาลอีกทั้งผลิตและเผยแพร่ได้อย่างรวดเร็ว รวมถึงยังดูหวือหวาน่าสนใจตื่นเต้นจนเห็นแล้วก็อยากแชร์ในทันที

อย่างไรก็ตาม การตรวจสอบข้อเท็จจริงเป็นสิ่งจำเป็นและมีพลัง และเชื่ออย่างสนิทใจว่างานที่พวกเราทำจะช่วยลดความเสี่ยงหรือภัยคุกคามของข่าวลวงได้ไม่มากก็น้อย ไม่ว่าจะเป็นข่าวลวง 1.0 ที่กุเรื่องโกหกขึ้นมาอย่างง่ายๆ หรือว่าเนื้อหาเท็จที่แนบเนียนเหมือนจริงมากด้วยเทคโนโลยีของ AIกุลธิดา กล่าว

ธนภณ เรามานะชัย Lead Trainer ของโคแฟคและ Certified Trainer ของ Google News Initiative เปิดประเด็นชวนคิดเรื่องการใช้ ปัญญาประดิษฐ์แบบรู้สร้าง (Generative AI)” เช่น ChatGPT โดยตั้งคำถาม รู้หรือไม่ว่า Generative AI นำข้อมูลจากไหนมาตอบ? และอยากให้ทำความเข้าใจว่า “Generative AI ไม่ใช่เครื่องมือสืบค้นข้อมูล แต่เป็นเครื่องมือสำหรับสร้างสรรค์เนื้อหาและคิดไอเดียใหม่ๆ 

ทั้งนี้ AI จะได้คำตอบมาก – น้อยเพียงใดขึ้นอยู่กับข้อมูลที่ AI ได้เรียนรู้ (Training Model) ดังนั้นหากถามในสิ่งที่ยังไม่เคยเกิดขึ้นมาก่อน หรือถามในสิ่งที่เป็นการตีความทางสังคม ศาสนาและวัฒนธรรม ซึ่งข้อมูลประเภทนี้สามารถตีความได้อย่างหลากหลาย รวมถึงการใช้ถ้อยคำที่มีความหมายกำกวมไม่ชัดเจน ลักษณะนี้ Generative AIอาจให้คำตอบอย่างไม่ครบถ้วนรอบด้าน หรือแม้แต่สมมติข้อมูลขึ้นมา ทำให้ไม่ได้ข้อมูลตรงกับที่ต้องการ

ในฐานะที่ทำเรื่องการปลูกฝังความเข้าใจที่ถูกต้องเกี่ยวกับเครื่องมือ AI อย่างสร้างสรรค์ ผมอาจสรุปมาเป็น 4 ข้อด้วยกัน 1.เราต้องใช้ Generative AI เป็นเครื่องมือสร้างสรรค์ผลงาน เราต้องคิดว่า AI เสมือนว่าเป็นผู้ช่วยส่วนบุคคล เหมือนกับเราสั่งงานกับมัน 2.เราต้องไม่ใช่ Generative AI เป็นแหล่งอ้างอิงหลัก ควรตรวจสอบข้อมูลจากแหล่งที่มาต้นฉบับ และค้นหาร่วมกับ Search Engine (เครื่องมือสืบค้นข้อมูลในอินเตอร์เน็ตด้วย 3.การเขียนคำสั่ง หรือ Prompt ต้องเน้นการออกคำสั่ง Prompt คือคำสั่งไม่ใช่คำถาม 

ดังนั้นการใช้ Generative AI ที่ดีคือสั่งงานให้มันทำ เราถึงจะเป็นผู้ใช้งาน Generative AI ที่มีประสิทธิภาพ ใช้งานแล้วได้คำตอบ สั่งให้ทำงานแทนที่จะถามคำถาม และสุดท้าย 4.ผมก็อยากจะส่งเสริมการเรียนการสอนในปัจจุบันนี้ แน่นอนเราหลีกเลี่ยงการใช้ Generative AI ในการเรียนการสอนไม่ได้ จึงอยากให้หลายๆ ครั้งกลับมามองว่าเราจะส่งเสริมการสอบแบบ Generative AI เน้นกระบวนการทำเป็นลำดับขั้น โดยเฉพาะทักษะการเขียนคำสั่ง Prompt อาจต้องเริ่มจากการลำดับประโยคและพื้นฐานไวยากรณ์ที่จำเป็นต่อการออกคำสั่ง ธนภณกล่าว

พีรพล อนุตรโสตถิ์ ผู้จัดการศูนย์ชัวร์ก่อนแชร์สำนักข่าวไทย อสมท กล่าวถึงประสบการณ์ 10 ปี ของการทำงานตรวจสอบข้อมูลของศูนย์ชัวร์ก่อนแชร์ นับจากรายการโทรทัศน์ในปี 2558 ซึ่งพบความท้าทาย เช่น คนเลือกจะเชื่อในสิ่งที่อยากเชื่อ ข้อมูลลวงสามารถผลิตและส่งต่อได้ง่ายและเร็ว บวกกับกลไกตลาดยังกระตุ้นให้ข้อมูลเหล่านี้เกิดขึ้นด้วยเห็นว่ายิ่งทำให้แปลก รุนแรงหรือตื่นเต้นเพียงใด ก็จะยิ่งมีคนสนใจจำนวนมาก นำมาซึ่งรายได้ของคนที่ทำ แต่ข้อมูลที่ไม่จริงเหล่านี้เมื่อเข้าระบบไปแล้วการแก้ไขกลับทำได้ยาก

ทั้งนี้ บทบาทของชัวร์ก่อนแชร์ ที่ผ่านมาทำหน้าที่ของสื่อมวลชน โดยจากเดิมที่สื่อมวลชนจะไม่รายงานเรื่องที่ไม่จริง แต่ปัจจุบันเรื่องไม่จริงสื่อมวลชนก็ต้องรายงานว่าไม่จริงด้วย เพราะปัจจุบันสื่อตัวเล็กลงแต่มวลชนตัวใหญ่ขึ้น สามารถส่งสิ่งต่างๆ ได้มากขึ้น มวลชนทั้งสร้าง ส่งและเสพ ขณะที่สื่อทำหน้าที่สร้างและส่ง ดังนั้นสิ่งที่ชัวร์ก่อนแชร์พยายามทำคือการส่งต่อความรู้และประสบการณ์ไปยังมวลชนให้มีแนวคิดที่ปลอดภัยกับสังคม 

ที่ผ่านมาพยายามหักล้างข้อมูล เราอยากทำ 3 อย่าง คือปกปัก หักล้างและสร้างภูมิ จริงๆ หักล้างเริ่มก่อน แล้วก็การทำให้คนมีภูมิคุ้มกันเราก็อยากทำมากขึ้น แล้วระยะยาวเราก็พยายามทำเรื่อง Literacy Education (การศึกษาเพื่อรู้เท่าทัน) พีรพล กล่าว

พรวุฒิ พิพัฒนเดชศักดิ์ หัวหน้าฝ่ายนโยบายและนวัตกรรม สภาผู้บริโภค กล่าวว่า สภาผู้บริโภคดูข้อมูลบิดเบือนแบ่งเป็น 3 กลุ่ม 1.ภัยคุกคามทางออนไลน์ เช่น มิจฉาชีพ การละเมิดข้อมูลส่วนบุคคล 2.เมืองที่เป็นธรรม เช่น โครงการอสังหาริมทรัพย์ที่มีการโฆษณาชวนเชื่อต่างๆ นานา  และ 3.ความเป็นอยู่ที่ดีของผู้บริโภค เช่น โฆษณาอาหารและยาที่เกินจริง

ขณะที่งานนวัตกรรมที่ตนดูแลอยู่ เป็นการรับข้อมูลทั้งจากเรื่องร้องเรียน ข้อมูลจากหน่วยงานภาครัฐ จากภาคีเครือข่ายภาคประชาสังคม โดยการประมวลผลมีทั้งการประชุมกลุ่มเฉพาะ (Focus Group) พูดคุยกับกลุ่มผู้เสียหายว่าปัญหาคืออะไร ส่วนที่เป็นข้อมูลเชิงเทคนิคก็ให้นักวิชาการมาทำวิจัย หรือขอความคิดเห็นจากผู้ทรงคุณวุฒิ เชิญมาร่วมประชุมระดมสมอง

เราสนับสนุนให้มีการร้องทุกข์ เพราะว่ายิ่งเรามีเรื่องร้องเรียนมากเท่าไร เราก็จะยิ่งมีข้อมูลต่างๆ ที่จะนำไปสู่กระบวนการจัดการและกรองออกมาเป็นข้อมูลที่มีความน่าเชื่อถือมากขึ้น หัวหน้าฝ่ายนโยบายและนวัตกรรม สภาผู้บริโภค กล่าว

กนกพร ประสิทธิ์ผล ผู้อำนวยการสื่อสำนักดิจิทัลThaiPBS กล่าวว่า ข้อมูลล่าสุดในเดือน ก.พ. 2568 โดย We Are Social พบว่า ค่าเฉลี่ยการใช้เวลากับอินเตอร์เน็ตต่อวันของคนไทยสูงกว่าค่าเฉลี่ยของโลก และหากเป็นการใช้อินเตอร์เน็ตผ่านโทรศัพท์มือถือจะอยู่ในอันดับ 5 ของโลก อีกทั้งไทยยังมีความพร้อมด้านโครงสร้างพื้นฐานที่เกี่ยวข้องกับอินเตอร์เน็ตสูงเป็นอันดับ 9 ของโลก 

แต่ในทางกลับกัน ข้อมูลจากสำนักงานตำรวจแห่งชาติ ณ ปี 2567 พบว่า คนไทยเจอภัยออนไลน์ เช่น แก๊งคอลเซ็นตอร์ ถูกหลอกขายสินค้า หลอกลงทุน – กู้เงิน ทุกอย่างเหมือนเหรียญที่มีสองด้านเทคโนโลยีไม่ได้มีแต่เรื่องที่ดี ยังมีมิจฉาชีพอยู่ด้วยเช่น ปัญญาประดิษฐ์ (AI) ด้านหนึ่งถูกใช้เพื่อตรวจสอบความถูกต้องของข้อมูล แต่อีกด้านก็มีมิจฉาชีพนำไปใช้ อย่างประสบการณ์ที่เคยนำภาพและคลิปวีดีโอที่ AI ทำขึ้นไปให้บุคคลหลากหลายช่วงอายุและระดับการศึกษาดู พบว่ามีคนทุกช่วงวัยและการศึกษาที่ตอบผิด ดังนั้นความเนียนของ AI ก็เป็นภัยได้เช่นกัน

และแม้ข่าวลวงมีมานานแล้ว แต่มีปัจจัยที่ทำให้แพร่กระจายได้มากขึ้น 1.การมาของสื่อสังคมออนไลน์ (Social Media) ที่ทำให้ข้อมูลถูกส่งต่อได้ง่าย เช่น แสดงความคิดเห็น (Comment) ปุ่มส่งต่อ (Share) 2.การพัฒนาของเทคโนโลยีปัญญาประดิษฐ์ เมื่อ AI สามารถผลิตข้อมูลที่เนียนมากขึ้น สวนทางกับแพลตฟอร์มที่ไม่มีเทคโนโลยีควบคุมได้ทัน 3.ขาดทักษะ คนยังขาดความรู้เท่าทัน ยิ่งยุค AI ที่ทำให้แยกแยะได้ยาก ประกอบกับพฤติกรรมคนเปลี่ยนไปตามการใช้สื่อสังคมออนไลน์ อ่านน้อยลง สมาธิสั้น 4.ข่าวลวงสามารถใช้เป็นเครื่องมือสร้างรายได้ และ 5.ช่องโหว่การกำกับดูแล ทั้งจากภาครัฐและแพลตฟอร์ม

ThaiPBS ที่เป็นสื่อสาธารณะทำอะไร? ได้เกิด ThaiPBS Verify ขึ้นมา วัตถุประสงค์ตอนนี้ ช่วยตรวจสอบ ช่วยเสริมทักษะ สร้างชุมชนหรือรวบรวมเนื้อหาให้คนเข้าไปตรวจสอบได้ พยายามให้เข้ากับมาตรฐาน IFCN (International Fact Checking Network) สร้างบรรทัดฐานอุตสาหกรรมสื่อ จะตรวจสอบคนอื่นได้ตัวเองก็ต้องไม่ผิดด้วย เพราะถ้าผิดคือมหันตภัยหนักกว่าอีก ก็ต้องยกระดับทั้งข้างนอกและข้างในด้วย กนกพร กล่าว

ชนิดา จันทเลิศลักษณ์ ผู้อำนวยการบริหารสมาคมผู้ผลิตข่าวออนไลน์ (SONP) กล่าวว่า SONP ทำโครงการ Cyber Booster ร่วมกับสำนักงานตำรวจแห่งชาติ กองทุนพัฒนาสื่อปลอดภัยและสร้างสรรค์ รายการสถานีประชาชน ทาง ThaiPBS  และ Tellscore แพลตฟอร์มรวมอินฟลูเอนเซอร์ ร่วมกันผลิตสื่อที่ต้องการบอกกับประชาชนว่าให้เท่าทันกับภัยออนไลน์

“Cyber Booster ก็คือการรวมตัวของตำรวจ โครงการนี้จะมีความแตกต่าง วิทยากรแต่ละท่านจะเตือนเราเรื่องข้อมูลลวง ดังนั้นในการทำโครงการเราก็เลยคิดว่าคนที่จะให้ข้อมูล คนที่จะเตือนภัยได้ดีที่สุดก็คือเจ้าหน้าที่รัฐซึ่งเป็นตำรวจ การที่เขาคลุกคลีและมีข้อมูลอยู่ในมือ เขาจะต้องเป็นคนที่ให้ข้อมูล ผลิตและสร้างสรรค์คลิปจำนวน 16 คลิป รวบรวมภัยทุกรูปแบบในการเตือน ไม่ว่าจะเป็นลวงให้รัก หลอกลงทุน ชนิดา กล่าว

ตรี บุญเจือ ผู้อำนวยการสำนักรับเรื่องร้องเรียนและคุ้มครองผู้บริโภคในกิจการกระจายเสียงและโทรทัศน์ สำนักงาน กสทช. กล่าวว่า เมื่อพูดถึงการรู้เท่าทันสื่อ เราพูดถึงประสบการณ์ ความรู้ การเข้าถึงข้อมูลข่าวสาร จะสามารถทำให้เราคิด วิเคราะห์ ประเมินผลและตรวจสอบข้อมูลที่จริงและลวงได้ แต่ความท้าทายคือสื่อในรูปแบบความคิดเห็นมากกว่าข้อเท็จจริง ซึ่งบางครั้งก็ไม่ใช่ข้อมูลที่สามารถเชื่อถือได้ทั้งหมด ดังนั้นจึงต้องวิเคราะห์มากขึ้น ประเมินค่าที่เกิดขึ้นกับตัวเราและสังคมมากขึ้น

ปัจจุบันเราทำอะไรอยู่บ้าง เรามีองค์ประกอบอยู่หลายองค์ประกอบ ไม่ว่าจะเป็นหน่วยงานภาครัฐที่มีเครื่องมือเป็นกฎหมาย เป็นนโยบายต่างๆ เราสามารถขับเคลื่อนได้ ภาครัฐเราอาจมีทุน มีทรัพยากรบางอย่างที่ส่งต่อให้หน่วยงานต่างๆ มีกองทุนพัฒนาสื่อปลอดภัยและสร้างสรรค์ มี กสทช. มีกองทุน กทปส. ด้วย เรามีทุนที่จะสามารถขับเคลื่อนได้ ภาคส่วนที่เป็นสื่อเองเราพูดถึงความรับผิดชอบกันอยู่แล้วในการตรวจสอบข้อมูลข้อเท็จจริงแต่สามารถทำได้มากกว่านั้น เราสามารถร่วมรณรงค์และใช้พื้นที่ของเราในการณรงค์ได้ 

ตัวแพลตฟอร์ม เจ้าของพื้นที่ มีทั้งผู้ให้บริการโทรศัพท์มือถือและแพลตฟอร์มต่างๆ แล้วก็ภาคประชาสังคมเองร่วมขับเคลื่อน หลายๆ องค์กร อย่างโคแฟคที่พูดถึงการตรวจสอบข้อเท็จจริง เราก็คงจะสร้างความรู้ความเข้าใจร่วมกัน  สร้างความร่วมมือ บูรณาการระหว่างหน่วยงานในมิติต่างๆและหลังจากเทคโนโลยีพัฒนาไป เราก็อาจต้องพัฒนาเทคโนโลยีเข้ามาตรวจสอบเฝ้าะรังด้วยผอ.สำนักรับเรื่องร้องเรียนและคุ้มครองผู้บริโภคในกิจการกระจายเสียงและโทรทัศน์ สำนักงาน กสทช.กล่าว

ชำนาญ งามมณีอุดม รองผู้จัดการกองทุนพัฒนาสื่อปลอดภัยและสร้างสรรค์ กล่าวถึงแนวคิดการกำกับดูแลเทคโนโลยีปัญญาประดิษฐ์ เช่น Principles for Trustworthy AI โดยองค์การเพื่อความร่วมมือทางเศรษฐกิจและการพัฒนา (OECD) ขณะที่สหภาพยุโรป (EU) มี AI Convention ส่วนกลุ่มประเทศในภูมิภาคเอเชียตะวันออกเฉียงใต้ (อาเซียน) มีหลักการและจริยธรรมในการพัฒนา AI (Principles และ Ethics) 

หลักการของการพัฒนา AI ที่ดี หลักการสำคัญอันหนึ่งคือ Transparency (ความโปร่งใส) เรื่องเกี่ยวกับความโปร่งใสของข้อมูล ฉะนั้นจะต้องแสดงให้เห็นว่าในมิติของการพัฒนา ข้อมูลไม่ว่าจะเป็นตัวอักษร ภาพ เสียง มันถูก AI เข้าไปแก้ไขตรงไหนได้บ้าง แต่ต้องยอมรับว่าถ้าเกิดมีมิจฉาชีพที่ตั้งใจ รู้อยู่แล้วว่าเราใช้ AI หรือปัญญาประดิษฐ์ทำ แต่ก็ตั้งใจเอามาหลอกคนอื่น ที่เราเรียกว่า Impersonation (การปลอมตัวเป็นบุคคลอื่นนี่คือสิ่งที่เป็นปัญหา รองผู้จัดการกองทุนพัฒนาสื่อปลอดภัยและสร้างสรรค์ กล่าว 

-/-/-/-/-/-/-/-/-/-/-


รับประทานไก่เป็นเกาต์ จริงหรือ     

“รับประทานไก่เยอะระวังเป็นเกาต์” ประโยคที่หลาย ๆ คนได้ยินกันจนชิน ทำให้ผู้คนคิดมากทุกครั้งเวลารับประทานไก่ เนื่องจากโรคเกาต์เป็นโรคที่น่ากลัว ปวดตามข้อบนร่างกายไปจนถึงความพิการ หรือการเกิดโรคอื่นตามมา แต่การกินไก่ทำให้เป็นเกาต์จริงหรือ

       โรคเกาต์ เป็นโรคข้ออักเสบซึ่งเกิดจากกรดยูริคในเลือดสูง โดยทั่วไปเป็นผลจากพันธุกรรมและภาวะแวดล้อม ส่งผลให้เกิดการสะสมภายในข้อต่าง ๆ ของร่างกาย ก่อให้เกิดอาการปวด บวม แดง ร้อน
              ซึ่งเกิดจากภาวะกรดยูริกในเลือดสูงเกินไป กรดยูริก เป็นสารชนิดหนึ่งในร่างกายที่สร้าง ขึ้นที่ตับ ซึ่งเกิดจากการสลายตัวของสารชนิดหนึ่ง ที่มีชื่อว่า “พิวรีน” โดยสาเหตุของกรดยูริกในเลือดสูง 70% เกิดจากการสร้างขึ้นเองของร่างกายตามธรรมชาติ ส่วนอีก 30% เกิดจากการทานอาหารที่มีกรดยูริคสูงเข้าไป การบริโภคอาหารที่มีกรดยูริกสูงอาจเพิ่มความเสี่ยงในการเกิดโรคเกาต์ ซึ่งเกิดจากการมีกรดยูริกในเลือดสูงและตกผลึกในข้อต่อ ซึ่งทำให้เกิดการอักเสบและปวดข้อต่อ
      ในกรณีการกินไก่ ซึ่งไก่มีกรดยูริกในปริมาณปานกลางเมื่อเทียบกับอาหารประเภทอื่นที่มีพิวรีนสูง เช่น เนื้อสัตว์ประเภทอื่นๆ, เครื่องในสัตว์, หรืออาหารทะเล แต่การกินไก่ในปริมาณมากหรือการรับประทานอาหารที่มีพิวรีนสูงเกินไปอาจเพิ่มโอกาสเกิดโรคเกาต์ในคนที่มีความเสี่ยงหรือมีปัญหาเกี่ยวกับกรดยูริกสูงอยู่แล้ว

ดังนั้น การทานไก่ “ไม่ใช่” สาเหตุที่ทำให้เกิดโรคเกาต์ เพราะร่างกายรับกรดยูริคมาจากอาหารอื่น ๆ ได้อีกมากมาย โดยอาหารที่มีกรดยูริคสูง ทำให้สะสมในร่างกายมากเกินไป

(ข้อมูลจากเว็บไซต์ : สำนักข่าววันนิวส์ ช่องวัน 31 / กรมอนามัย / โรงพยาบาลรามคำแหง นพ. เกียรติ ภาสภิญโญ อายุรศาสตร์โรคข้อ และรูมาติสซั่ม )

สรุปข่าวจริง ลวงประจำวันที่ 1 มีนาคม 2568

ใบกระเจี๊ยบแดง มีสรรพคุณช่วยทำให้ตับแข็งแรง และลดความเสี่ยงโรคตับ…จริงหรือ?

อ่านต่อได้ที่  https://cofact.org/article/3q8rkenjgj1bq


 ยืนปัสสาวะบ่อย เสี่ยงต่อมลูกหมากโตและมะเร็ง!…จริงหรือ?

อ่านต่อได้ที่  https://cofact.org/article/3ll7uxk6dz2ko


พบเฮลิคอปเตอร์ยกรถบรรทุกขนส่งน้ำมันจากฝั่งไทยข้ามไปยังเมียวดี …จริงหรือ?

อ่านต่อได้ที่  https://cofact.org/article/3t5os0lp4be3


ไทยสร้างรั้วกั้นชายแดนไทยและกัมพูชา ระยะทางความยาว 55 กิโลเมตร…จริงหรือ?

อ่านต่อได้ที่  https://cofact.org/article/12pil23eka1d4


  เตือนห้ามดื่มนมดิบ หลังพบไข้หวัดนกในสัตว์เลี้ยงลูกด้วยนม

อ่านต่อได้ที่  https://cofact.org/article/19n7rk40c2m2


อุตุฯเตือน ไทยตอนบนอากาศแปรปรวน มีฝนฟ้าคะนอง เหนือ-อีสานมีลูกเห็บตกบางพื้นที่

อ่านต่อได้ที่  https://cofact.org/article/36gl4efxlluc5


แอปออนไลน์ ชุดผีเสื้อ AI แต่งตัว อาจโดนเรียกเก็บเงิน ดูวิธียกเลิก

อ่านต่อได้ที่  https://cofact.org/article/2o3el3bvb35xd


 กระทรวงเกษตรฯ เตรียมจับมือเอกชน พัฒนาเทคโนโลยี AI สร้าง Smart Farmer

อ่านต่อได้ที่  https://cofact.org/article/27p4kfhnathvi


เตรียมย้าย บขส. หมอชิต 2 เอกมัย สายใต้ ไปสถานีกลางกรุงเทพอภิวัฒน์

อ่านต่อได้ที่  https://cofact.org/article/3u2iuzprytpo8


 กทม. เปิดปฏิบัติการทำความสะอาดเครื่องหมายจราจรบนพื้นทางและทางข้าม

อ่านต่อได้ที่  https://cofact.org/article/3d8svynuwhi5t


ใส่ผ้าอนามัยระยะเวลานาน ทำให้เสี่ยง “มะเร็งปากมดลูก”

มะเร็งปากมดลูก นับว่าเป็นภัยคุกคามสุขภาพของผู้หญิงไทยอย่างมาก โดยเฉพาะในช่วงอายุ 35-50 ปี แต่ในปัจจุบันก็พบผู้ป่วยในช่วงวัยรุ่นเพิ่มขึ้นเรื่อยๆ ทำให้สังคมเกิดการตั้งคำถามถึงประเด็นที่ว่า  การไม่เปลี่ยนผ้าอนามัยบ่อยๆ นั้นมีส่วนทำให้เกิดมะเร็งปากมดลูกจริงหรือไม่

การเกิดมะเร็งปากมดลูกนั้น เกิดจากการติดเชื้อ HPV (Human papilloma virus) ซึ่งปกติมัก มาจากการมีเพศสัมพันธ์ ผ่านการสัมผัสผิวหรือเยื่อบุอวัยวะเพศ หรือการที่ปากมดลูกมีรอยถลอกหรือแผลทำให้ติดเชื้อ รวมไปถึงการสูบบุหรี่ที่ทำให้ภูมิต้านทานของร่างกายลดลง

แนวทางการป้องกันโรคมะเร็งปากมดลูกสามารถทำได้ดังนี้

  • 1. หมั่นตรวจคัดกรองเพื่อค้นหามะเร็งปากมดลูกในระยะแรกเริ่มซึ่งสามารถตรวจคัดกรองได้โดย แพปสเมียร์ (Pap Smear) และการตรวจหาเชื้อ HPV 
  • 2. ฉีดวัคซีนป้องกันการติดเชื้อ HPV
  • 3. คุมกำเนิดโดยใช้ถุงยางอนามัย
  • 4. งดสูบบุหรี่
  • 5.หลีกเลี่ยงการมีเพศสัมพันธ์เมื่ออายุน้อย 
  • 6. หลีกเลี่ยงการมีคู่นอนหลายคน

ทั้งนี้การใส่ผ้าอนามัยแผ่นเดิมเป็นระยะเวลานาน  ก็สามารถส่งผลให้เกิดความเสี่ยงต่อการติดเชื้อแบคทีเรียหรือเชื้อรา ที่ทำให้เกิดอาการระคายเคือง อาการคัน หรือเชื้อเหล่านี้อาจแพร่ไปยังทางเดินปัสสาวะทำให้เกิดโรคอื่น ๆ ตามมา ดังนั้นจึงควรเปลี่ยนผ้าอนามัยทุกๆ 4-6 ชั่วโมง หรือตามปริมาณประจำเดือนที่มีในแต่ละวันให้เหมาะสม

(ข้อจาก คณะแพทย์ศาสตร์ โรงพยาบาลรามาธิบดี / คณะแพทยศาสตร์ ศิริราชพยาบาล / สถาบันมะเร็งแห่งชาติ กรมการแพทย์ กระทรวงสาธารณสุข )

Cofact

https://cofact.org/article/3pw67a6ue2mem

คุยกับ 2 ผู้สมัคร ส.อบจ. เชียงใหม่-ลำพูน ว่าด้วยข่าวลวงช่วงหาเสียงเลือกตั้ง

กองบรรณาธิการ Lanner

การเลือกตั้งนายกและสมาชิกสภาองค์การบริหารส่วนจังหวัด (อบจ.) เมื่อวันที่ 1 กุมภาพันธ์ 2568 ผู้สมัครรับเลือกตั้งหลายคนผ่านประสบการณ์ถูกใส่ร้ายป้ายสี ปล่อยข่าวลวงเพื่อทำลายชื่อเสียงหรือสร้างความสับสน ผู้สมัครสมาชิกสภา อบจ. จังหวัดลำพูนและเชียงใหม่ มาย้อนเหตุการณ์ให้ฟังว่าเขาและเธอพบเจออะไรกันมาบ้าง

ลำพูน: ความรุนแรงทางการเมืองหรือกลยุทธ์เรียกคะแนนเสียง?

19 มกราคม 2568 หรือก่อนวันเลือกตั้งราว 2 สัปดาห์ นายวีระเดช ภู่พิสิฐ ผู้สมัครนายก อบจ. ลำพูน พรรคประชาชน ได้โพสต์เฟซบุ๊กเล่าเหตุการณ์ว่ามีชายคนหนึ่งทำลายป้ายหาเสียงของ นนท์ณัฎฐ์ สุริยะจักร์ ผู้สมัครรับเลือกตั้ง ส.อบจ. เขต 7 อำเภอเมืองลำพูน พรรคประชาชน ซึ่งเป็นป้ายที่ติดอยู่กับรถหาเสียง พร้อมทั้งกระทืบรถ เมื่อผู้สมัครเข้าไปห้ามปรามชายคนดังกล่าวก็ปาหินใส่กระจกหน้ารถยนต์ส่วนตัวของผู้สมัคร กรณีนี้ผู้สมัครได้แจ้งความดำเนินคดีกับผู้ก่อเหตุแล้วแต่คดียังไม่มีความคืบหน้า

นอกจากภาพป้ายหาเสียงที่ถูกทำลายและรถยนต์ที่เสียหายจากการถูกปาหิน ที่นายวีระเดชนำมาเผยแพร่ในเฟซบุ๊กแล้ว ยังมีผู้ใช้ TikTok โพสต์คลิปวิดีโอเหตุการณ์ที่เกิดขึ้นพร้อมข้อความว่า รถผู้สมัคร ส.อบจ. พรรคประชาชนลำพูน โดนหินปากระจกและฉีกป้ายหาเสียง

แม้จะมีภาพเหตุการณ์ยืนยันและการแจ้งความดำเนินคดีกับตำรวจ แต่นนท์ณัฎฐ์และทีมงานผู้สมัครพรรคประชาชน กลับถูกกล่าวหาว่า “ปล่อยข่าวเท็จ” เพื่อสร้างกระแส โดยมีผู้เข้ามาให้ความเห็นและแชร์เนื้อหาไปในลักษณะที่ว่าพรรคประชาชนรู้เห็นกับเหตุการณ์ที่เกิดขึ้น เหตุทำลายป้ายหาเสียงและทำลายรถยนต์เป็นการ “เล่นละคร” หรือ “สร้างคอนเทนต์” ให้คนสนใจเพื่อเรียกคะแนนสงสาร

ภาพป้ายหาเสียงของผู้สมัคร ส.อบจ. และนายก อบจ. ลำพูน พรรคประชาชนที่ถูกทำลาย
รถยนต์ส่วนตัวของผู้สมัคร ส.อบจ. ที่ถูกปาหินใส่กระจกหน้า

นอกจากในโลกออนไลน์แล้ว ในชุมชนก็ยังพูดกันลักษณะปากต่อปากว่านี่ไม่ใช่เหตุการณ์ที่เกิดขึ้นจริงอีกด้วย

นนท์ณัฎฐ์ ซึ่งชนะการเลือกตั้งเป็นว่าที่ ส.อบจ. เขต 7 อ.เมืองลำพูน ยืนยันว่าเหตุการณ์ทำลายป้ายหาเสียงและปาหินใส่รถยนต์ผู้สมัครพรรคประชาชนนั้นเกิดขึ้นจริง และเขาไม่รู้จักกับผู้ก่อเหตุ แต่ในโลกออนไลน์กลับมีการกล่าวหาว่าเขาสร้างกระแสหรือปล่อยข่าวเท็จเพื่อหวังคะแนนเสียง ซึ่งไม่เป็นความจริง

เขากล่าวเพิ่มเติมว่า ไม่เคยมีความขัดแย้งส่วนตัวกับใครและเหตุการณ์นี้เพียงเหตุการณ์เดียวไม่ได้มีผลกระทบต่อคะแนนเสียง เพราะเขาลงพื้นที่หาเสียงมานานนับปีก่อนจะมีการเลือกตั้ง

กรณีนี้สะท้อนให้เห็นรูปแบบหนึ่งของการบิดเบือนข้อมูลทางการเมืองด้วยการกล่าวหาว่าผู้สมัครรับเลือกตั้งปั้นแต่งเรื่องขึ้นเพื่อสร้างกระแสหรือเรียกคะแนนความเห็นใจ ข้อกล่าวหาเช่นนี้ ทำให้เหตุการณ์การทำลายป้ายหาเสียงและการปาหินใส่รถยนต์ ซึ่งนับเป็นการใช้ความรุนแรงในช่วงเลือกตั้ง ถูกมองข้ามไป

เชียงใหม่: ประชาชนสับสนหมายเลขผู้สมัคร จงใจหรือสุดวิสัย?

สงครามข้อมูลข่าวสารที่ กรรณิการ์ ลือชา ผู้สมัคร ส.อบจ.เชียงใหม่ พรรคประชาชน อ.สารภี เขต 1 เผชิญในช่วงหาเสียงเลือกตั้งคือ ความสับสนเรื่องหมายเลขและสังกัดพรรคการเมืองของผู้สมัคร ซึ่งยังหาข้อสรุปไม่ได้ว่าความสับสนนี้เกิดขึ้นโดยจงใจเพื่อหวังผลทางการเมืองหรือไม่

ผู้สมัคร ส.อบจ. อ.สารภี เขต 1 มีทั้งหมด 4 หมายเลข กรรณิการ์เป็นผู้สมัครเบอร์ 1 ราวหนึ่งสัปดาห์ก่อนถึงวันเลือกตั้ง ผู้สมัครเบอร์ 2 คือ นุชรี  อุตสุภา ผู้สมัครอิสระ ถูกคณะกรรมการการเลือกตั้ง (กกต.) ถอนชื่อจากการเป็นผู้สมัครรับเลือกตั้งเนื่องจากมีลักษณะต้องห้ามตามมาตรา 50 ของ พ.ร.บ.การเลือกตั้งสมาชิกสภาท้องถิ่นหรือผู้บริหารท้องถิ่น โดยองค์การบริหารส่วนจังหวัดเชียงใหม่ออกประกาศถอนชื่อนุชรีจากการเป็นผู้สมัครลงวันที่ 25 มกราคม 2568  

กรรณิการ์เล่าว่า ก่อนหน้านี้มีการเผยแพร่ข้อมูลว่านุชรี ผู้สมัครเบอร์ 2 เป็นผู้สมัครสังกัดพรรคประชาชน ซึ่งไม่เป็นความจริง ทำให้เธอและทีมงานต้องแก้ไขความเข้าใจผิดว่าผู้สมัครสังกัดพรรคประชาชนคือเบอร์ 1 ไม่ใช่เบอร์ 2 และหลังจากมีการถอนชื่อผู้สมัครเบอร์ 2 ก็ยังมีการเผยแพร่ข้อมูลที่สร้างความเข้าใจผิดว่า ผู้สมัครที่ถูกตัดสิทธิเป็นผู้สมัครสังกัดพรรคประชาชน 

กรรณิการ์ซึ่งชนะการเลือกตั้งและได้เป็นว่าที่ ส.อบจ. อ.สารภี เขต 1 ระบุว่า เธอรับรู้ถึงความเข้าใจผิดของประชาชนจากการลงพื้นที่หาเสียงในตลาดและชุมชน ซึ่งส่งผลกระทบต่อการหาเสียงของเธอมาก เพราะประชาชนเกิดความสับสน ทั้งในเรื่องหมายเลขและสังกัดของผู้สมัคร

“ต้องคอยแก้ไขข่าวลือที่บิดเบือน เพื่อให้ประชาชนได้รับข้อมูลที่ถูกต้อง” กรรณิการ์ระบุ

หลังการเลือกตั้ง นุชรี หรือ “เปีย” ผู้สมัครเบอร์ 2 ที่ถูกถอนชื่อได้โพสต์ข้อความในเฟซบุ๊กว่า “บัตรเสีย กว่า 2000 ใบที่มอบให้ด้วยใจ เปียขอขอบคุณ ทุกคะแนนเสียง จากความรัก” ซึ่งสื่อความหมายว่า ในการเลือกตั้งเมื่อวันที่ 1 กุมภาพันธ์ มีประชาชนที่ลงคะแนนให้ผู้สมัครเบอร์ 2 มากกว่า 2,000 คน จึงถือเป็นบัตรเสียเพราะผู้สมัครเบอร์ 2 ถูกถอนชื่อออกจากการเป็นผู้สมัครแล้ว

จากการตรวจสอบรายงานผลการนับคะแนนเลือกตั้ง ส.อบจ. อ.สารภี เขต 1 ที่เผยแพร่ทางเว็บไซต์ กกต. ระบุว่าเขตเลือกตั้งนี้มีผู้มาใช้สิทธิทั้งหมด 23,738 คน จำนวนบัตรดี 17,502 บัตร และบัตรเสีย 3,762 บัตร ซึ่ง กกต. ไม่ได้ระบุว่าบัตรเสียนั้นเกิดจากการลงคะแนนให้ผู้สมัครเบอร์ 2 ที่ถูกถอนชื่อหรือไม่ ข้อความที่นุชรีโพสต์ในเฟซบุ๊กให้เกิดความเข้าใจว่า บัตรเสียกว่า 2,000 ใบ เป็นบัตรที่ลงคะแนนให้เบอร์ 2 นั้น จึงยังไม่สามารถยืนยันได้ว่าเป็นเช่นนั้นจริง

เหตุการณ์ที่ผู้สมัคร ส.อบจ. ในจังหวัดลำพูนและเชียงใหม่ บอกเล่าให้ฟังข้างต้น เป็นตัวอย่างของเนื้อหาที่สร้างความเข้าใจผิดและความสับสนในช่วงก่อนการเลือกตั้ง ซึ่งพบได้ทั้งในพื้นที่ออนไลน์และออฟไลน์ คือ การพูดกันแบบปากต่อปากในตลาดหรือชุมชน เนื้อหาที่บิดเบือนหรือสร้างความสับสนนี้ย่อมส่งผลกระทบต่อการตัดสินใจของผู้มีสิทธิเลือกตั้ง และบั่นทอนบรรยากาศประชาธิปไตยได้ในระยะยาว

เรื่องอื่น ๆ ที่น่าสนใจ

ปี’67 คนไทยเจอมิจฯโทร-ส่งSMSถึง168ล้านครั้ง มุ่งโจมตีอารมณ์ความรู้สึก ชี้คนรอบข้างดึงสติก่อนตกเป็นเหยื่อได้

กิจกรรม

24 ก.พ. 2568 ที่อาคารฟอรั่ม ชั้น 2 วัน แบงค็อก (One Bangkok) บริษัท โกโกลุก ประเทศไทย ผู้ให้บริการแอปพลิเคชั่น Whoscall เปิดเผยรายงานวิเคราะห์สถานการณ์กลโกงของมิจฉาชีพในประเทศไทยตลอดปี 2567 ที่ผ่านมา โดย มนประภา รัตนกนกพร หัวหน้าฝ่ายการตลาด บริษัท โกโกลุก ประเทศไทย กล่าวว่า ในปี 2567 Whoscallพบสายโทรศัพท์และข้อความ SMS หลอกลวง 168 ล้านครั้ง เพิ่มขึ้นถึง 112% จากปี 2566 ซึ่งพบ 79 ล้านครั้ง และยังถือเป็นสถิติสูงสุดในรอบ 5 ปี

เมื่อจำแนกระหว่างสายโทรศัพท์กับข้อความหลอกลวง พบว่า ในส่วนของสายโทรศัพท์ ปี 2567 อยู่ที่ 38 ล้านครั้ง เพิ่มขึ้นถึง 85% เมื่อเทียบกับปี 2566 ซึ่งพบ 20.8  ล้านครั้ง ขณะที่ในส่วนของ SMS ปี 2567 อยู่ที่ 130 ล้านครั้ง เพิ่มขึ้นถึง 123% เมื่อเทียบกับปี 2566 ซึ่งพบ 58  ล้านครั้ง และเป็นที่น่าสังเกตว่ามิจฉาชีพใช้การหลอหลวงด้วย SMS ในปริมาณสูง เนื่องจากมีต้นทุนในการดำเนินการต่ำ อีกทั้งมิจฉาชีพยังนำเทคโนโลยีมาใช้ประดิษฐ์ข้อความ (Script) และใช้ส่ง SMS ได้ครั้งละเป็นจำนวนมาก

เมื่อจำแนกพฤติกรรมการหลอกลวง ในส่วนของสายโทรศัพท์ ปี 2567 อยู่ที่ 38 ล้านครั้ง ยังคงเป็นวิธีการเดิมๆ เช่น หลอกขายสินค้า แอบอ้างเป็นองค์กรหรือบริษัทต่างๆ หลอกว่าเป็นหนี้หรือหลอกทวงเงิน หลอกว่ามีแหล่งเงินกู้อนุมัติง่าย โดยมิจฉาชีพจะเล่นกับอารมณ์ของเหยื่อ เช่น ความโลภ ความกลัว เพื่อให้เหยื่อโอนเงินอย่างรวดเร็ว ขณะที่ ขณะที่ในส่วนของ SMS ปี 2567 อยู่ที่ 130 ล้านครั้ง สิ่งที่พบ เช่น เว็บพนัน (ให้เครดิตเล่นฟรี) หลอกส่งพัสดุ (อ้างพัสดุตกค้าง) หลอกว่ามีแหล่งเงินกู้อนุมัติง่าย แอบอ้างหน่วยงาน (เช่น การไฟฟ้า) หลอกลงทุน (อ้างผลตอบแทนสูง)

ทั้งนี้ จากการเก็บข้อมูล Link ที่มีความเสี่ยง ตามที่ Whoscall พัฒนาฟีเจอร์ Web Checker ขึ้นมาเพื่อตรวจสอบเว็บไซต์น่าสงสัย พบว่า 40% พาไปยังหน้าเว็บไซต์ที่มีลักษณะ Phishing หรือการหลอกให้ส่งข้อมูลส่วนบุคคล ส่วนอีก 60% แบ่งเป็นอย่างละ 30% เท่ากัน คือพาไปยังหน้าเว็บพนัน กับพาไปยังหน้าดาวน์โหลดแอปพลิเคชั่นอันตราย (มัลแวร์ – Malware) เพื่อขโมยข้อมูลส่วนบุคคล

นอกจากนั้นยังพบว่า ในฟีเจอร์ ID Security ที่พัฒนาขึ้นเพื่อให้ผู้ใช้งานตรวจสอบความปลอดภัยของข้อมูลส่วนบุคคลของตนเอง ยังพบว่า 41% ของผู้เข้ามาใช้ฟีเจอร์นี้ พบการรั่วไหลของข้อมูลส่วนบุคคลไปที่ Darkweb หมายถึงส่วนของอินเตอร์เน็ตที่ถูกซ่อน ต้องใช้โปรแกรมพิเศษในการเข้า และมักเกี่ยวกับความลับ ความเป็นส่วนตัวหรือสิ่งผิดกฎหมาย ซึ่งเป็นพื้นที่ที่มิจฉาชีพเข้าไปใช้ซื้อ – ขายข้อมูล และ Deepweb หมายถึงส่วนของอินเตอร์เน็ตที่ Search Engine ค้นหาไม่เจอ เช่น อิเมล บัญชีธนาคารหรือข้อมูลที่ต้องใช้รหัสผ่าน ซึ่งผู้ที่รู้ว่าข้อมูลส่วนบุคคลรั่วไหล แนะนำให้รีบเปลี่ยนรหัสผ่านโดยเร็ว เช่น แอปพลิเคชั่นทำธุรกรรมการเงิน บัญชีอีเมลและสื่อสังคมออนไลน์

เวลาที่มิจฉาชีพเข้าไปเอาข้อมูล จริงๆ ข้อมูลมันไม่ได้แพง เขาก็สามารถซื้อข้อมูลเพื่อเอามาหลอกเราได้แบบที่สามารถระบุตัวตนได้ถูกต้อง ทำให้การหลอกแนบเนียนมากยิ่งขึ้น ทีนี้ข้อมูลที่เราเปิดให้เช็คใน ID Security จะมีข้อมูลที่เป็นเบอร์โทรศัพท์และอีเมล ถ้าดูจากตัวเลขจะเห็นข้อมูลที่เป็นเบอร์โทรศัพท์ จาก 41มันรั่วไหลไป 97% จากโทรศัพท์ และ 88% เป็นอีเมล ทีนี้ข้อมูลโทรศัพท์กับอีเมล ที่เราให้เช็คเพราะเป็นข้อมูลที่มิจฉาชีพใช้ติดต่อเราได้ แต่จริงๆ แล้วเวลามันหลุดไป จะหลุดไปพร้อมชื่อวันเดือนปีเกิด ที่อยู่และรหัสผ่าน มนประภา กล่าว

แมนวู จู ประธานเจ้าหน้าที่บริหาร บริษัท โกโกลุก ประเทศไทย กล่าวว่า นับตั้งแต่ที่บริษัทเริ่มเผยแพร่รายงานประจำปีตั้งแต่ปี 2563 ได้ติดตามสถานการณ์การหลอกลวงของมิจฉาชีพที่มีแนวโน้มเพิ่มสูงขึ้นในเกือบทุกๆ ตลาดหลักที่ Whoscall ให้บริการอย่างใกล้ชิด สำหรับประเทศไทย ในปี 2567 สามารถระบุสายโทรศัพท์และข้อความหลอกลวงได้สูงสุดในรอบ 5 ปี ถึง 168 ล้านครั้ง เพราะปัจจุบันมิจฉาชีพได้นำเทคโนโลยี AI มาใช้ในการหลอกลวงอย่างแพร่หลาย ทำให้กลโกงมีความซับซ้อนมากขึ้นและมีแนวโน้มเพิ่มขึ้นอย่างต่อเนื่อง 

โดยแนวโน้มการหลอกลวงที่ต้องจับตามอง ได้แก่ การแอบอ้างหน่วยงานภาครัฐและเอกชน การฉ้อโกงทางการเงินในหลากหลายรูปแบบ ทั้งผ่านการโทรศัพท์ ข้อความ SMS Link อันตราย รวมถึง การรั่วไหลของข้อมูลส่วนบุคคลที่เพิ่มขึ้นอย่างน่ากังวล แมนวู จู กล่าว

พ.ต.อ.เกรียงไกร พุทไธสง ผู้กำกับการกลุ่มงานสนับสนุนทางไซเบอร์ กองบังคับการตรวจสอบและวิเคราะห์อาชญากรรมทางเทคโนโลยี (บก.สอท.)กล่าวว่า ธรรมชาติของสมองคนเราทำงานบนพื้นฐานการกลั่นกรองข้อมูลที่เราเชื่ออยู่แล้ว (Confirmation Bias) เช่น เมื่อเราชอบใคร ข้อมูลด้านดีของคนคนนั้นจะมาหาเราเสมอ หรือบนพื้นที่สื่อสังคมออนไลน์ เรามักจะเชื่อข้อมูลจากผู้ที่มียอดผู้ติดตามหรือยอดกด Like จำนวนมาก เป็นคนที่มีหน้ามีตาในสังคม (Social Proof) หรือเราสนใจเรื่องอะไร เทคโนโลยีก็จะป้อนโฆษณาสิ่งนั้นให้ เช่น การลงทุน ซึ่งคนร้ายก็จะแทรกสิ่งที่เป็นเหยื่อล่อเข้ามา

อย่างไรก็ตาม คนเราก็จะยังมีสติ เป็นอีกด้านไว้ถ่วงดุลกับธรรมชาติของสมอง เมื่อมีสติก็จะเกิดการคิดเชิงวิเคราะห์ เช่น คนมีชื่อเสียง มีรายได้มาก มาสอนเราลงทุนเพื่ออะไร? หรือเวลาโอนเงิน ทำไมต้องโอนไปที่บัญชีส่วนบุคคล? ถึงกระนั้นเมื่อเหยื่อกำลังถูกหลอก การคิดเชิงวิเคราะห์มักไม่ได้มีส่วนในการตัดสินใจ เพราะคนร้ายจะโจมตีที่ความรู้สึกของเหยื่อ เช่น ความอยากรวย ความกลัว ความหลง เพื่อทำลายสติของเหยื่อและเชื่อแต่ข้อมูลด้านเดียวที่คนร้ายป้อนให้

หรือการสร้างตัวตนปลอมขึ้นมา มีตัวอย่างกรณีคนร้ายนำบุคลิกของคนประเทศหนึ่งมาใช้สร้างตัวตนบนโลกออนไลน์เป็นคนอีกประเทศหนึ่ง ทำตัวเป็นนักธุรกิจแล้วมาชวนเหยื่อพูดคุยจนหลงเชื่อแล้วเป็นฝ่ายขอเข้าไปศึกษาการลงทุนกับคนร้ายเอง และแม้จะให้ความรู้กับประชาชนว่ามิจฉาชีพมีวิธีการหลอกลวงอย่างไรบ้าง แต่เมื่อถึงเวลาเผชิญกับมิจฉาชีพจริงๆ มักจะตัดสินใจจากข้อมูลด้านเดียวเสมอ

ดังนั้นอีกปัจจัยที่จะลดหรือตัดความเสี่ยงก่อนตกเป็นเหยื่อ คือ Social Safety Net (เครือข่ายความปลอดภัยทางสังคม) เช่น ขณะที่เรากำลังถูกมิจฉาชีพชักชวนโน้มน้าวให้ลงทุน มีคนอื่นเข้ามาได้ยินเรากำลังคุยกับมิจฉาชีพ ฟังแล้วรู้ได้ทันทีว่าเป็นการหลอหลวง ดังนั้นสิ่งหนึ่งที่มิจฉาชีพมักพยายามกำชับกับเหยื่อเสมอ คือ ห้ามติดต่อกับบุคคลอื่นโดยเด็ดขาด

วิธีรข่มขู่ ้ามพูดคุยกับคนอื่น ต้องอยู่เงียบๆ คนเดียว ต้องคุยกับผม (มิจฉาชีพ) เท่านั้น บางกรณีคนร้ายใช้เทคนิคในการควบคุมไม่ให้เหยื่อพบกับคนนอก เช่น ใช้วิธีหลอกให้ผู้เสียหายกดโอนสาย ดังนั้นระหว่างที่คนร้ายคุยกับเหยื่อ เหยื่อจะไม่มีโอกาสรับสายจากข้างนอกเพราะเหยื่อถูกหลอกให้โอนสายออกไปข้างนอก 3-4 ชั่วโมงคุยกับคนร้ายอย่างเดียว พ.ต.อ.เกรียงไกร กล่าว

พ.ต.อ.เกรียงไกร กล่าวย้ำว่า Social Safety Netเป็นเรื่องสำคัญ หากมีโอกาสอยากจะให้ทุกคนสื่อสารกับคนรอบข้างให้มากขึ้น ซึ่งปัจจุบันเทคโนโลยีทำให้เราสื่อสารกับคนที่อยู่ที่ใดก็ได้ เราคุยกับญาติพี่น้อง คุยกันบ่อยๆ บางทีผู้ใหญ่กำลังไปลงทุนอะไรอยู่ เมื่อเราได้ฟังเรื่องราวแล้วรู้ทันทีว่าหลอกลวง ซึ่งทุกวันนี้เมื่อเราฟังข่าวเรามักสงสัยว่าเหตุใดเหยื่อจึงถูกหลอกด้วยเรื่องราวที่ฟังแล้วน่าจะรู้ แต่ต้องไม่ลืมว่า ณ เวลานั้น เหยื่อตัดสินใจจากข้อมูลด้านเดียว นี่คือข้อเท็จจริงในเชิงจิตวิทยา 

-/-/-/-/-/-/-/-/-/-/-

สรุปข่าวจริง ลวงประจำวันที่ 22 กุมภาพันธ์ 2568

พบฝุ่นแม่เหล็กจาก Chemtrail ในสิ่งแวดล้อม…จริงหรือ?

อ่านต่อได้ที่  https://cofact.org/article/2ddbu81zlvm9w


เม็ดสีน้ำตาลเล็กๆ ในไข่ไก่ อันตราย…จริงหรือ?

อ่านต่อได้ที่  https://cofact.org/article/5u5do9ls5tsr


แก็งมิจฉาชีพ พันผ้าผสมยาสลบ ที่กระจกรถยนต์…จริงหรือ?

อ่านต่อได้ที่  https://cofact.org/article/1zumz8mha9115


ปอกเปลือกว่านหางจระเข้แช่แข็งไว้ ใช้เหน็บในช่องทวารหนัก ช่วยให้ริดสีดวงหดและฝ่อ…จริงหรือ?

อ่านต่อได้ที่  https://cofact.org/article/1aqpxa2vksgv3


พบเฮลิคอปเตอร์ยกรถบรรทุกขนส่งน้ำมันจากฝั่งไทยข้ามไปยังเมียวดี…จริงหรือ?

อ่านต่อได้ที่  https://cofact.org/article/1j6raibgjguwb


 ปิดอ่าวไทย ครอบคลุมพื้นที่ 3 จังหวัด ประจวบฯ ชุมพร สุราษฎร์ฯ

อ่านต่อได้ที่  https://cofact.org/article/2u86z9qz2zxv2


 รถไฟฟ้า 20 บาททุกสีทุกสาย คมนาคม ยืนยัน ประกาศใช้เดือน ก.ย. นี้

อ่านต่อได้ที่  https://cofact.org/article/338j67y5nfrkl


   ชาวเมียนมาข้ามมาเติมน้ำมันฝั่งไทยจำนวนมาก

อ่านต่อได้ที่  https://cofact.org/article/1gb4vgyhrkd0


 รถไฟฟ้าสายสีชมพู ส่วนต่อขยาย เปิดนั่งฟรี 1 เดือน เริ่มปลายเดือน มิ.ย. 68

อ่านต่อได้ที่  https://cofact.org/article/1c2r7qz18youk


 เตรียมประกาศเข้าฤดูร้อน 28 ก.พ.นี้ คาดบางพื้นที่ทะลุ 42 องศา

อ่านต่อได้ที่  https://cofact.org/article/3k1yliae1hkmb


 ทันตแพทย์ – นักวิชาการ ยืนยัน “หนอนกินฟัน” ไม่มีจริง อย่าเชื่อ

อ่านต่อได้ที่  https://cofact.org/article/jq7xd953bf00



รายงานพิเศษ: แนวทางการสร้างสมดุลระหว่างเสรีภาพในการพูดและมาตรฐานความน่าเชื่อถือและความปลอดภัยในโลกออนไลน์ด้วยการกลั่นกรองเนื้อหาที่มีประสิทธิภาพ

กุลชาดา ชัยพิพัฒน์ ที่ปรึกษาโคแฟค 

งานศึกษาของนีโอโมเมนตัม พบโลกโซเชียลท็อกซิกมากขึ้นหลังเลือกตั้งปี 66

โคแฟคชวนอ่านสรุปรายงานวิจัยล่าสุด1 ที่ร่วมจัดทำโดยนีโอ โมเมนตัม (Neo Momentum)2 โครงการติดตามและวิเคราะห์กระบวนการเลือกตั้งในโซเชียลมีเดีย (DEAL)3 และโคแฟค ซึ่งได้ทำการศึกษาและวิเคราะห์ข้อมูลในโซเชียลมีเดียสองช่วง คือระหว่างวันที่ 1 เมษายน ถึง 15 มิถุนายน 2566 และ ระหว่างวันที่ 1 มกราคม ถึง 31 สิงหาคม 2567 โดยได้ศึกษาพฤติกรรมการสื่อสาร เนื้อหาและเครือข่ายของบัญชีผู้ใช้งานทางการใน X (หรือ Twitter ในอดีต) และ Facebook ของพรรคการเมือง 67 พรรค แคนดิเดตนายกรัฐมนตรี หัวหน้าพรรคการเมือง ผู้สมัครรับเลือกตั้งเป็นสมาชิกสภาผู้แทนราษฎร บุคคลสาธารณะ รวมทั้งสื่อมวลชนหลายสำนัก โดยนำมาเปรียบเทียบการสื่อสารทางการเมืองช่วงระหว่างและหลังการเลือกตั้งทั่วไปของไทยปี 2566

ทั้งนี้ เพื่อทบทวนดูมาตรฐานชุมชนแพลตฟอร์มว่ามีความเข้มข้น และมีช่องว่างในการกลั่นกรองเนื้อหาเพื่อสร้างความสมดุลระหว่างสิทธิเสรีภาพในการพูดและความปลอดภัยและความน่าเชื่อถือของผู้ใช้งานมากน้อยและแตกต่างกันอย่างไรในช่วงเลือกตั้งและหลังการเลือกตั้งปี 2566 และ เพื่อสำรวจแนวทางที่เป็นไปได้ในการกำกับดูแลเนื้อหาออนไลน์ที่เหมาะสมหรือการแทรกแซงที่มีประสิทธิภาพจากผู้ให้บริการแพลตฟอร์ม รวมถึงบทบาทของสื่อในการส่งเสริมการสื่อสารออนไลน์ที่อิงข้อเท็จจริงและปราศจากความรุนแรง ในขณะเดียวกันก็ยังรักษาสมดุลของเสรีภาพในการแสดงความคิดเห็น

นับตั้งแต่การเลือกตั้งทั่วไปเมื่อวันที่ 14 พฤษภาคม 2566 จนมาถึงการเลือกตั้งนายกองค์การบริหารส่วนจังหวัดและสมาชิกสภาองค์กรบริหารส่วนจังหวัด (อบจ.) เมื่อวันที่ 1 กุมภาพันธ์ 2568 เรายังเห็นพลวัตของการเปลี่ยนแปลงในเชิงสร้างสรรค์ของการใช้พื้นที่สื่อสังคมออนไลน์ในการสื่อสารทางการเมืองเพื่อปลูกฝังการมีส่วนร่วมของประชาชนอย่างมีคุณภาพในการพัฒนาประชาธิปไตยของประเทศไม่มากพอ

ปริมาณของข้อมูลเท็จและข้อมูลบิดเบือน รวมทั้งคำพูดที่แสดงความเกลียดชัง (hate speech) ไม่ได้ลดลงอย่างมีนัยสำคัญ ทั้งยังมีความท้าทายใหม่ที่เกิดขึ้นจากการนำเทคโลโลยีปัญญาประดิษฐ์ล่าสุด Generative AI มาใช้ในการกระบวนการผลิตและเก็บและวิเคราะห์ข้อมูลอย่างไม่รับผิดชอบ และการที่แพลตฟอร์มค่อย ๆ ลดความสำคัญของการตรวจสอบข้อเท็จจริงและหักล้างข้อมูลเท็จลงไปเรื่อย ๆ

การเลือกตั้ง อบจ. ได้ตอกย้ำให้เราเห็นถึงวัฒนธรรมการสื่อสารทางการเมืองที่ยังอยู่ในวังวนของการใช้ข้อมูลเท็จหรือบิดเบือนรวมถึงการใช้ hate speech เพื่อทำลายคู่ต่อสู้ โดยผู้ที่สร้างข้อมูลเท็จมิได้ตระหนักถึงผลกระทบต่อความสุจริตของการเลือกตั้งและความขัดแย้งทางการเมืองในสังคมไทยที่ยังหาทางออกไม่ได้

แพลตฟอร์มยังคงถูกใช้เป็นพื้นที่สื่อสารทางการเมืองที่สำคัญ แต่ขาดการกลั่นกรองเนื้อหาอย่างมีประสิทธิภาพ ส่งผลให้พื้นที่สื่อสังคมออนไลน์ไม่ปลอดภัยต่อผู้ใช้งานและขาดความน่าเชื่อถือ

คำนิยาม

Hate Speech

คำพูดที่แสดงความเกลียดชัง แบ่งออกเป็น 5 ระดับ คือ ระดับที่ 1 การด่าด้วยถ้อยคำหยาบคาย ดูหมิ่นสติปัญญา ดูถูกเหยียดหยาม และการสร้างความเป็นอื่น ระดับที่ 2 การคุกคาม ข่มขู่ และการเปิดเผยข้อมูลส่วนตัว การเรียกร้องให้บังคับใช้กฎหมายที่ลิดรอนเสรีภาพในการแสดงออก ระดับที่ 3 การเหมารวม การแปะป้าย การลดทอนคุณค่า การดูถูกเหยียดหยาม การทำให้เป็นปีศาจ ระดับที่ 4 การแบ่งแยก กีดกัน การปฏิเสธที่จะอยู่ร่วมกันในสังคม ระดับที่ 5 การยุยง สนับสนุน เรียกร้องให้เกิดความรุนแรง ยกย่องผู้ก่อความรุนแรง ให้ความชอบธรรมกับการก่อความรุนแรง

Malinformation

หมายถึง การบิดเบือนข้อมูลที่อยู่บนพื้นฐานของความจริง แต่ถูกนำมาใช้ในบริบทที่ผิดหรือแฝงเจตนาที่ทำให้ผู้รับสารเกิดความเข้าในผิด มีเจตนาเพื่อก่อให้เกิดอันตราย ทำลายชื่อเสียง โจมตีความคิด บุคคล องค์กร หรือประเทศ ฯลฯ

AI Deepfake

หมายถึง การใช้เทคโนโลยี AI (Artificial Intelligence) สร้างเนื้อหาสื่อ เช่น ข้อความ รูปภาพ คลิปเสียง วิดีโอปลอมของบุคคล โดยมีเจตนาเพื่อหลอกลวง

แนวโน้มสำคัญ: การสื่อสารทางการเมืองในโซเชียลมีเดียช่วงระหว่างและหลังการเลือกตั้งทั่วไปปี 2566

  • ภายหลังการเลือกตั้งฯ ปฏิบัติการปั่นข้อมูลข่าวสาร (influence operation) ในโลกออนไลน์ก็ยังเข้มข้น และเปลี่ยนแปลงรูปแบบไปจากช่วงการเลือกตั้งที่อาจจะมุ่งเน้นแค่โน้มน้าวผู้มีสิทธิเลือกตั้ง มาสู่การโจมตีบุคคล การสร้างภาพลักษณ์ที่ไม่ดี และการทำลายความเชื่อถือของพรรคการเมืองและนักการเมือง เช่น การเปิดเผยข้อมูลส่วนบุคคล (Doxing) และการออกมาแฉ (Call-out tactics) ในหลายกรณี กลวิธีเหล่านี้ได้พัฒนาไปสู่การบิดเบือนข้อเท็จจริงในลักษณะ malinformation รวมถึงการใช้ทฤษฎีสมคบคิด เพื่อหลบเลี่ยงการตรวจสอบจากแพลตฟอร์ม และทำให้กระบวนการตรวจสอบข้อเท็จจริงทำได้ยากมากยิ่งขึ้น
  • Facebookและ X ยังคงเป็นพื้นที่สื่อสารทางการเมืองที่เข้มข้นในแต่ละช่วงของเหตุการณ์ทางการเมืองสำคัญ โดยเฉพาะอย่างยิ่งหลังการเลือกตั้งปี 2566 เป็นต้นมา เป้าหมายการโจมตีฝ่ายตรงข้ามมุ่งไปที่พรรคเพื่อไทยซึ่งเป็นพรรคแกนนำในรัฐบาลชุดปัจจุบัน และนายกรัฐมนตรีที่มาจากพรรคฯ ทั้งนายเศรษฐา ทวีสินและนางสาวแพทองธาร ชินวัตร รวมทั้งอดีตนายกรัฐมนตรีทักษิณ ชินวัตร บิดาของนางสาวแพทองธาร และผู้ก่อตั้งพรรคไทยรักไทย ซึ่งกลับมามีบทบาทสำคัญทางการเมืองอีกครั้งภายหลังจากที่ได้รับพระราชทานอภัยโทษในคดีปฏิบัติหน้าที่โดยมิชอบและมีผลประโยชนทับซ้อนขณะดำรงตำแหน่งทางการเมือง
  • พรรคประชาชน หรือพรรคก้าวไกลเดิม ซึ่งได้รับชัยชนะจากการเลือกตั้งแต่ได้เป็นแกนนำฝ่ายค้านภายหลังจัดตั้งรัฐบาลเสียงข้างมากไม่สำเร็จและถูกศาลรัฐธรรมนูญยุบพรรคปมเสนอแก้ไขกฎหมายอาญา มาตรา112 ว่าด้วยการหมิ่นพระมหากษัตริย์ในเวลาต่อมา  ยังคงเป็นเครือข่ายที่ทรงพลังและใหญ่ที่สุดทั้งในแง่ที่ถูกพูดถึงและเป็นเป้าหมายของการโจมตีจากฝ่ายตรงข้ามด้วยข้อมูลเท็จหรือบิดเบือน

จากการกวาดข้อมูลช่วงการเลือกตั้ง (โดยใช้ licensed third-party platforms) ครอบคลุมระยะเวลาตั้งแต่ 1 เมษายน 2566 – 15 มิถุนายน 2566 จำนวน 6,333,778 ข้อความ จาก 73,189 บัญชี โดยแบ่งออกตามแพลตฟอร์ม ได้แก่

  • X จำนวน 6,225,197 ข้อความ จาก 65,925 บัญชี
  • Facebook จำนวน 108,581 ข้อความ จาก 7,264 บัญชี

ข้อมูลหลังการเลือกตั้ง ครอบคลุมระยะเวลาตั้งแต่ 1 มกราคม 2567 – 31 สิงหาคม 2567 จำนวน 1,348,641 ข้อความ จาก 674,103 บัญชี โดยแบ่งออกตามแพลตฟอร์มได้แก่

  • X จำนวน 1,297,450 ข้อความ จาก 666,380 บัญชี
  • Facebook จำนวน 51,191 ข้อความ จาก 7,723 บัญชี
กราฟแสดงข้อมูลดิบและข้อมูลที่ทำความสะอาดแล้ว

โดยการกลั่นกรองเนื้อหาร่วมกันระหว่าง AI GPT Model และผู้เขี่ยวชาญในการจำแนก แปะป้ายข้อความ (labelling) และวิเคราะห์ภาษาร่วมกัน พบว่า

  • ข้อความที่มีมูลความจริงแต่แฝงเจตนาให้เกิดความเข้าใจผิด (malinformation) และคำพูดที่แสดงความเกลียดชัง (hate speech) เพิ่มมากขึ้นในFacebookภายหลังการเลือกตั้งปี 2566 โดย malinformation เพิ่มจาก 2.2% เป็น 4% และ hate speech เพิ่มจาก 0.59% เป็น  3.52% ส่วนหนึ่งอาจเป็นเพราะกลวิธีการบิดเบือนข้อมูลข่าวสารเปลี่ยนแปลงไปเป็นการโจมตีสถาบันการเมืองต่าง ๆ และการด้อยค่านักการเมืองให้เป็นปีศาจ จากเดิมที่เน้นการสื่อสารนโยบายพรรคและผู้สมัคร สส. ในช่วงการเลือกตั้ง
  • สำหรับใน X พบ hate speech เพิ่มขึ้นจาก 12.1% เป็น 12.72% ส่วน malinformation ลดลงเหลือ 4.16% จาก 8.14% สะท้อนให้เห็นธรรมชาติของผู้ใช้งานใน X ว่าเมื่อการเลือกตั้งผ่านไป ความสนใจในประเด็นสาธารณะก็เปลี่ยนไปเป็นเรื่องอื่น ประกอบกับการเก็บและคัดแยกข้อมูลหลังการเลือกตั้งที่แตกต่างไปจากเดิม อาจส่งผลต่อสถิติที่ออกมาด้วยเช่นกัน
  • ปริมาณข้อความ hate speech ใน X มีสัดส่วนที่สูงกว่าในFacebookและมีระดับความรุนแรงสูงกว่า โดยมีข้อความรุนแรงระดับ 5 อยู่บ้าง ส่วนในFacebookไม่มีข้อความระดับ 5 เลย สะท้อนลักษณะการสนทนาในFacebookที่เน้นการให้ข้อมูล (informative) การอภิปรายเนื้อหาในประเด็นต่าง ๆ  โดยเนื้อหาส่วนใหญ่เกี่ยวข้องกับการอภิปรายในประเด็นการบริหารงานของรัฐบาล ความล้มเหลวของระบบราชการ ปัญหาสังคมและสิ่งแวดล้อม ลักษณะดังกล่าวสะท้อนให้เห็นว่าผู้ใช้งานFacebookมักให้ความสำคัญกับการสนทนาเชิงข้อมูลมากกว่า ในทางกลับกัน X มีลักษณะการสนทนาที่แสดงออกถึงอารมณ์ความรู้สึกและความคิดเห็นส่วนบุคคลอย่างเข้มข้น (expressive/emotive) โดยมีการใช้ถ้อยคำรุนแรง การแสดงออกถึงความเป็นศัตรู และการโจมตีเชิงดูถูกอย่างชัดเจน ข้อความที่ปรากฏบน X มักสะท้อนถึงการเผชิญหน้าระหว่างผู้ใช้งานและกลุ่มการเมืองต่าง ๆ มากกว่าการแลกเปลี่ยนข้อมูลอย่างสร้างสรรค์
กราฟแสดงสัดส่วนของข้อความจำแนกตามประเภทช่วงการเลือกตั้งใน Facebook และ X
กราฟแสดงสัดส่วนของข้อความจำแนกตามประเภทหลังการเลือกตั้งใน Facebook และ X

เนื้อหาที่เป็น AI deepfake พบในวงจำกัด ทั้งในช่วงเลือกตั้งและหลังเลือกตั้ง ส่วนใหญ่เป็นการสร้างภาพจากเทคโนโลยี AI-generated images ในการรณรงค์หาเสียงอย่างสร้างสรรค์ เพื่อดึงดูดความสนใจ สะท้อนให้เห็นถึงข้อจำกัดในเรื่องทักษะและความรู้ด้านเทคโนโลยีปัญญาประดิษฐ์ นอกจากนี้ อีกหนึ่งรูปแบบที่พบได้บ่อยคือการ์ตูนล้อการเมือง หรือ editorial cartoons ซึ่งใช้เพื่อสะท้อนความคิดเห็นและวิพากษ์วิจารณ์ประเด็นทางการเมืองในลักษณะที่สร้างสรรค์และเข้าถึงง่าย สื่อในรูปแบบนี้ยังคงมีบทบาทสำคัญมากกว่าเนื้อหาที่ใช้เทคโนโลยี AI deepfake โดยตรง การใช้งาน deepfake ที่ยังไม่แพร่หลายในบริบทนี้

การวิเคราะห์บทสนทนาออนไลน์ในช่วงหลังการเลือกตั้ง โดยใช้เทคนิค Topic Modeling เผยให้เห็นประเด็นสำคัญที่สะท้อนถึงความสนใจและความคิดเห็นของผู้ใช้งานในบริบททางการเมืองและสังคม ประเด็นที่พบ ได้แก่

  • การด่ากันของกลุ่มผู้สนับสนุนพรรคการเมือง ซึ่งเป็นการแสดงออกถึงความเป็นปฏิปักษ์และความแตกแยกในระดับกลุ่ม
  • การวิพากษ์วิจารณ์กลุ่มอนุรักษนิยม หรือ establishment ที่ตั้งคำถามเกี่ยวกับบทบาทและแนวคิดทางการเมืองของกลุ่มดังกล่าว
  • การเผยแพร่ข้อมูลบิดเบือนเพื่อโจมตีฝ่ายตรงข้ามที่พบในบทสนทนา โดยเฉพาะในรูปแบบของ malinformation ซึ่งสะท้อนถึงความซับซ้อนของการสื่อสารในพื้นที่ออนไลน์
  • การโจมตีผู้นำทางการเมืองและนักการเมือง ซึ่งครอบคลุมทุกพรรคการเมือง รวมถึงการตั้งคำถามต่อสถาบันทางการเมือง เช่น คณะกรรมการการเลือกตั้ง (กกต.) และศาลรัฐธรรมนูญ ประเด็นเหล่านี้แสดงให้เห็นถึงความไม่ไว้วางใจในระบบการเมืองในปัจจุบัน
  • การวิพากษ์วิจารณ์นโยบายรัฐบาลและการจัดสรรทรัพยากรเป็นอีกหนึ่งหัวข้อที่ได้รับความสนใจ โดยเฉพาะในเรื่องการบริหารจัดการงบประมาณและการกระจายทรัพยากร ทั้งนี้ บางหัวข้อยังมีความเชื่อมโยงกับเหตุการณ์ที่สำคัญ เช่น การแก้ไขกฎหมายอาญา มาตรา 112 การพักโทษอดีตนายกรัฐมนตรีทักษิณ ชินวัตร และการอภิปรายงบประมาณรายจ่ายปี 2567 เหตุการณ์เหล่านี้ชี้ให้เห็นถึงการสะท้อนประเด็นทางการเมืองในโลกออนไลน์ซึ่งเชื่อมโยงกับสภาพการณ์ในโลกจริง
  • ประเด็นที่เกี่ยวข้องกับเหตุการณ์ระดับนานาชาติ เช่น ความสัมพันธ์ระหว่างไทยกับประเทศในตะวันออกกลาง ความขัดแย้งระหว่างรัสเซียและยูเครน และอิทธิพลของจีนในภูมิภาค เหล่านี้เป็นตัวอย่างที่สะท้อนถึงการรับรู้และถกเถียงในประเด็นที่กว้างไกลกว่าเพียงแค่การเมืองภายในประเทศ

สำหรับการวิเคราะห์เครือข่ายบัญชีในโซเชียลมีเดีย (Social Network Analysis) พบเครือข่ายของพรรคการเมืองหลัก 4 พรรค ที่ปรากฏในระบบนิเวศออนไลน์ในช่วงการเลือกตั้งและหลังเลือกตั้งของไทย ได้แก่ พรรคเพื่อไทย พรรคประชาชน พรรครวมไทยสร้างชาติ และพรรคพลังประชารัฐ  ยังคงมีลักษณการเกาะกลุ่มในลักษณะเดิม โดยพรรคก้าวไกลซึ่งเปลี่ยนชื่อเป็นพรรคประชาชนยังคงเป็นเครือข่ายที่ทรงอิทธิพลมากที่สุดและมีขนาดใหญ่ที่สุด แม้ว่าในภาพรวม เครือข่ายของทุกพรรคจะมีขนาดเล็กลงภายหลังการเลือกตั้ง สืบเนื่องจากความถี่ในการมีปฏิสัมพันธ์ระหว่างบัญชีเครือข่ายน้อยลง โดยมีบางบัญชีอาจเปลี่ยนชื่อไป บ้างก็ไปสนใจประเด็นอื่นที่ไม่เกี่ยวกับการเมือง หรือบัญชีถูกปิดลงหรืออาจถูกลบไปก่อนหน้าโดยแพลตฟอร์ม

เครือข่ายบัญชีในFacebookช่วงการเลือกตั้งและหลังการเลือกตั้ง
เครือข่ายบัญชีใน X ช่วงการเลือกตั้งและหลังการเลือกตั้ง

สรุปช่องว่างการบังคับใช้มาตรฐานชุมชนของ Meta, Google และ X

โครงการวิจัยฯ ได้หยิบเฉพาะกฎชุมชนที่เกี่ยวข้องกับข่าวลวงและ hate speech ในช่วงเลือกตั้งปี 2566 และหลังการเลือกตั้ง (ฉบับที่ใช้วิเคราะห์ของทุกแฟลตฟอร์มคือเข้าถึงในวันที่ 18 กรกฎาคม 2567) ซึ่งพบว่า

  • Meta (Facebook, Instagram) และ Google (YouTube) มีกฎชุมชนที่เกี่ยวข้องกับการบิดเบือนเนื้อหาที่เกี่ยวกับการเลือกตั้งชัดเจนและใส่ใจเกี่ยวกับการควบคุมและปิดกั้นเนื้อหาข่าวลวงและเนื้อหาบิดเบือนเกี่ยวกับการเลือกตั้งมากที่สุด  โดยมีมาตรการจากเบาไปหาหนัก ขึ้นอยู่กับความรุนแรงของเนื้อหา โดยเฉพาะ YouTube มีการระบุอย่างชัดเจนถึงมาตรการลงโทษผู้ที่โพสต์เนื้อหาบิดเบือน สร้างความเข้าใจผิดเกี่ยวกับการเลือกตั้ง หากผิดตามกฎชุมชนจริง จะมีมาตรการลงโทษเริ่มจากการตักเตือน ปิดช่องชั่วคราว ไปจนถึงการปิดช่องถาวร
  • Meta และ X ให้ความสำคัญต่อสิทธิเสรีภาพในการแสดงออกตามระบอบประชาธิปไตยโดยไม่ละเมิดสิทธิของผู้อื่น ใช้วิธีการติดฉลากข้อความที่บิดเบือนหรือเป็นอันตราย แต่ไม่เน้นการเอาข้อความออกทันทีหากไม่เป็นอันตรายร้ายแรง คือการยุยงให้ใช้ความรุนแรงหรือมุ่งหมายเอาชีวิต ทำให้ข้อความที่บิดเบือนหรือเป็นอันตรายยังคงอยู่ในระบบและมีการแพร่กระจายต่อไปได้
  • Facebook เน้นการจัดการกับข้อความ hate speech ที่เป็นอันตรายทางกายภาพในช่วงการเลือกตั้งเป็นหลัก ทำให้ข้อความที่เป็น hate speech ที่ไม่ถึงขั้นรุนแรงระดับ 5 ยังคงอยู่ในระบบ
  • มาตรการของ X ในการลดการมองเห็นมีข้อจำกัด โดยการปรับอัลกอริทึมเพื่อลดการมองเห็นของข้อความที่เป็นอันตราย อาจไม่ช่วยลดการแพร่กระจายของข้อความนั้น หากผู้ใช้งานที่สนใจค้นหาข้อความนั้นเจอ
  • การตอบสนองและการดำเนินการต่อเนื้อหาที่มีการร้องเรียนที่ล่าช้าของ Facebook เนื่องจากมีกระบวนการตรวจสอบเนื้อหาล่าช้า ทำให้ข้อความเหล่านั้นยังคงอยู่ในระบบและแพร่กระจายไปได้ โดยเฉพาะในช่วงสถานการณ์ทางการเมืองที่อ่อนไหว

ข้อสังเกตของทีมวิจัยเรื่อง hate speech และ malinformation

Hate speech ที่ตรวจพบในบริบทการเมืองไทยกับ “วัฒนธรรมชาวเน็ตไทย”

จากการตรวจสอบข้อความที่ถูกระบุว่าเป็น hate speech จากการวิเคราะห์โดยโมเดล AI พบข้อสังเกตหลายประการที่สะท้อนถึงวัฒนธรรมออนไลน์ของผู้ใช้งานชาวไทย และความท้าทายในการจัดการเนื้อหาในภาษาที่มีลักษณะซับซ้อนอย่างภาษาไทย

ในกรณีของ hate speech ระดับ 5 ซึ่งควรถูกระบุว่าเป็นข้อความที่มีลักษณะยุยงหรือสนับสนุนความรุนแรงอย่างชัดเจนกลับพบการตรวจจับคำหรือวลีที่ไม่เข้าข่าย hate speech จริง เช่น ชื่อคน วลีเปรียบเปรย หรือคำอุทาน ตัวอย่างเช่น “เผาหัว” “ยิงได้ยัง” หรือ “คมแบบปาดคอคนได้” สะท้อนถึงความท้าทายของ AI ในการทำความเข้าใจบริบทเฉพาะของภาษาไทย รวมถึงวัฒนธรรมย่อย (subculture) และการใช้คำในเชิงล้อเลียนหรือประชดประชันของชาวเน็ตไทย การตรวจจับลักษณะนี้ชี้ให้เห็นว่าภาษาไทยมีความซับซ้อน ทั้งในด้านโครงสร้างไวยากรณ์และบริบทการใช้งาน โดยเฉพาะอย่างยิ่งเมื่อผู้ใช้งานออนไลน์มักสร้าง “มีม” หรือวลีที่ได้รับความนิยมในกลุ่มสังคมออนไลน์ ซึ่งอาจดูรุนแรงในความหมายผิวเผิน แต่ไม่ได้มีเจตนาร้าย

อีกประเด็นสำคัญคือการพบ hate speech ระดับ 1 ซึ่งประกอบด้วยข้อความหยาบคายและการดูถูกสติปัญญาในอัตราที่สูง ทั้งบน Facebook และ X โดยเฉพาะใน X ซึ่งมีสัดส่วนถึง 89.81% ของข้อความที่ถูกระบุว่าเป็น hate speech การใช้ถ้อยคำลักษณะนี้สะท้อนถึงวัฒนธรรมชาวเน็ตไทยที่ถ้อยคำหยาบคายและการวิพากษ์วิจารณ์อย่างตรงไปตรงมาเป็นเรื่องปกติในบทสนทนาออนไลน์ นอกจากนี้ ลักษณะของแพลตฟอร์ม X ซึ่งสนับสนุนการแสดงออกเชิงอารมณ์อย่างรวดเร็วและเข้มข้น อาจส่งเสริมพฤติกรรมการเลียนแบบในกลุ่มผู้ใช้งานและการแสดงความคิดเห็นที่ไม่ผ่านการกลั่นกรอง

ในทางกลับกัน การเพิ่มขึ้นของ hate speech ระดับ 3 บน Facebook หลังการเลือกตั้ง (15.85%) อาจสะท้อนถึงการเปลี่ยนแปลงของลักษณะการโจมตีทางวาจา จากการใช้ถ้อยคำหยาบคายทั่วไปในระดับ 1 ไปสู่คำพูดที่มีลักษณะลดทอนคุณค่าและเหมารวมกลุ่มเป้าหมาย ซึ่งแสดงถึงเจตนาการโจมตีที่มีความซับซ้อนและลึกซึ้งมากขึ้น ลักษณะนี้อาจเชื่อมโยงกับบริบทของความขัดแย้งทางการเมืองในสังคมไทย ซึ่งการแบ่งแยกทางอุดมการณ์และความตึงเครียดในโลกออฟไลน์ถูกสะท้อนออกมาในบทสนทนาออนไลน์

การตรวจพบ hate speech ระดับ 4 และ 5 ในจำนวนที่น้อย ไม่ได้สะท้อนว่าการแสดงออกในสองระดับนี้มีจำนวนน้อย แต่ระบบกลั่นกรองของแพลตฟอร์มอาจสามารถตรวจจับและจัดการข้อความประเภทนี้ได้อย่างมีประสิทธิภาพ ทำให้พบข้อความในลักษณะนี้น้อยจากการกวาดข้อมูล  อย่างไรก็ตาม ความท้าทายที่สำคัญคือการจัดการกับ hate speech ในระดับที่ต่ำกว่า ซึ่งอาจไม่ถูกมองว่าเป็นภัยร้ายแรงในทันที แต่สามารถสะสมผลกระทบในเชิงลบต่อบรรยากาศของสังคมออนไลน์ในระยะยาว

การเพิ่มขึ้นของ malinformation ใน Facebook อาจสะท้อนถึงพฤติกรรมของผู้ใช้งานที่ใช้แพลตฟอร์มนี้เป็นพื้นที่เผยแพร่ข้อมูลบิดเบือนในลักษณะที่ซับซ้อนมากขึ้น เช่น การบิดเบือนเชิงบริบทหรือการแฝงข้อความที่ทำให้เกิดความเข้าใจผิดในประเด็นทางการเมือง การเพิ่มขึ้นนี้ยังอาจบ่งชี้ถึงความแตกต่างในวิธีการกลั่นกรองของแพลตฟอร์ม Facebook และ X ซึ่งอาจนำไปสู่ความสามารถในการจัดการกับเนื้อหาบิดเบือนที่ไม่เท่าเทียมกัน

Malinformation ที่ตรวจพบในการศึกษา ได้แก่ 1. ประเด็นเชิงนโยบายรัฐ เช่น โครงการแลนด์บริดจ์ นโยบายดิจิทัลวอลเล็ต การขายข้าวในโครงการจำนำข้าวของกระทรวงพาณิชย์ และโครงการ entertainment complex 2. การแก้ไขรัฐธรรมนูญ 3. ประเด็นทางเศรษฐกิจ เช่น สัดส่วนหนี้สาธารณะต่อ GDP ซึ่งถูกเชื่อมโยงกับวาทกรรมเกี่ยวกับ “หนี้ชั่วลูกชั่วหลาน” 4. การเมืองและการเลือกตั้ง เช่น ระบอบทักษิณ ข่าวลือเกี่ยวกับดีลลับ การคัดเลือก สว. การซื้อสิทธิขายเสียง และการแทรกแซงของต่างชาติ เป็นต้น และ 5. ประเด็นความขัดแย้งในสังคม เช่น กรณี “Saveทับลาน” กับ “Saveชาวบ้านทับลาน”

การถกเถียงในประเด็นเหล่านี้มักมาพร้อมกับการปกป้องหรือการโจมตีข้อมูลจากทั้งสองฝั่งที่เกี่ยวข้อง ทำให้ผู้ใช้งานทั่วไปที่อาจเข้าถึงข้อมูลเพียงด้านเดียวมีแนวโน้มที่จะเชื่อข้อมูลที่ได้รับโดยไม่ตั้งคำถามต่อความครบถ้วนหรือบริบทที่ซับซ้อนของข้อมูล นี่เป็นปัจจัยสำคัญที่สามารถสร้าง ความแบ่งแยก (polarization) และบั่นทอนความไว้วางใจ (trust) ในระดับสังคม

ข้อเสนอแนะหลักของทีมวิจัย

การรักษาสมดุลระหว่างการใช้เสรีภาพในการแสดงความคิดเห็น กับความปลอดภัยและความไว้วางใจในการใช้โซเชียลมีเดีย

  • ต้องปรับปรุงมาตรฐานชุมชนและแนวทางปฏิบัติของแพลตฟอร์มให้โปร่งใสและตอบสนองต่อบริบทเฉพาะ โดยการพัฒนามาตรฐานชุมชนควรได้รับความร่วมมือจากทุกภาคส่วน รวมทั้งภาคประชาสังคม นักวิชาการ สื่อมวลชน และผู้กำหนดนโยบาย
  • ระบบการจัดการเนื้อหาของแพลตฟอร์มควรมีความยืดหยุ่นเพียงพอที่จะรองรับความซับซ้อนทางสังคมและการเมืองในแต่ละบริบท เพื่อป้องกันการแพร่กระจายของเนื้อหาที่เป็นอันตรายและส่งเสริมสภาพแวดล้อมออนไลน์ที่ปลอดภัยและน่าเชื่อถือมากยิ่งขึ้น
  • การส่งเสริมการรู้เท่าทันสื่อ (media literacy) เพื่อให้ผู้ใช้งานสามารถประเมินและจัดการข้อมูลได้อย่างเหมาะสม

แนวทางการกำกับดูแลเนื้อหาออนไลน์หรือการแทรกแซงที่เป็นไปได้

  • การใช้เทคโนโลยีควบคู่กับการมีส่วนร่วมของมนุษย์ (human-AI collaboration) ในต้นทุนที่เหมาะสม เป็นแนวทางสำคัญในการกำกับดูแลเนื้อหา AI สามารถช่วยวิเคราะห์และประมวลผลข้อมูลจำนวนมหาศาลได้อย่างรวดเร็ว เช่น การระบุคำสำคัญหรือรูปแบบเนื้อหาที่เกี่ยวข้องกับ hate speech หรือ malinformation แต่การใช้ AI เพียงอย่างเดียวอาจไม่เพียงพอ เนื่องจาก AI มักขาดความเข้าใจในบริบททางสังคมและวัฒนธรรมที่ซับซ้อน การให้มนุษย์ทำหน้าที่ตรวจสอบขั้นสุดท้ายจะช่วยลดข้อผิดพลาดและเพิ่มความแม่นยำของกระบวนการตรวจจับและจัดการเนื้อหา
  • การสร้างกลไกการเฝ้าระวัง (monitoring mechanism) ที่สามารถแจ้งเตือนและตรวจจับการแพร่กระจายของเนื้อหาที่อาจเป็นอันตรายแบบเรียลไทม์ เป็นสิ่งจำเป็น โดยเฉพาะในช่วงเหตุการณ์สำคัญ เช่น การเลือกตั้งหรือวิกฤตทางสังคม กลไกดังกล่าวควรได้รับการพัฒนาโดยอาศัยความร่วมมือจากหลายภาคส่วน รวมถึงตัวแทนจากภาคประชาชน กลุ่มการเมือง สื่อมวลชน และผู้กำกับดูแลแพลตฟอร์มออนไลน์ เพื่อให้มั่นใจว่ามุมมองและความคิดเห็นที่หลากหลายได้รับการพิจารณา การมีส่วนร่วมนี้จะช่วยสร้างความไว้วางใจและความโปร่งใสในกระบวนการกำกับดูแล มากกว่าการพึ่งพากลไกที่เน้นการควบคุมหรือกำกับดูแลเพียงฝ่ายเดียว
  • บทบาทของสื่อในการส่งเสริมการสื่อสารออนไลน์ที่อิงข้อเท็จจริงและปราศจากความรุนแรงก็มีความสำคัญ สื่อสามารถทำหน้าที่เป็นตัวกลางในการถ่ายทอดข้อมูลที่ถูกต้อง และช่วยสนับสนุนการสร้างภูมิคุ้มกันทางความคิด (cognitive resilience) ให้กับประชาชนผ่านการส่งเสริมการรู้เท่าทันสื่อ (media literacy) ทั้งนี้ การสร้างสมดุลระหว่างการปกป้องเส
  • รีภาพในการแสดงความคิดเห็นและการรับรองความปลอดภัยในพื้นที่ออนไลน์จำเป็นต้องมีการพัฒนานโยบายที่ยืดหยุ่นและตอบสนองต่อบริบทที่เปลี่ยนแปลงไป

ความคิดเห็นและข้อเสนอแนะจากภาคประชาสังคมและสื่อมวลชน

  • มาตรการการกลั่นกรองเนื้อหาในเชิงรุกและปฏิบัติได้จริง เพื่อให้การจัดการกับข้อมูลลวงหรือบิดเบือน และ hate speech มีประสิทธิภาพ
  • การปรับอัลกอริทึมของแพลตฟอร์มให้สอดคล้องกับบริบทของแต่ละท้องถิ่นและสังคม
  • การส่งเสริมเสรีภาพในการแสดงความคิดเห็นอย่างปลอดภัย โดยการออกกฎหมายต่อต้านการฟ้องปิดปาก (strategic lawsuits against public participation: SLAPP) เพื่อป้องกันการใช้อำนาจรัฐปิดกั้นการวิจารณ์รัฐบาลหรือปราบปรามผู้มีความเห็นแตกต่าง

หมายเหตุ   

  1. รายงานการศึกษาฉบับสมบูรณ์จะมีการเผยแพร่ในเว็บไซต์ของนีโอโมเมนตัม (www.neomomentum.co) ภายในเดือนกุมภาพันธ์ 2568 ↩︎
  2. โอโมเมนตัม เป็นองค์กรที่มุ่งมั่นในการให้บริการข้อมูล การวิจัย และการพัฒนา โดยนำเทคโนโลยีสมัยใหม่และข้อมูลเชิงลึกที่ขับเคลื่อนด้วยข้อมูล (data-driven) มาใช้เพื่อแก้ไขปัญหาสังคมที่ซับซ้อน (social enterprise) จดทะเบียนกับกรมพัฒนาธุรกิจการค้าและมีประสบการณ์ในการศึกษาและวิเคราะห์พฤติกรรมการสื่อสารทางการเมืองในช่วงการชุมนุมประท้วงของนักศึกษาและเยาวชนไทยเพื่อเรียกร้องการปฏิรูปโครงสร้างทางการเมืองและสังคม ช่วงปี 2020-2021 ↩︎
  3. Digital Election Analytic Lab เกิดจากการรวมตัวแบบเฉพาะกิจของเครือข่ายภาคประชาสังคม นำโดย WeWatch, Monitoring Centre on Organised Violence Events (MOVE), นักวิชาการและนักวิจัยด้านสังคมศาสตร์และสื่อดิจิทัล ผู้เชี่ยวชาญด้านการวิเคราะห์ข้อมูลโซเชียลมีเดียขนาดใหญ่ และประชาชนอาสาสมัคร ที่เห็นพ้องกันถึงความสำคัญของพื้นที่กลาง พื้นที่การสื่อสารและการถกแถลงทางการเมืองที่ปลอดภัย สร้างสรรค์ มีความรับผิดชอบ และให้ความสำคัญต่อการเลือกตั้งในฐานะของกระบวนการที่จะนำไปสู่การเปลี่ยนผ่านทางการเมือง และการเปลี่ยนผ่านสู่ประชาธิปไตยที่ปราศจากความรุนแรง ↩︎

เรื่องอื่น ๆ ที่น่าสนใจ