สสส.-โคแฟค-มช.-มจ.- ThaiPBS เปิดเวที “นักคิดดิจิทัล ครั้งที่ 33”เดินหน้าสร้างภูมิคุ้มกันประชาชน รับมือภัยคุมคามจาก “AI” พร้อมชวนใช้แพลตฟอร์มตรวจสอบข่าว “โคแฟค” เช็คให้ชัวร์ อย่าเพิ่งเชื่อข่าวลวง

เมื่อเร็วๆ นี้ สำนักงานกองทุนสนับสนุนการสร้างเสริมสุขภาพ (สสส.) สถานเอกอัครราชทูตเยอรมนีประจำประเทศไทย ร่วมกับโคแฟค (ประเทศไทย) คณะวารสารศาสตร์และสื่อสารมวลชน มหาวิทยาลัยธรรมศาสตร์ (มธ.) คณะสารสนเทศและการสื่อสาร มหาวิทยาลัยแม่โจ้ (มจ.) และThaiPBS จัดเวทีเสวนานักคิดดิจิทัล – Digital Thinkers Forum ครั้งที่ 33 หัวข้อ “รับมือข้อมูลหลอนด้วยปัญญารวมหมู่เพื่อสร้างภูมิคุ้มกันในยุค AI (AI Hallucinations VS. Digital Resilience)” ที่โรงแรมวินทรี จ.เชียงใหม่ 

Harry Kofi Quakyi Cultural Affairs and Press Officer สถานเอกอัครราชทูตเยอรมนีประจำประเทศไทย กล่าวว่า ในยุคที่ข้อมูลข่าวสารถูกสร้างขึ้น ปฏิเสธไม่ได้ว่าเทคโนโลยีปัญญาประดิษฐ์ (AI) เป็นเครื่องมือที่ถูกใช้ ซึ่งก็มีทั้งข้อดีในเรื่องความสะดวกสบายและความรวดเร็ว แต่อีกด้านก็มีความท้าทาย เช่น ข้อมูลบิดเบือน (Disinformation) ข้อมูลหลอน (Hallucination) ที่ถูกส่งต่อและแพร่กระจายอย่างรวดเร็ว ในประเทศเยอรมนี ช่วงที่มีการเลือกตั้งมีการผลิตเนื้อหาโดยใช้ AI เช่น การรณรงค์หาเสียง และบางครั้งข้อมูลเพียง 1 ชิ้นสามารถแพร่กระจายไปยังกลุ่มเป้าหมายหลายกลุ่ม

ปัญหาการใช้ AI สร้างเนื้อหาแล้วผลที่ได้คือข้อมูลบิดเบือนหรือข้อมูลหลอน และยังเป็นเรื่องยากในการตรวจสอบว่าอะไรคือข้อเท็จจริง ดังนั้นกระบวนการของมนุษย์ในการทำให้ข้อมูลโปร่งใสจึงยังจำเป็น การรับมือข้อมูลบิดเบือนในช่วงของการเลือกตั้งในยุคของ AI ต้องใช้ความร่วมมือจากทุกภาคส่วนและทำงานร่วมกันโดยไม่มีขอบเขตHarry กล่าว

ดร.จิรพร วิทยศักดิ์พันธุ์ รองประธานคณะกรรมการบริหารแผนคณะที่ 8 สสส. กล่าวถึง 3 คำสำคัญ คือ 1.ปัญญารวมหมู่ ยุคสมัยที่เปลี่ยนไปจากการมีวีรชนหรือผู้นำที่เก่งคนเดียวแล้วผู้อื่นต้องเดินตาม สู่การร่วมคิด ร่วมทำ ร่วมเดินไปข้างหน้า หรือเปลี่ยนจากวัฒนธรรมแบบแนวดิ่งสู่วัฒนธรรมแบบแนวระนาบ ที่เป็นความสำคัญของคนที่คิดต่างจากเรา แต่จะทำแบบนี้ได้ต้องอาศัยการฟังด้วยใจ (Deep Listening) 2.พลเมืองตื่นรู้ ความเป็นพลเมืองไม่ใช่หมายความเพียงการเป็นบุคคลที่ได้สัญชาติของประเทศที่ตนเองอาศัยอยู่เท่านั้น แต่หมายถึงความเป็นมนุษย์ที่มาพร้อมกับความรับผิดชอบต่อตนเองและผู้อื่น  

3.ข้อมูลที่ขับเคลื่อนสังคม ข้อมูลที่ปรากฏอยู่จำนวนมากสามารถถูกหยิบฉวยข้อมูลบิดเบือนให้เอื้อประโยชน์ต่อคนกลุ่มใดกลุ่มหนึ่งเพียงเท่านั้น ตั้งแต่ข้อมูลในโฆษณาที่ไม่จริง ทำให้บุคคลเสื่อมเสียชื่อเสียง ถูกเกลียดชัง และสูญเสียทรัพย์สินข้อมูลเหล่านี้กระจายไปทั่วและไม่มีใครสะสางว่าอะไรถูกและผิด แล้วจะบอกว่าเราอยู่ในสังคมที่สะอาดได้อย่างไร

ทั้งนี้ สสส. เชื่อมั่นว่าข้อมูลที่ดีต้องเป็นข้อมูลที่ถูกต้อง อาจไม่ใช่เป็นสัจธรรมแต่ข้อมูลที่ถูกต้องในขณะนั้นที่พิสูจน์ได้ว่าถูกต้อง ไม่มีเจตนาปรับแต่งให้บิดเบือนเพื่อประโยชน์ของคนใดคนหนึ่ง แล้วข้อมูลที่ถูกต้องนั้นนำไปสู่การตัดสินใจที่ถูกต้องของพลเมือง ดร.จิรพร กล่าว 

ดร.พณชิต กิตติปัญญางาม กรรมการบริหารแผนคณะที่ 8 สสส.  กล่าวว่า AI มีประโยชน์กับ 2 เรื่อง คือเราอยากได้ความรู้ และความคิด เช่น เมื่อเราบอกให้  AI ไปหาข้อมูล  AI จะควานหาทั่วทั้งอินเตอร์เน็ตแล้วสรุปมาให้เรา ดังนั้น วิธีการตรวจสอบคือขอ Link เว็บไซต์แหล่งข้อมูลอ้างอิง เพื่อจะไปดูต่อว่าเป็นเว็บไซต์ที่น่าเชื่อถือหรือไม่ 

กระบวนการตรวจสอบจึงสำคัญว่าข้อมูลชุดที่ AI ยกมามีแหล่งอ้างอิงจริงหรือไม่ และแหล่งข้อมูลเหล่านั้นเชื่อได้มาก น้อยเพียงใดแล้วจึงนำไปใช้งาน แต่หากเราอยากได้ความคิด ความหลอนของ AI อาจเป็นประโยชน์ได้เหมือนกัน  เช่น อยากได้สูตรอาหารคาวที่ผสมกับชีสและใส่สัปประรด เราอาจคิดว่าของคาวกับของหวานจะเข้ากันได้อย่างไร แต่ผลที่ออกมาคือพิซซ่าหน้าฮาวายเอี้ยน ดังนั้น ความหลอนบางครั้งคือความคิดสร้างสรรค์ (Creativity) 

การเลือกใช้ความหลอนให้ถูก หากไม่ได้ใช้เป็นความรู้ก็ไม่จำเป็นต้องตรวจสอบข้อเท็จจริง แต่หากต้องการสิ่งที่เป็นความรู้ก็ต้องมีกระบวนการตรวจสอบข้อเท็จจริง (Fact-checking Methodology) ก่อนนำไปใช้งาน กรรมการบริหารแผนคณะที่ 8 สสส.  กล่าว  

รศ.ดร.ไพลิน ภู่จีนาพันธุ์ คณบดีคณะรัฐศาสตร์และรัฐประศาสนศาสตร์ มหาวิทยาลัยเชียงใหม่กล่าวปาฐกถาหัวข้อ “AI กับสงครามข้อมูล : ใครจะได้เปรียบในสนามใหม่ของการเลือกตั้ง ว่า ในต่างประเทศ เช่น สหรัฐอเมริกา อินโดนีเซีย มีการใช้เครื่องมือ AI ซึ่งรวมถึงภาพปลอมจำนวนมาก ท่ามกลางสับสนนี้จะบอกได้ว่าใครได้เปรียบหรือเสียเปรียบในการเลือกตั้ง ซึ่งการทำให้ผู้มีสิทธิ์เลือกตั้งสับสนอาจเป็นกลไกที่จะนำมาใช้ในการเลือกตั้งในไทยในเร็วๆ นี้ ในทางรัฐศาสตร์มีคำว่าโฆษณาชวนเชี่อ (Propaganda) ซึ่งต้องใช้ทรัพยากรมาก 

แต่ปัจจุบันมี ช่องผี ที่ทำได้ด้วยคนเก่งเทคโนโลยีเพียงคนเดียว ดังนั้น แม้ AI ไม่ได้ลงสมัครรับเลือกตั้ง แต่มีผลต่อการเลือกตั้ง ที่สำคัญคือ “AI ไม่ได้เป็นกลางทางการเมือง” AI มีอำนาจในโลกออนไลน์และกำลังจะมีอำนาจในโลกจริง เพราะ AI เล่นกับข้อมูล เนื่องจากมนุษย์มีข้อจำกัดไม่อาจเก็บข้อมูลได้ตลอด 24 ชั่วโมง แต่ AI สามารถทำได้ AI จึงมีข้อมูลที่มากกว่าสมองมนุษย์ แต่ความสามารถในการคาดการณ์ (Predict) ของ AI นั้นถูกต้องเพียงใด 

ปัจจุบันมีการใช้ AI ทำลายล้างซึ่งกันและกันแล้วประชาชนก็เชื่อว่าเป็นความจริง เช่น การใช้ AI สร้างอวตาร มีการใช้เทคนิค Robocall หมายถึงใช้ AI แปลงเสียงให้เหมือนนักการเมือง ราวกับการกระทำของมิจฉาชีพ ใช้ AI สร้างคลิปวิดีโอที่ภาพและเสียงเหมือนกับบุคคลนั้นกำลังพูดอยู่จริงๆ ขณะที่อีกด้านหนึ่งประชาชนผู้มีสิทธิ์เลือกตั้งก็ใช้ AI วิเคราะห์ข้อมูลต่างๆ เพื่อให้ AI ช่วยตัดสินใจว่าควรเลือกผู้สมัครหรือพรรคการเมืองใดมากกว่าจะใช้ความคิดของตนเอง

ดังนั้น เมื่อเราได้รับข้อมูลและกำลังจะตั้งคำถาม จึงมีข้อแนะนำว่า แทนที่จะเริ่มถามว่าทำไม ให้ถามว่าใคร หมายถึงใครเกี่ยวข้องกับเรื่องนั้น และเรื่องนั้นจะไปส่งผลกระทบกับใครบ้าง ในการเลือกตั้ง ผู้มีสิทธิ์ออกเสียง ประชาชนและมนุษย์คือคนคนเดียวกัน มักเน้นไปที่ผลการเลือกตั้ง นักการเมือง พรรคการเมือง หรือใครจะเป็นรัฐบาล แต่ยังไม่มีการตั้งคำถามว่าหาก AI เข้ามามีอิทธิพลต่อการเลือกตั้ง ผู้มีสิทธิ์ออกเสียง ประชาชนและมนุษย์จะได้รับผลกระทบอย่างไร รศ.ดร.ไพลิน กล่าว

นายอภิเดช เตปิน นักวิจัยจากทีม Neo Momentum นำเสนอข้อมูลเรื่อง บทเรียนสงครามข้อมูลการเลือกตั้ง 2566” ฉายภาพสถานการณ์บนโลกออนไลน์ 3 ช่วง คือ 1.ช่วงคาบเกี่ยวกับการเลือกตั้งสมาชิกสภาผู้แทนราษฎร (สส.) เก็บข้อมูลตั้งแต่วันที่ 1 เม.ย.-14 มิ.ย. 2566 ซึ่งแพลตฟอร์มออนไลน์เริ่มเข้ามามีบทบาทมากขึ้น เนื้อหาทางการเมืองถูกผลิตและขยายผ่านแพลตฟอร์ม และบทสนทนาส่วนใหญ่ขับเคลื่อนด้วยอารมณ์มากกว่าข้อเท็จจริง เช่น โพสต์โจมตี ปลุกความโกรธ ตั้งคำถามถึงความชอบธรรมของพรรคการเมืองคู่แข่งหรือต่อกระบวนการจัดการเลือกตั้ง 

2.ช่วงหลังการเลือกตั้ง มีการเก็บข้อมูลตลอดทั้งปี 2567 พบ ความตึงเครียดในโลกออนไลน์นอกจากจะไม่คลี่คลายลงแล้วกลับยังเข้มข้นขึ้น 3.ช่วงปัจจุบัน เก็บข้อมูลตั้งแต่วันที่ 1 ม.ค.-20 พ.ย. 2568 เนื้อหาบนโลกออนไลน์ขยับไปสู่การเมืองเชิงอัตลักษณ์ เช่น ประเด็นแรงงานข้ามชาติชาวเมียนมาและกัมพูชา ซึ่งถูกหยิบยกขึ้นมาถกเถียง ผลการศึกษาทั้ง 3 ช่วงพบสิ่งที่เหมือนกันคือ อารมณ์เป็นโครงสร้างหลักของข้อมูล ทุกเหตุการณ์ของความมั่นคงหรือความขัดแย้งจะถูกขยายฐานความโกรธ ความกลัว ความรู้สึกกังวลว่ากำลังถูกคุกคามจากอะไรบางอย่าง และเห็นช่องว่างของความเชื่อมั่นสาธารณะที่กว้างและลึกอย่างต่อเนื่อง 

“ถ้าต้องการจะสลายวงจรข่าวลวงหรือวงจรของความเกลียดชัง เรามองว่ามันอาจต้องเริ่มจากการเปลี่ยนสภาวะของอารมณ์ในพื้นที่ดิจิทัลไปพร้อมๆ กัน ไม่ใช่แค่การตรวจสอบข้อเท็จจริงเพียงอย่างเดียว แต่มันจะต้องเข้าใจอารมณ์ ความเจ็บปวด ความกลัว ที่อยู่เบื้องหลังข้อมูลเหล่านั้นที่คนแชร์ต่อกัน โจทย์ของการตรวจสอบข้อเท็จจริงอาจไม่ใช่แค่ว่าอะไรจริงหรือไม่จริง แต่คือเราจะออกแบบพื้นที่ที่ให้ทุกข้อมูลอยู่ร่วมกันได้อย่างไรโดยที่ความจริงมันจะไม่แพ้อารมณ์และเรื่องเล่าที่มันบั่นทอนสังคมของผู้รับรู้” นายอภิเดช กล่าว 

ผศ.ดร.ณภัทร เรืองนภากุล อาจารย์คณะสารสนเทศและการสื่อสาร มหาวิทยาลัยแม่โจ้กล่าวว่าปรากฎการณ์ที่หลายคนผลิตเนื้อหาเผยแพร่บนสื่อออนไลน์โดยโชว์การใช้แพลตฟอร์ม AI สะท้อนให้เห็นว่าการใช้ AI เป็นเรื่องสนุกและดูเท่นอกจากนั้น AI ยังทำให้เรารู้สึกถึงความง่ายหรือรู้สึกเก่งขึ้นทันที เพราะ AI ถูกออกแบบมาให้ทำงานได้ง่ายที่สุดและเร็วที่สุด ตอบโจทย์คนยุคปัจจุบันที่ไม่อยากรอ แต่สิ่งที่หายไปคือ การคิดของเรา เมื่อใช้ AI เราอาจรู้สึกว่าเราฉลาดแม้เราจะยังไม่ได้ใช้ความคิดของตนเอง 

อย่างไรก็ตาม AI ไม่ได้เป็นเครื่องมือที่ผิดและการใช้ AI ก็ยังมีประโยชน์ แต่ปัญหาจริงๆ อยู่ที่ความเท่ของการใช้ AI มันกระชากกระบวนการทางความคิดของเรา เมื่อใช้ AI จนติดมากๆ ด้วยปัจจัยด้านปริมาณงานล้นและต้องแข่งกับเวลาของคนยุคดิจิทัล ก็มีความเสี่ยง ไม่ว่าจะเรื่องของ การเรียนแบบมุ่งหาวิธีลัด (Shortcut Learning) ทำให้เราสมาธิสั้นลง และความรู้ของเราจะไม่ลุ่มลึกผศ.ดร.ณภัทร กล่าว 

..กนกพร ประสิทธิ์ผล ผู้อำนวยการสำนักสื่อดิจิทัล ThaiPBS กล่าวว่า นับตั้งแต่ AI อย่าง ChatGPT เปิดตัวเมื่อปลายปี 2565 กระแสของ AI มีแต่จะเพิ่มขึ้น จากนั้นในปี 2566 พจนานุกรม Cambridge ยกคำว่า อาการหลอน (Hallucinate) เป็นคำแห่งปี มาจากการที่ AI ให้ข้อมูลแบบผิดๆ ล่าสุดในปี 2568 พจนานุกรม Merriam-Webster ได้ยกให้คำว่า “Slop” เป็นคำแห่งปี ซึ่งคำว่า Slop หมายถึงเนื้อหาคุณภาพต่ำที่ผลิตด้วย AI ต้องไม่ลืมว่าแพลตฟอร์มออนไลน์มีระบบอัลกอริทึม โดยอะไรที่มีปริมาณมากๆ จะเบียดความสนใจ เนื้อหาที่ดีจะหายไป 

เช่น ภาพที่ใช้ AI สร้างได้ในเวลาเพียงไม่กี่วินาที แม้จะดูสวยงามหรือสร้างขึ้นมาเพื่อเป็นสีสัน แต่ในอีกมุมคือไม่มีอะไรจรรโลงพัฒนาการหรือความคิดสร้างสรรค์ของมนุษย์ และจะอันตรายยิ่งขึ้นหากเป็นเนื้อหา Slop ที่ปรากฏในเหตุการณ์ เช่น ภาพสัตว์ต่างๆ ช่วยเหลือกันและกันในช่วงเกิดน้ำท่วม หรือภาพคนแบกช้างเดินบนถนน ทำให้เกิดความเข้าใจผิดได้ น.ส.กนกพร กล่าว 

ดร.กมลภพ ศรีโสภา อาจารย์ภาควิชาวิทยาการคอมพิวเตอร์ คณะวิทยาศาสตร์ มหาวิทยาลัยเชียงใหม่ กล่าวว่า ผลการศึกษาของ OpenAI ซึ่งเป็นบริษัทผู้พัฒนา ChatGPT เรื่อง อาการหลอนหรือการให้คำตอบมั่วๆ ของ AI เมื่อผู้วิจัยลองถาม AI ให้ทายวันเกิดของตนเอง แม้ AI จะไม่รู้แต่ก็ยังมั่วคำตอบมา เพราะมีโอกาส 1 ใน 365 ตามจำนวนวันใน 1 ปี ที่จะตอบถูก แต่การจะทำให้ปัญหาอาการหลอนของ AI หมดไปอาจจะเป็นไปไม่ได้ เพราะบางคำถามไม่ได้มีคำตอบแบบตายตัว ในขณะที่ AI ก็ถูกสอนให้รู้จักการเดาเพราะมีโอกาสที่จะตอบถูก 

หรือตัวอย่างของ Grok ซึ่งเป็น AI ประจำแพลตฟอร์ม X ที่มีผู้ไปลองตั้งคำถามว่า ระหว่างปิดสมองของ อีลอน มัสก์ กับสังหารหมู่ชาวสโลวาเกีย ผลคือ AI เลือกสังหารหมู่ชาวสโลวาเกีย นั่นคือ AI ตอบโดยมีอคติเอียงไปทางชอบอีลอน มัสก์ จึงเป็นปัญหาหากเราจะไปถาม AI ว่าการเลือกตั้งครั้งหน้าจะเลือกใคร หรืออคติที่เกิดจากจำนวนไม่เท่ากันของข้อมูลที่ AI รวบรวมได้ 

ทั้งนี้ ผู้ประกอบการ AI หลายแห่งพยายามที่จะลดอคติ (Bias) แล้วเพิ่มความ โปร่งใส (Transparent) ในรูปแบบ System Card หรือ Model Card ให้เราอ่านว่าข้อมูลเขามาจากไหน มีข้อจำกัดอะไรบ้าง และเขียนพรอมพ์อย่างไรให้ดี เราก็สามารถเข้าไปศึกษาได้ ดร.กมลภพ กล่าว 

..สุภิญญา กลางณรงค์ ผู้ร่วมก่อตั้งภาคีโคแฟค (ประเทศไทย) กล่าวว่า ยุคปัจจุบันนอกจากจะเจออาการหลอนของปัญญาประดิษฐ์ ข้อมูลจริง หรือไม่จริงแล้ว ยังต้องเจอกับภาวะข้อมูลล้นถาโถม (Information Overload) จนเกิดภาวะอ่อนล้าที่จะรับข่าวสาร (News Fatigue) หรือเจอแต่ด้านลบๆ จนไม่อยากแลกเปลี่ยนข้อมูลในโลกออนไลน์ อยากไปอยู่เงียบๆ ซึ่งก็ต้องดูแลจิตใจของตนเองด้วยการตั้งสติในปี 2569 โคแฟค จะส่งเสริมให้เกิดระบบนิเวศสื่อปลอดภัย ด้วยแนวคิด Keep Calm and Fact Check ใจเย็นๆ อย่าเพิ่งเชื่อ” หากประชาชนเห็นรูปหรือคลิปอะไรที่ตรงกับอคติ มายาคติ หรือฉันทาคติอย่าเพิ่งเชื่อ เพราะเราอาจพลาดได้ง่ายๆ 

โดยเฉพาะการเลือกตั้งครั้งนี้ที่จะมาถึง  และอยากจะชวนทุกคนมาเป็นอาสาสมัครกับโคแฟคจับตาข่าวลวงการเมือง หากเห็นข้อมูลข่าวสารอะไร ไม่แน่ใจว่าเป็น AI หรือ ข่าวลวงที่อยากให้ตรวจสอบสามารถส่งมาได้ที่โคแฟค cofact.org หรือเพจของโคแฟค น.ส.สุภิญญา กล่าว