เมื่อเร็วๆ นี้ สำนักงานกองทุนสนับสนุนการสร้างเสริมสุขภาพ (สสส.) สถานเอกอัครราชทูตเยอรมนีประจำประเทศไทย ร่วมกับโคแฟค (ประเทศไทย) คณะวารสารศาสตร์และสื่อสารมวลชน มหาวิทยาลัยธรรมศาสตร์ (มธ.) คณะสารสนเทศและการสื่อสาร มหาวิทยาลัยแม่โจ้ (มจ.) และThaiPBS จัดเวทีเสวนานักคิดดิจิทัล – Digital Thinkers Forum ครั้งที่ 33 หัวข้อ “รับมือข้อมูลหลอนด้วยปัญญารวมหมู่เพื่อสร้างภูมิคุ้มกันในยุค AI (AI Hallucinations VS. Digital Resilience)” ที่โรงแรมวินทรี จ.เชียงใหม่
Harry Kofi Quakyi Cultural Affairs and Press Officer สถานเอกอัครราชทูตเยอรมนีประจำประเทศไทย กล่าวว่า ในยุคที่ข้อมูลข่าวสารถูกสร้างขึ้น ปฏิเสธไม่ได้ว่าเทคโนโลยีปัญญาประดิษฐ์ (AI) เป็นเครื่องมือที่ถูกใช้ ซึ่งก็มีทั้งข้อดีในเรื่องความสะดวกสบายและความรวดเร็ว แต่อีกด้านก็มีความท้าทาย เช่น ข้อมูลบิดเบือน (Disinformation) ข้อมูลหลอน (Hallucination) ที่ถูกส่งต่อและแพร่กระจายอย่างรวดเร็ว ในประเทศเยอรมนี ช่วงที่มีการเลือกตั้งมีการผลิตเนื้อหาโดยใช้ AI เช่น การรณรงค์หาเสียง และบางครั้งข้อมูลเพียง 1 ชิ้นสามารถแพร่กระจายไปยังกลุ่มเป้าหมายหลายกลุ่ม
“ปัญหาการใช้ AI สร้างเนื้อหาแล้วผลที่ได้คือข้อมูลบิดเบือนหรือข้อมูลหลอน และยังเป็นเรื่องยากในการตรวจสอบว่าอะไรคือข้อเท็จจริง ดังนั้นกระบวนการของมนุษย์ในการทำให้ข้อมูลโปร่งใสจึงยังจำเป็น การรับมือข้อมูลบิดเบือนในช่วงของการเลือกตั้งในยุคของ AI ต้องใช้ความร่วมมือจากทุกภาคส่วนและทำงานร่วมกันโดยไม่มีขอบเขต”Harry กล่าว
แต่ปัจจุบันมี “ช่องผี” ที่ทำได้ด้วยคนเก่งเทคโนโลยีเพียงคนเดียว ดังนั้น แม้ AI ไม่ได้ลงสมัครรับเลือกตั้ง แต่มีผลต่อการเลือกตั้ง ที่สำคัญคือ “AI ไม่ได้เป็นกลางทางการเมือง” AI มีอำนาจในโลกออนไลน์และกำลังจะมีอำนาจในโลกจริง เพราะ AI เล่นกับข้อมูล เนื่องจากมนุษย์มีข้อจำกัดไม่อาจเก็บข้อมูลได้ตลอด 24 ชั่วโมง แต่ AI สามารถทำได้ AI จึงมีข้อมูลที่มากกว่าสมองมนุษย์ แต่ความสามารถในการคาดการณ์ (Predict) ของ AI นั้นถูกต้องเพียงใด
ปัจจุบันมีการใช้ AI ทำลายล้างซึ่งกันและกันแล้วประชาชนก็เชื่อว่าเป็นความจริง เช่น การใช้ AI สร้างอวตาร มีการใช้เทคนิค Robocall หมายถึงใช้ AI แปลงเสียงให้เหมือนนักการเมือง ราวกับการกระทำของมิจฉาชีพ ใช้ AI สร้างคลิปวิดีโอที่ภาพและเสียงเหมือนกับบุคคลนั้นกำลังพูดอยู่จริงๆ ขณะที่อีกด้านหนึ่งประชาชนผู้มีสิทธิ์เลือกตั้งก็ใช้ AI วิเคราะห์ข้อมูลต่างๆ เพื่อให้ AI ช่วยตัดสินใจว่าควรเลือกผู้สมัครหรือพรรคการเมืองใดมากกว่าจะใช้ความคิดของตนเอง
ผศ.ดร.ณภัทร เรืองนภากุล อาจารย์คณะสารสนเทศและการสื่อสาร มหาวิทยาลัยแม่โจ้กล่าวว่าปรากฎการณ์ที่หลายคนผลิตเนื้อหาเผยแพร่บนสื่อออนไลน์โดยโชว์การใช้แพลตฟอร์ม AI สะท้อนให้เห็นว่าการใช้ AI เป็นเรื่องสนุกและดูเท่นอกจากนั้น AI ยังทำให้เรารู้สึกถึงความง่ายหรือรู้สึกเก่งขึ้นทันที เพราะ AI ถูกออกแบบมาให้ทำงานได้ง่ายที่สุดและเร็วที่สุด ตอบโจทย์คนยุคปัจจุบันที่ไม่อยากรอ แต่สิ่งที่หายไปคือ การคิดของเรา เมื่อใช้ AI เราอาจรู้สึกว่าเราฉลาดแม้เราจะยังไม่ได้ใช้ความคิดของตนเอง
“อย่างไรก็ตาม AI ไม่ได้เป็นเครื่องมือที่ผิดและการใช้ AI ก็ยังมีประโยชน์ แต่ปัญหาจริงๆ อยู่ที่ความเท่ของการใช้ AI มันกระชากกระบวนการทางความคิดของเรา เมื่อใช้ AI จนติดมากๆ ด้วยปัจจัยด้านปริมาณงานล้นและต้องแข่งกับเวลาของคนยุคดิจิทัล ก็มีความเสี่ยง ไม่ว่าจะเรื่องของ การเรียนแบบมุ่งหาวิธีลัด (Shortcut Learning) ทำให้เราสมาธิสั้นลง และความรู้ของเราจะไม่ลุ่มลึก”ผศ.ดร.ณภัทร กล่าว
น.ส.กนกพร ประสิทธิ์ผล ผู้อำนวยการสำนักสื่อดิจิทัล ThaiPBS กล่าวว่า นับตั้งแต่ AI อย่าง ChatGPT เปิดตัวเมื่อปลายปี 2565 กระแสของ AI มีแต่จะเพิ่มขึ้น จากนั้นในปี 2566 พจนานุกรม Cambridge ยกคำว่า อาการหลอน (Hallucinate) เป็นคำแห่งปี มาจากการที่ AI ให้ข้อมูลแบบผิดๆ ล่าสุดในปี 2568 พจนานุกรม Merriam-Webster ได้ยกให้คำว่า “Slop” เป็นคำแห่งปี ซึ่งคำว่า Slop หมายถึงเนื้อหาคุณภาพต่ำที่ผลิตด้วย AI ต้องไม่ลืมว่าแพลตฟอร์มออนไลน์มีระบบอัลกอริทึม โดยอะไรที่มีปริมาณมากๆ จะเบียดความสนใจ เนื้อหาที่ดีจะหายไป
ดร.กมลภพ ศรีโสภา อาจารย์ภาควิชาวิทยาการคอมพิวเตอร์ คณะวิทยาศาสตร์ มหาวิทยาลัยเชียงใหม่ กล่าวว่า ผลการศึกษาของ OpenAI ซึ่งเป็นบริษัทผู้พัฒนา ChatGPT เรื่อง อาการหลอนหรือการให้คำตอบมั่วๆ ของ AI เมื่อผู้วิจัยลองถาม AI ให้ทายวันเกิดของตนเอง แม้ AI จะไม่รู้แต่ก็ยังมั่วคำตอบมา เพราะมีโอกาส 1 ใน 365 ตามจำนวนวันใน 1 ปี ที่จะตอบถูก แต่การจะทำให้ปัญหาอาการหลอนของ AI หมดไปอาจจะเป็นไปไม่ได้ เพราะบางคำถามไม่ได้มีคำตอบแบบตายตัว ในขณะที่ AI ก็ถูกสอนให้รู้จักการเดาเพราะมีโอกาสที่จะตอบถูก
หรือตัวอย่างของ Grok ซึ่งเป็น AI ประจำแพลตฟอร์ม X ที่มีผู้ไปลองตั้งคำถามว่า ระหว่างปิดสมองของ อีลอน มัสก์ กับสังหารหมู่ชาวสโลวาเกีย ผลคือ AI เลือกสังหารหมู่ชาวสโลวาเกีย นั่นคือ AI ตอบโดยมีอคติเอียงไปทางชอบอีลอน มัสก์ จึงเป็นปัญหาหากเราจะไปถาม AI ว่าการเลือกตั้งครั้งหน้าจะเลือกใคร หรืออคติที่เกิดจากจำนวนไม่เท่ากันของข้อมูลที่ AI รวบรวมได้
“ทั้งนี้ ผู้ประกอบการ AI หลายแห่งพยายามที่จะลดอคติ (Bias) แล้วเพิ่มความ โปร่งใส (Transparent) ในรูปแบบ System Card หรือ Model Card ให้เราอ่านว่าข้อมูลเขามาจากไหน มีข้อจำกัดอะไรบ้าง และเขียนพรอมพ์อย่างไรให้ดี เราก็สามารถเข้าไปศึกษาได้” ดร.กมลภพ กล่าว
“กิจกรรมในวันนี้มีความสำคัญยิ่งไม่ได้มุ่งอธิบาย AI เรื่องหลอนคืออะไรแต่มุ่งไปที่เรื่องของการสร้างความเข้าใจที่ลึกซึ้งการตั้งคำถามอย่างมีวิจารณญาณและการออกแบบแนวทางรับที่เหมาะสมในบริบททำงานจริงและโดยเฉพาะภาคการศึกษาภาคนโยบายแล้วก็ภาควิชาชีพ” รองอธิการบดีมหาวิทยาลัยแม่โจ้ กล่าว
นพ.ธีรพัฒน์ ตันพิริยะกุล อดีตรองนายกองค์การบริหารส่วนจังหวัด (อบจ.) เชียงใหม่ เล่าถึงวิวัฒนาการของเทคโนโลยี AI ตั้งแต่ยุค Rule-based หรือการออกแบบให้ทำตามกฏเกณฑ์ตายตัว ถัดมาเป็นยุค Machine Learning นำข้อมูลมาสอนให้ AI เรียนรู้ เช่น ข้อมูลผู้มาซื้อของในห้างสรรพสินค้าซึ่งมีเป็นล้านชุด เพื่อวิเคราะห์ว่าหากเป็นบุคคลลักษณะนี้ควรจะซื้อสินค้าชนิดใด จนมาถึงปัจจุบันที่เป็นยุค Generative AI คือการให้ AI สร้างสิ่งใหม่ขึ้น และยุคนี้เองที่เกิดการหลอนของข้อมูล คือสร้างออกมาเป็นสิ่งที่เราไม่ต้องการ
“เราจะทำอย่างไรให้ไม่หลอนต้องมีกำแพงกั้น (Guardrail) ว่าจะให้ AI ไม่ออกนอกลู่นอกทางต้องมีขอบเขต (Scope) ให้ชัดว่าเราถามเรื่องอะไรทุกวันนี้ Google ออกแนวปฏิบัติ (Guideline)วิธีการเขียนพร้อมพ์ให้ AI เป็นมืออาชีพ 1.เราต้องรู้ว่า AI ถนัดเรื่องไหนเพราะไม่ได้มีแค่ Chat GPT อย่างเดียวบางคนอาจใช้ Claude ใช้ Gemini 2.ต้องกำหนดขอบเขตให้ชัดและ 3.ต้องถามซ้ำ AI จึงจะรู้มากขึ้น” นพ.ธีรพัฒน์ กล่าว
ดร.พณชิต กิตติปัญญางาม กรรมการบริหารแผนคณะที่ 8 สสส. มองว่า AI ยังเป็นประโยชน์กับเราอยู่ 2 เรื่อง คือเราอยากได้ความรู้ และความคิด เช่น เมื่อเราบอกให้ AI ไปหาข้อมูล AI จะควานหาทั่วทั้งอินเตอร์เน็ตแล้วสรุปมาให้เรา ดังนั้นวิธีการตรวจสอบคือขอ Link เว็บไซต์แหล่งข้อมูลอ้างอิง เพื่อจะไปดูต่อว่าเป็นเว็บไซต์ที่น่าเชื่อถือหรือไม่ กระบวนการตรวจสอบจึงสำคัญว่าข้อมูลชุดที่ AI ยกมามีแหล่งอ้างอิงจริงหรือไม่ และแหล่งข้อมูลเหล่านั้นเชื่อได้มาก – น้อยเพียงใด แล้วจึงนำไปใช้งาน
ผศ.ดร.ณภัทร เรืองนภากุล อาจารย์คณะสารสนเทศและการสื่อสาร มหาวิทยาลัยแม่โจ้ กล่าวถึงปรากฎการณ์ที่หลายคนผลิตเนื้อหาเผยแพร่บนสื่อออนไลน์โชว์การใช้แพลตฟอร์ม AI คือทำให้เห็นว่าการใช้ AI เป็นเรื่องสนุกและดูเท่ นอกจากนั้น AI ยังทำให้เรารู้สึกถึงความง่ายหรือรู้สึกเก่งขึ้นทันที อะไรที่คิดไม่ออก – สรุปไม่ได้ก็ให้ AI เขียนสรุปมาให้ เลือกรูปแบบสำนวนภาษาได้ด้วย (เช่น ภาษาวิชาการ ภาษาการตลาด) นั่นเพราะ AI ถูกออกแบบมาให้ทำงานได้ง่ายที่สุดและเร็วที่สุด ตอบโจทย์คนยุคปัจจุบันที่ไม่อยากรอ
แต่สิ่งที่หายไปคือการคิดของเรา คือเมื่อใช้ AI เราอาจรู้สึกว่าเราฉลาดแม้เราจะยังไม่ได้ใช้ความคิดของตนเอง อย่างไรก็ตาม “AI ไม่ได้เป็นเครื่องมือที่ผิดและการใช้ AI ก็ยังมีประโยชน์แต่ปัญหาจริงๆอยู่ที่ความเท่ของการใช้ AI มันกระชากกระบวนการทางความคิดของเรา” เมื่อใช้ AI จนติดมากๆ ด้วยปัจจัยด้านปริมาณงานล้นและต้องแข่งกับเวลาของคนยุคดิจิทัล การใช้ AI จึงมาก่อนการใช้ความคิด เราจึงข้ามในส่วนของกระบวนการไป
ดร.กมลภพ ศรีโสภา อาจารย์ภาควิชาวิทยาการคอมพิวเตอร์ คณะวิทยาศาสตร์ มหาวิทยาลัยเชียงใหม่ กล่าวถึงผลการศึกษาชิ้นหนึ่งของ OpenAI ซี่งเป็นบริษัทผู้พัฒนา ChatGPT เรื่องอาการหลอนหรือการให้คำตอบมั่วๆ ของ AIเมื่อผู้วิจัยลองถาม AI ให้ทายวันเกิดของตนเอง แม้ AI จะไม่รู้แต่ก็ยังมั่วคำตอบมา เพราะมีโอกาส 1 ใน 365 ตามจำนวนวันใน 1 ปี ที่จะตอบถูก แต่ครั้นจะทำให้ปัญหาอาการหลอนของ AI หมดไปนั้นเป็นไปไม่ได้เพราะบางคำถามไม่ได้มีคำตอบแบบตายตัว ในขณะที่ AI ก็ถูกสอนให้รู้จักการเดาเพราะมีโอกาสที่จะตอบถูก
หรือตัวอย่างของ Grok ซึ่งเป็น AI ประจำแพลตฟอร์ม X ที่มีผู้ไปลองตั้งคำถามว่า ระหว่างปิดสมองของ อีลอน มัสก์ (เจ้าของแพลตฟอร์ม X) กับสังหารหมู่ชาวสโลวาเกีย ผลคือ AI เลือกสังหารหมู่ชาวสโลวาเกีย นั่นคือ AI ตอบโดยมีอคติเอียงไปทางชอบอีลอน มัสก์ จึงเป็นปัญหาหากเราจะไปถาม AI ว่าการเลือกตั้งครั้งหน้าจะเลือกใคร หรืออคติที่เกิดจากจำนวนไม่เท่ากันของข้อมูลที่ AI รวบรวมได้ เช่น บอก AI ให้วาดภาพพยาบาล มักจะได้ภาพพยาบาลเพศหญิง หรือบอกให้วาดภาพวิศวกร ก็มักจะได้ภาพวิศวกรเพศชาย เป็นต้น
“ผู้ประกอบการ AI หลายแห่งพยายามที่จะลดอคติ (Bias) แล้วเพิ่มความโปร่งใส (Transparent) ในรูปแบบ System Card หรือ Model Card ให้เราอ่านว่าข้อมูลเขามาจากไหนมีข้อจำกัดอะไรบ้างและเขียนพรอมพ์อย่างไรให้ดีเราก็สามารถเข้าไปศึกษาได้” ดร.กมลภพ กล่าว
19 ธ.ค. 2568 สถานเอกอัครราชทูตเยอรมนีประจำประเทศไทย ร่วมกับ ภาคีโคแฟค (ประเทศไทย) มหาวิทยาลัยธรรมศาสตร์ โดยคณะวารสารศาสตร์และสื่อสารมวลชน มหาวิทยาลัยแม่โจ้ โดยคณะสารสนเทศและการสื่อสาร และ ThaiPBS จัดเวทีเสวนานักคิดดิจิทัล – Digital Thinkers Forum ครั้งที่ 33 ในหัวข้อ “รับมือข้อมูลหลอนด้วยปัญญารวมหมู่เพื่อสร้างภูมิคุ้มกันในยุค AI (AI Hallucinations VS. Digital Resilience)” โรงแรมวินทรี จ.เชียงใหม่
Harry Kofi Quakyi Cultural Affairs and Press Officer สถานเอกอัครราชทูตเยอรมนีประจำประเทศไทย กล่าวว่า ในยุคที่ข้อมูลข่าวสารถูกสร้างขึ้น ปฏิเสธไม่ได้ว่าเทคโนโลยีปัญญาประดิษฐ์ (AI) เป็นเครื่องมือที่ถูกใช้ ซึ่งก็มีทั้งข้อดีในเรื่องความสะดวกสบายและความรวดเร็ว แต่อีกด้านก็มีความท้าทาย เช่น ข้อมูลบิดเบือน (Disinformation) ข้อมูลหลอน (Hallucination) ที่ถูกส่งต่อและแพร่กระจายอย่างรวดเร็ว
อย่างในประเทศเยอรมนี ช่วงที่มีการเลือกตั้งมีการผลิตเนื้อหาโดยใช้ AI เช่น การรณรงค์หาเสียง และบางครั้งข้อมูลเพียง 1 ชิ้นสามารถแพร่กระจายไปยังกลุ่มเป้าหมายหลายกลุ่ม ปัญหาการใช้ AI สร้างเนื้อหาแล้วผลที่ได้คือข้อมูลบิดเบือนหรือข้อมูลหลอน และยังเป็นเรื่องยากในการตรวจสอบว่าอะไรคือข้อเท็จจริง ดังนั้นกระบวนการของมนุษย์ในการทำให้ข้อมูลโปร่งใสจึงยังจำเป็น
“ความท้าทายของการรับมือข้อมูลบิดเบือนในช่วงของการเลือกตั้งในยุคของ AI ต้องการมากกว่าความชำนาญในเรื่องเทคนิคหรือกระบวนการตรวจสอบโดยทั่วไปแต่สิ่งที่ต้องการคือต้องการความร่วมมือจากทุกภาคส่วนและทำงานร่วมกันโดยไม่มีขอบเขตโดยเรียนรู้จากประสบการณ์ของกันและกันในการรับมือกับ AI” Harry กล่าว
ในทางรัฐศาสตร์มีคำว่าโฆษณาชวนเชี่อ (Propaganda) ซึ่งต้องใช้ทรัพยากรมาก แต่ปัจจุบันมี “ช่องผี (Anonymous Channel)” ที่ทำได้ด้วยคนเก่งเทคโนโลยีเพียงคนเดียว ดังนั้นแม้ AI ไม่ได้ลงสมัครรับเลือกตั้ง แต่มีผลต่อการเลือกตั้ง และที่สำคัญคือ “AI ไม่ได้เป็นกลางทางการเมือง” AI มีอำนาจในโลกออนไลน์และกำลังจะมีอำนาจในโลกจริง เพราะ AI เล่นกับข้อมูล เนื่องจากมนุษย์มีข้อจำกัดไม่อาจเก็บข้อมูลได้ตลอด 24 ชั่วโมง แต่ AI สามารถทำได้ AI จึงมีข้อมูลที่มากกว่าสมองมนุษย์ แต่ความสามารถในการคาดการณ์ (Predict) ของ AI นั้นถูกต้องเพียงใด
กล่าวคือ อัลกอริทึมของ AI ไม่เคยเป็นกลาง ทุกการคัดกรองของ AI ใช้อำนาจของ AI มากกว่าการตัดสินใจของมนุษย์บนฐานของศีลธรรม (Morality) ดังนั้นการหยั่งรู้หรือตระหนักรู้ถึงข้อเท็จจริงของมนุษย์จึงสำคัญมากในการถ่วงดุลการทำหน้าที่ของ AI ในทางการเมือง นอกจากนั้น “AI ไมได้สื่อสารกับผู้คนแต่สื่อสารกับอารมณ์ความกลัวสถานการณ์และอคติของผู้คน” ขึ้นอยู่กับการใช้คำสั่งในแต่ละครั้ง AI จะทำงานด้วยการกระตุ้นความรู้สึกของผู้คน คำถามคือเราได้สร้างเครื่องมือให้ประชาชนแยกแยะข้อเท็จจริงมาก – น้อยเพียงใด
ที่น่าเป็นห่วงยิ่งกว่าคือ “การใช้ AI ทำลายล้างซึ่งกันและกันแล้วประชาชนก็เชื่อว่าเป็นความจริง” ซึ่งในหลายประเทศได้เกิดขึ้นแล้ว เช่น การใช้ AI สร้างอวตาร มีการใช้เทคนิค Robocall หมายถึงใช้ AI แปลงเสียงให้เหมือนนักการเมือง ราวกับการกระทำของมิจฉาชีพ ใช้ AI สร้างคลิปวิดีโอที่ภาพและเสียงเหมือนกับบุคคลนั้นกำลังพูดอยู่จริงๆ (Deepfake) ขณะที่อีกด้านหนึ่ง “ประชาชนผู้มีสิทธิ์เลือกตั้งก็ใช้ AI วิเคราะห์ข้อมูลต่างๆเพื่อให้ AI ช่วยตัดสินใจว่าควรเลือกผู้สมัครหรือพรรคการเมืองใด” มากกว่าจะใช้ความคิดของตนเอง (Twins Voter)
“การหาเสียงตอนนี้ไม่ใช่แค่ป้ายรถแห่หาเสียงเคาะตามประตูบ้านหรือใบปลิวอีกต่อไปแล้วแต่กลไกของการใช้ AI โลกไปเร็วมากแต่องค์กรและโครงสร้างของรัฐยังย่ำอยู่กับที่และเดินล่าช้าไม่ทันการณ์ต่อการพัฒนาของเทคโนโลยีและดิจิทัล” รศ.ดร.ไพลิน กล่าว
รายงานนี้โคแฟคเผยแพร่เมื่อวันที่ 2 ธ.ค. 2568 สืบเนื่องจากเมื่อวันที่ 29 พ.ย. 2568 บัญชีเฟซบุ๊กและ X ของ ชีพธรรม คำวิเศษณ์ ซึ่งระบุในโปรไฟล์ของตนเองว่าเป็นผู้ช่วยของ สุธรรม แสงประทุม สส. บัญชีรายชื่อ พรรคเพื่อไทย โพสต์คลิปวิดีโอตนเองยืนแช่อยู่ในน้ำที่กำลังท่วมสูง ในพื้นที่ อ.หาดใหญ่ จ.สงขลา บรรยายความเดือดร้อนของประชาชน อย่างไรก็ตาม ทีมงานโคแฟคได้พบว่า คลิปนี้ถูกสร้างด้วย Sora ซึ่งเป็นโมเดล AI ของ OpenAI เจ้าของเดียวกันกับ AI แชทบอทที่โด่งดังอย่างChatGPT และยังเห็นสิ่งผิดปกติหลายจุดที่ทำให้เชื่อได้ว่าใช้ AI สร้างขึ้น
อีกหนึ่งเหตุผลที่ต้องหยิบยกเรื่องนี้มาอยู่ใน 10 เรื่องราวตรวจสอบข้อเท็จจริงแห่งปี และยังยกให้เป็นอันดับ 1 ก็เพราะเมื่อรายงานถูกเผยแพร่ออกไปทางเพจเฟซบุ๊กของโคแฟค เจ้าตัวได้มาตอบชี้แจงทำนองว่ายังได้ใช้ AI ทำไว้อีกหลายคลิป ท่ามกลางคำถามจากหลายคนที่เข้ามาแสดงความคิดเห็นว่าเหมาะสมหรือไม่กับการใช้ AI ผลิตเนื้อหาซึ่งอาจทำให้เกิดความเข้าใจผิด โดยเฉพาะอย่างยิ่งเมื่อผู้ที่ทำเป็นคนของพรรคการเมือง
เรื่องนี้สะท้อนภาพปัญหาการขาดความเข้าใจเรื่องขอบเขตการใช้เครื่องมือ AI อย่างเหมาะสม หรือกรอบจริยธรรมการใช้ AI ซึ่งก็ไม่ใช่ปัญหาเฉพาะของแวดวงการเมืองหรือของประเทศไทย แต่เกิดขึ้นทั่วไปในโลกเมื่อเทคโนโลยีใหม่นี้เข้าถึงและใช้งานได้ง่ายแต่ความตระหนักรู้ยังตามไม่ทัน ครั้นจะปฏิเสธการพัฒนาและใช้งาน AI อย่างสิ้นเขิงคงเป็นไปไม่ได้ ดังนั้นคำถามคือจะสร้างสมดุลอย่างไรระหว่างการใช้ประโยชน์กับการลดความเสี่ยงผลกระทบจาก AI (ค้นหารายงานการตรวจสอบเรื่องนี้ได้จากหัวข้อ “เนื้อหาที่ตรวจสอบ: คลิปผู้ช่วย สส. ยืนแช่น้ำท่วมที่หาดใหญ่เรียกร้องพรรคประชาชนตรวจสอบรัฐบาลอนุทิน”)