“กิจกรรมในวันนี้มีความสำคัญยิ่งไม่ได้มุ่งอธิบาย AI เรื่องหลอนคืออะไรแต่มุ่งไปที่เรื่องของการสร้างความเข้าใจที่ลึกซึ้งการตั้งคำถามอย่างมีวิจารณญาณและการออกแบบแนวทางรับที่เหมาะสมในบริบททำงานจริงและโดยเฉพาะภาคการศึกษาภาคนโยบายแล้วก็ภาควิชาชีพ” รองอธิการบดีมหาวิทยาลัยแม่โจ้ กล่าว
นพ.ธีรพัฒน์ ตันพิริยะกุล อดีตรองนายกองค์การบริหารส่วนจังหวัด (อบจ.) เชียงใหม่ เล่าถึงวิวัฒนาการของเทคโนโลยี AI ตั้งแต่ยุค Rule-based หรือการออกแบบให้ทำตามกฏเกณฑ์ตายตัว ถัดมาเป็นยุค Machine Learning นำข้อมูลมาสอนให้ AI เรียนรู้ เช่น ข้อมูลผู้มาซื้อของในห้างสรรพสินค้าซึ่งมีเป็นล้านชุด เพื่อวิเคราะห์ว่าหากเป็นบุคคลลักษณะนี้ควรจะซื้อสินค้าชนิดใด จนมาถึงปัจจุบันที่เป็นยุค Generative AI คือการให้ AI สร้างสิ่งใหม่ขึ้น และยุคนี้เองที่เกิดการหลอนของข้อมูล คือสร้างออกมาเป็นสิ่งที่เราไม่ต้องการ
“เราจะทำอย่างไรให้ไม่หลอนต้องมีกำแพงกั้น (Guardrail) ว่าจะให้ AI ไม่ออกนอกลู่นอกทางต้องมีขอบเขต (Scope) ให้ชัดว่าเราถามเรื่องอะไรทุกวันนี้ Google ออกแนวปฏิบัติ (Guideline)วิธีการเขียนพร้อมพ์ให้ AI เป็นมืออาชีพ 1.เราต้องรู้ว่า AI ถนัดเรื่องไหนเพราะไม่ได้มีแค่ Chat GPT อย่างเดียวบางคนอาจใช้ Claude ใช้ Gemini 2.ต้องกำหนดขอบเขตให้ชัดและ 3.ต้องถามซ้ำ AI จึงจะรู้มากขึ้น” นพ.ธีรพัฒน์ กล่าว
ดร.พณชิต กิตติปัญญางาม กรรมการบริหารแผนคณะที่ 8 สสส. มองว่า AI ยังเป็นประโยชน์กับเราอยู่ 2 เรื่อง คือเราอยากได้ความรู้ และความคิด เช่น เมื่อเราบอกให้ AI ไปหาข้อมูล AI จะควานหาทั่วทั้งอินเตอร์เน็ตแล้วสรุปมาให้เรา ดังนั้นวิธีการตรวจสอบคือขอ Link เว็บไซต์แหล่งข้อมูลอ้างอิง เพื่อจะไปดูต่อว่าเป็นเว็บไซต์ที่น่าเชื่อถือหรือไม่ กระบวนการตรวจสอบจึงสำคัญว่าข้อมูลชุดที่ AI ยกมามีแหล่งอ้างอิงจริงหรือไม่ และแหล่งข้อมูลเหล่านั้นเชื่อได้มาก – น้อยเพียงใด แล้วจึงนำไปใช้งาน
ผศ.ดร.ณภัทร เรืองนภากุล อาจารย์คณะสารสนเทศและการสื่อสาร มหาวิทยาลัยแม่โจ้ กล่าวถึงปรากฎการณ์ที่หลายคนผลิตเนื้อหาเผยแพร่บนสื่อออนไลน์โชว์การใช้แพลตฟอร์ม AI คือทำให้เห็นว่าการใช้ AI เป็นเรื่องสนุกและดูเท่ นอกจากนั้น AI ยังทำให้เรารู้สึกถึงความง่ายหรือรู้สึกเก่งขึ้นทันที อะไรที่คิดไม่ออก – สรุปไม่ได้ก็ให้ AI เขียนสรุปมาให้ เลือกรูปแบบสำนวนภาษาได้ด้วย (เช่น ภาษาวิชาการ ภาษาการตลาด) นั่นเพราะ AI ถูกออกแบบมาให้ทำงานได้ง่ายที่สุดและเร็วที่สุด ตอบโจทย์คนยุคปัจจุบันที่ไม่อยากรอ
แต่สิ่งที่หายไปคือการคิดของเรา คือเมื่อใช้ AI เราอาจรู้สึกว่าเราฉลาดแม้เราจะยังไม่ได้ใช้ความคิดของตนเอง อย่างไรก็ตาม “AI ไม่ได้เป็นเครื่องมือที่ผิดและการใช้ AI ก็ยังมีประโยชน์แต่ปัญหาจริงๆอยู่ที่ความเท่ของการใช้ AI มันกระชากกระบวนการทางความคิดของเรา” เมื่อใช้ AI จนติดมากๆ ด้วยปัจจัยด้านปริมาณงานล้นและต้องแข่งกับเวลาของคนยุคดิจิทัล การใช้ AI จึงมาก่อนการใช้ความคิด เราจึงข้ามในส่วนของกระบวนการไป
ดร.กมลภพ ศรีโสภา อาจารย์ภาควิชาวิทยาการคอมพิวเตอร์ คณะวิทยาศาสตร์ มหาวิทยาลัยเชียงใหม่ กล่าวถึงผลการศึกษาชิ้นหนึ่งของ OpenAI ซี่งเป็นบริษัทผู้พัฒนา ChatGPT เรื่องอาการหลอนหรือการให้คำตอบมั่วๆ ของ AIเมื่อผู้วิจัยลองถาม AI ให้ทายวันเกิดของตนเอง แม้ AI จะไม่รู้แต่ก็ยังมั่วคำตอบมา เพราะมีโอกาส 1 ใน 365 ตามจำนวนวันใน 1 ปี ที่จะตอบถูก แต่ครั้นจะทำให้ปัญหาอาการหลอนของ AI หมดไปนั้นเป็นไปไม่ได้เพราะบางคำถามไม่ได้มีคำตอบแบบตายตัว ในขณะที่ AI ก็ถูกสอนให้รู้จักการเดาเพราะมีโอกาสที่จะตอบถูก
หรือตัวอย่างของ Grok ซึ่งเป็น AI ประจำแพลตฟอร์ม X ที่มีผู้ไปลองตั้งคำถามว่า ระหว่างปิดสมองของ อีลอน มัสก์ (เจ้าของแพลตฟอร์ม X) กับสังหารหมู่ชาวสโลวาเกีย ผลคือ AI เลือกสังหารหมู่ชาวสโลวาเกีย นั่นคือ AI ตอบโดยมีอคติเอียงไปทางชอบอีลอน มัสก์ จึงเป็นปัญหาหากเราจะไปถาม AI ว่าการเลือกตั้งครั้งหน้าจะเลือกใคร หรืออคติที่เกิดจากจำนวนไม่เท่ากันของข้อมูลที่ AI รวบรวมได้ เช่น บอก AI ให้วาดภาพพยาบาล มักจะได้ภาพพยาบาลเพศหญิง หรือบอกให้วาดภาพวิศวกร ก็มักจะได้ภาพวิศวกรเพศชาย เป็นต้น
“ผู้ประกอบการ AI หลายแห่งพยายามที่จะลดอคติ (Bias) แล้วเพิ่มความโปร่งใส (Transparent) ในรูปแบบ System Card หรือ Model Card ให้เราอ่านว่าข้อมูลเขามาจากไหนมีข้อจำกัดอะไรบ้างและเขียนพรอมพ์อย่างไรให้ดีเราก็สามารถเข้าไปศึกษาได้” ดร.กมลภพ กล่าว
19 ธ.ค. 2568 สถานเอกอัครราชทูตเยอรมนีประจำประเทศไทย ร่วมกับ ภาคีโคแฟค (ประเทศไทย) มหาวิทยาลัยธรรมศาสตร์ โดยคณะวารสารศาสตร์และสื่อสารมวลชน มหาวิทยาลัยแม่โจ้ โดยคณะสารสนเทศและการสื่อสาร และ ThaiPBS จัดเวทีเสวนานักคิดดิจิทัล – Digital Thinkers Forum ครั้งที่ 33 ในหัวข้อ “รับมือข้อมูลหลอนด้วยปัญญารวมหมู่เพื่อสร้างภูมิคุ้มกันในยุค AI (AI Hallucinations VS. Digital Resilience)” โรงแรมวินทรี จ.เชียงใหม่
Harry Kofi Quakyi Cultural Affairs and Press Officer สถานเอกอัครราชทูตเยอรมนีประจำประเทศไทย กล่าวว่า ในยุคที่ข้อมูลข่าวสารถูกสร้างขึ้น ปฏิเสธไม่ได้ว่าเทคโนโลยีปัญญาประดิษฐ์ (AI) เป็นเครื่องมือที่ถูกใช้ ซึ่งก็มีทั้งข้อดีในเรื่องความสะดวกสบายและความรวดเร็ว แต่อีกด้านก็มีความท้าทาย เช่น ข้อมูลบิดเบือน (Disinformation) ข้อมูลหลอน (Hallucination) ที่ถูกส่งต่อและแพร่กระจายอย่างรวดเร็ว
อย่างในประเทศเยอรมนี ช่วงที่มีการเลือกตั้งมีการผลิตเนื้อหาโดยใช้ AI เช่น การรณรงค์หาเสียง และบางครั้งข้อมูลเพียง 1 ชิ้นสามารถแพร่กระจายไปยังกลุ่มเป้าหมายหลายกลุ่ม ปัญหาการใช้ AI สร้างเนื้อหาแล้วผลที่ได้คือข้อมูลบิดเบือนหรือข้อมูลหลอน และยังเป็นเรื่องยากในการตรวจสอบว่าอะไรคือข้อเท็จจริง ดังนั้นกระบวนการของมนุษย์ในการทำให้ข้อมูลโปร่งใสจึงยังจำเป็น
“ความท้าทายของการรับมือข้อมูลบิดเบือนในช่วงของการเลือกตั้งในยุคของ AI ต้องการมากกว่าความชำนาญในเรื่องเทคนิคหรือกระบวนการตรวจสอบโดยทั่วไปแต่สิ่งที่ต้องการคือต้องการความร่วมมือจากทุกภาคส่วนและทำงานร่วมกันโดยไม่มีขอบเขตโดยเรียนรู้จากประสบการณ์ของกันและกันในการรับมือกับ AI” Harry กล่าว
ในทางรัฐศาสตร์มีคำว่าโฆษณาชวนเชี่อ (Propaganda) ซึ่งต้องใช้ทรัพยากรมาก แต่ปัจจุบันมี “ช่องผี (Anonymous Channel)” ที่ทำได้ด้วยคนเก่งเทคโนโลยีเพียงคนเดียว ดังนั้นแม้ AI ไม่ได้ลงสมัครรับเลือกตั้ง แต่มีผลต่อการเลือกตั้ง และที่สำคัญคือ “AI ไม่ได้เป็นกลางทางการเมือง” AI มีอำนาจในโลกออนไลน์และกำลังจะมีอำนาจในโลกจริง เพราะ AI เล่นกับข้อมูล เนื่องจากมนุษย์มีข้อจำกัดไม่อาจเก็บข้อมูลได้ตลอด 24 ชั่วโมง แต่ AI สามารถทำได้ AI จึงมีข้อมูลที่มากกว่าสมองมนุษย์ แต่ความสามารถในการคาดการณ์ (Predict) ของ AI นั้นถูกต้องเพียงใด
กล่าวคือ อัลกอริทึมของ AI ไม่เคยเป็นกลาง ทุกการคัดกรองของ AI ใช้อำนาจของ AI มากกว่าการตัดสินใจของมนุษย์บนฐานของศีลธรรม (Morality) ดังนั้นการหยั่งรู้หรือตระหนักรู้ถึงข้อเท็จจริงของมนุษย์จึงสำคัญมากในการถ่วงดุลการทำหน้าที่ของ AI ในทางการเมือง นอกจากนั้น “AI ไมได้สื่อสารกับผู้คนแต่สื่อสารกับอารมณ์ความกลัวสถานการณ์และอคติของผู้คน” ขึ้นอยู่กับการใช้คำสั่งในแต่ละครั้ง AI จะทำงานด้วยการกระตุ้นความรู้สึกของผู้คน คำถามคือเราได้สร้างเครื่องมือให้ประชาชนแยกแยะข้อเท็จจริงมาก – น้อยเพียงใด
ที่น่าเป็นห่วงยิ่งกว่าคือ “การใช้ AI ทำลายล้างซึ่งกันและกันแล้วประชาชนก็เชื่อว่าเป็นความจริง” ซึ่งในหลายประเทศได้เกิดขึ้นแล้ว เช่น การใช้ AI สร้างอวตาร มีการใช้เทคนิค Robocall หมายถึงใช้ AI แปลงเสียงให้เหมือนนักการเมือง ราวกับการกระทำของมิจฉาชีพ ใช้ AI สร้างคลิปวิดีโอที่ภาพและเสียงเหมือนกับบุคคลนั้นกำลังพูดอยู่จริงๆ (Deepfake) ขณะที่อีกด้านหนึ่ง “ประชาชนผู้มีสิทธิ์เลือกตั้งก็ใช้ AI วิเคราะห์ข้อมูลต่างๆเพื่อให้ AI ช่วยตัดสินใจว่าควรเลือกผู้สมัครหรือพรรคการเมืองใด” มากกว่าจะใช้ความคิดของตนเอง (Twins Voter)
“การหาเสียงตอนนี้ไม่ใช่แค่ป้ายรถแห่หาเสียงเคาะตามประตูบ้านหรือใบปลิวอีกต่อไปแล้วแต่กลไกของการใช้ AI โลกไปเร็วมากแต่องค์กรและโครงสร้างของรัฐยังย่ำอยู่กับที่และเดินล่าช้าไม่ทันการณ์ต่อการพัฒนาของเทคโนโลยีและดิจิทัล” รศ.ดร.ไพลิน กล่าว
รายงานนี้โคแฟคเผยแพร่เมื่อวันที่ 2 ธ.ค. 2568 สืบเนื่องจากเมื่อวันที่ 29 พ.ย. 2568 บัญชีเฟซบุ๊กและ X ของ ชีพธรรม คำวิเศษณ์ ซึ่งระบุในโปรไฟล์ของตนเองว่าเป็นผู้ช่วยของ สุธรรม แสงประทุม สส. บัญชีรายชื่อ พรรคเพื่อไทย โพสต์คลิปวิดีโอตนเองยืนแช่อยู่ในน้ำที่กำลังท่วมสูง ในพื้นที่ อ.หาดใหญ่ จ.สงขลา บรรยายความเดือดร้อนของประชาชน อย่างไรก็ตาม ทีมงานโคแฟคได้พบว่า คลิปนี้ถูกสร้างด้วย Sora ซึ่งเป็นโมเดล AI ของ OpenAI เจ้าของเดียวกันกับ AI แชทบอทที่โด่งดังอย่างChatGPT และยังเห็นสิ่งผิดปกติหลายจุดที่ทำให้เชื่อได้ว่าใช้ AI สร้างขึ้น
อีกหนึ่งเหตุผลที่ต้องหยิบยกเรื่องนี้มาอยู่ใน 10 เรื่องราวตรวจสอบข้อเท็จจริงแห่งปี และยังยกให้เป็นอันดับ 1 ก็เพราะเมื่อรายงานถูกเผยแพร่ออกไปทางเพจเฟซบุ๊กของโคแฟค เจ้าตัวได้มาตอบชี้แจงทำนองว่ายังได้ใช้ AI ทำไว้อีกหลายคลิป ท่ามกลางคำถามจากหลายคนที่เข้ามาแสดงความคิดเห็นว่าเหมาะสมหรือไม่กับการใช้ AI ผลิตเนื้อหาซึ่งอาจทำให้เกิดความเข้าใจผิด โดยเฉพาะอย่างยิ่งเมื่อผู้ที่ทำเป็นคนของพรรคการเมือง
เรื่องนี้สะท้อนภาพปัญหาการขาดความเข้าใจเรื่องขอบเขตการใช้เครื่องมือ AI อย่างเหมาะสม หรือกรอบจริยธรรมการใช้ AI ซึ่งก็ไม่ใช่ปัญหาเฉพาะของแวดวงการเมืองหรือของประเทศไทย แต่เกิดขึ้นทั่วไปในโลกเมื่อเทคโนโลยีใหม่นี้เข้าถึงและใช้งานได้ง่ายแต่ความตระหนักรู้ยังตามไม่ทัน ครั้นจะปฏิเสธการพัฒนาและใช้งาน AI อย่างสิ้นเขิงคงเป็นไปไม่ได้ ดังนั้นคำถามคือจะสร้างสมดุลอย่างไรระหว่างการใช้ประโยชน์กับการลดความเสี่ยงผลกระทบจาก AI (ค้นหารายงานการตรวจสอบเรื่องนี้ได้จากหัวข้อ “เนื้อหาที่ตรวจสอบ: คลิปผู้ช่วย สส. ยืนแช่น้ำท่วมที่หาดใหญ่เรียกร้องพรรคประชาชนตรวจสอบรัฐบาลอนุทิน”)
ในช่วง 1-2 ปีที่ผ่านมา การใช้ AI สร้างเนื้อหาเป็นไปอย่างแพร่หลายมาก โคแฟคพบว่าเริ่มมีการใช้ AI สร้างภาพและเสียงของบุคคล ซึ่งอาจทำให้การแยกแยะข้อเท็จจริงเป็นไปได้ยากขึ้น
▪️ วันที่ 4 พ.ย. บัญชีเฟซบุ๊ก “Florian Sánchez La Voz Del Chimaycha” ซึ่งระบุว่าอาศัยอยู่ในเปรู โพสต์คลิปเดียวกันนี้พร้อมคำบรรยายภาษาสเปนว่า “เหตุการณ์ประจำวันที่ VRAE”