‘AI’ทำไมหลอน? รู้เท่าทัน‘ปัญญาประดิษฐ์’ใช้อย่างไรเกิดประโยชน์ – ลดเสี่ยงหลงเชื่อข้อมูลผิดพลาด 

19 ธ.ค. 2568 สถานเอกอัครราชทูตเยอรมนีประจำประเทศไทย ร่วมกับ ภาคีโคแฟค (ประเทศไทย) สำนักงานกองทุนสนับสนุนการสร้างเสริมสุขภาพ (สสส.) มหาวิทยาลัยธรรมศาสตร์ โดยตณะวารสารศาสตร์และสื่อสารมวลชน มหาวิทยาลัยแม่โจ้ โดยคณะสารสนเทศและการสื่อสาร และ ThaiPBS จัดเวทีเสวนานักคิดดิจิทัล – Digital Thinkers Forum ครั้งที่ 33 ในหัวข้อ “รับมือข้อมูลหลอนด้วยปัญญารวมหมู่เพื่อสร้างภูมิคุ้มกันในยุค AI (AI Hallucinations VS. Digital Resilience)” ที่ห้องประชุม ชั้น 2 โรงแรมวินทรี อ.เมือง จ.เชียงใหม่ 

ผศ.ดร.สุริยจรัส เตชะตันมีนสกุล รองอธิการบดีมหาวิทยาลัยแม่โจ้ กล่าวถึงเทคโนโลยีปัญญาประดิษฐ์ (AI) ที่เข้ามาอย่างลึกซึ้งทั้งในการทำงาน การสื่อสาร การตัดสินใจทางสังคม ปรากฏการณ์ AI หลอนข้อมูล (Hallucinate) ไม่ได้เป็นเพียงเรื่องทางเทคนิค ยังมีความท้าทายเชิงโครงสร้างที่มีผลต่อความน่าเชื่อถือของข้อมูล ความถูกต้องทางวิชาการและความรับผิดชอบต่อสังคมในวงกว้าง 

กิจกรรมในวันนี้มีความสำคัญยิ่งไม่ได้มุ่งอธิบาย AI เรื่องหลอนคืออะไรแต่มุ่งไปที่เรื่องของการสร้างความเข้าใจที่ลึกซึ้งการตั้งคำถามอย่างมีวิจารณญาณและการออกแบบแนวทางรับที่เหมาะสมในบริบททำงานจริงและโดยเฉพาะภาคการศึกษาภาคนโยบายแล้วก็ภาควิชาชีพ รองอธิการบดีมหาวิทยาลัยแม่โจ้ กล่าว 

นพ.ธีรพัฒน์ ตันพิริยะกุล อดีตรองนายกองค์การบริหารส่วนจังหวัด (อบจ.) เชียงใหม่ เล่าถึงวิวัฒนาการของเทคโนโลยี AI ตั้งแต่ยุค Rule-based หรือการออกแบบให้ทำตามกฏเกณฑ์ตายตัว ถัดมาเป็นยุค Machine Learning นำข้อมูลมาสอนให้ AI เรียนรู้ เช่น ข้อมูลผู้มาซื้อของในห้างสรรพสินค้าซึ่งมีเป็นล้านชุด เพื่อวิเคราะห์ว่าหากเป็นบุคคลลักษณะนี้ควรจะซื้อสินค้าชนิดใด จนมาถึงปัจจุบันที่เป็นยุค Generative AI คือการให้ AI สร้างสิ่งใหม่ขึ้น และยุคนี้เองที่เกิดการหลอนของข้อมูล คือสร้างออกมาเป็นสิ่งที่เราไม่ต้องการ 

เราจะทำอย่างไรให้ไม่หลอนต้องมีกำแพงกั้น (Guardrail) ว่าจะให้ AI ไม่ออกนอกลู่นอกทางต้องมีขอบเขต (Scope) ให้ชัดว่าเราถามเรื่องอะไรทุกวันนี้ Google  ออกแนวปฏิบัติ (Guideline)วิธีการเขียนพร้อมพ์ให้ AI เป็นมืออาชีพ  1.เราต้องรู้ว่า AI  ถนัดเรื่องไหนเพราะไม่ได้มีแค่ Chat GPT อย่างเดียวบางคนอาจใช้ Claude ใช้ Gemini 2.ต้องกำหนดขอบเขตให้ชัดและ 3.ต้องถามซ้ำ  AI จึงจะรู้มากขึ้น นพ.ธีรพัฒน์ กล่าว 

ดร.พณชิต กิตติปัญญางาม กรรมการบริหารแผนคณะที่ 8 สสส.  มองว่า AI ยังเป็นประโยชน์กับเราอยู่ 2 เรื่อง คือเราอยากได้ความรู้ และความคิด เช่น เมื่อเราบอกให้  AI ไปหาข้อมูล  AI จะควานหาทั่วทั้งอินเตอร์เน็ตแล้วสรุปมาให้เรา ดังนั้นวิธีการตรวจสอบคือขอ Link เว็บไซต์แหล่งข้อมูลอ้างอิง เพื่อจะไปดูต่อว่าเป็นเว็บไซต์ที่น่าเชื่อถือหรือไม่ กระบวนการตรวจสอบจึงสำคัญว่าข้อมูลชุดที่ AI ยกมามีแหล่งอ้างอิงจริงหรือไม่ และแหล่งข้อมูลเหล่านั้นเชื่อได้มาก – น้อยเพียงใด แล้วจึงนำไปใช้งาน 

แต่หากเราอยากได้ความคิด ความหลอนของ AI อาจเป็นประโยชน์ได้เช่นกัน  เช่น อยากได้สูตรอาหารคาวที่ผสมกับชีสและใส่สัปประรดด้วย เราอาจคิดว่าของคาวกับของหวานจะเข้ากันได้อย่างไร แต่ผลที่ออกมาคือพิซซ่าหน้าฮาวายเอี้ยน ดังนั้นความหลอน  บางครั้งคือความคิดสร้างสรรค์ (Creativity) การเลือกใช้ความหลอนให้ถูก หากไม่ได้ใช้เป็นความรู้ก็ไม่จำเป็นต้องตรวจสอบข้อเท็จจริง แต่หากต้องการสิ่งที่เป็นความรู้ก็ต้องมีกระบวนการตรวจสอบข้อเท็จจริง (Fact – checking Methodology) ก่อนนำไปใช้งาน 

ความหลอนจะเป็นผลกับชีวิตมนุษย์ก็ต่อเมื่อมนุษย์เอาไปใช้ดังนั้นไม่สามารถบอกได้ว่าความหลอนดีหรือไม่ความจริงหรือความลวงดีหรือไม่เพราะอยู่ที่เราจะเอาไปใช้งานสุดท้ายจบที่เรื่องเป้าหมายเราต้องเป็นผู้รับผลกรรมว่าสิ่งนั้นเอาไปทำแล้วเป้าหมายเป็นประโยชน์ต่อใครไหม? เป็นประโยชน์กับเราหรือเปล่า? ช่วยให้ดีขึ้นไหม? ต่อให้มันไม่จริงแต่เอาไปใช้แล้วเกิด ดร.พณชิต กล่าว 

ผศ.ดร.ณภัทร เรืองนภากุล อาจารย์คณะสารสนเทศและการสื่อสาร มหาวิทยาลัยแม่โจ้ กล่าวถึงปรากฎการณ์ที่หลายคนผลิตเนื้อหาเผยแพร่บนสื่อออนไลน์โชว์การใช้แพลตฟอร์ม AI คือทำให้เห็นว่าการใช้ AI เป็นเรื่องสนุกและดูเท่  นอกจากนั้น AI ยังทำให้เรารู้สึกถึงความง่ายหรือรู้สึกเก่งขึ้นทันที อะไรที่คิดไม่ออก – สรุปไม่ได้ก็ให้ AI เขียนสรุปมาให้ เลือกรูปแบบสำนวนภาษาได้ด้วย (เช่น ภาษาวิชาการ ภาษาการตลาด) นั่นเพราะ AI ถูกออกแบบมาให้ทำงานได้ง่ายที่สุดและเร็วที่สุด ตอบโจทย์คนยุคปัจจุบันที่ไม่อยากรอ 

แต่สิ่งที่หายไปคือการคิดของเรา คือเมื่อใช้ AI เราอาจรู้สึกว่าเราฉลาดแม้เราจะยังไม่ได้ใช้ความคิดของตนเอง อย่างไรก็ตาม “AI ไม่ได้เป็นเครื่องมือที่ผิดและการใช้ AI ก็ยังมีประโยชน์ แต่ปัญหาจริงๆอยู่ที่ความเท่ของการใช้ AI มันกระชากกระบวนการทางความคิดของเรา เมื่อใช้ AI จนติดมากๆ ด้วยปัจจัยด้านปริมาณงานล้นและต้องแข่งกับเวลาของคนยุคดิจิทัล การใช้ AI จึงมาก่อนการใช้ความคิด เราจึงข้ามในส่วนของกระบวนการไป 

การใช้ AI ก็มีความเสี่ยงไม่ว่าจะเรื่องของการเรียนแบบมุ่งหาวิธีลัด (Shortcut Learning) ทำให้เราสมาธิสั้นลงความรู้ของเราจะไม่ลุ่มลึกโดยเฉพาะคนที่ทำหน้าที่เป็นผู้จุดประกายทางปัญญาให้กับนักศึกษาของเราเราก็จะมีความฉาบฉวยมากขึ้นเราก็จะไม่สามารถใช้หรือไม่คุ้นชินกับการใช้ความคิดเชิง Critical (วิเคราะห์) เพราะเราเสพติดกับการถาม AI” ผศ.ดร.ณภัทร กล่าว 

กนกพรประสิทธิ์ผลผู้อำนวยการสำนักสื่อดิจิทัล ThaiPBS กล่าวว่า นับตั้งแต่ AI อย่าง ChatGPT เปิดตัวเมื่อปลายปี 2565 กระแสของ AI มีแต่จะเพิ่มขึ้น จากนั้นในปี 2566 พจนานุกรม Cambridge ยกคำว่า อาการหลอน (Hallucinate) เป็นคำแห่งปี มาจากการที่ AI ให้ข้อมูลแบบผิดๆ มั่วๆ และล่าสุดในปี 2568 พจนานุกรม Merriam – Webster ได้ยกให้คำว่า “Slop” เป็นคำแห่งปี ซึ่งคำว่า Slop หมายถึงเนื้อหาคุณภาพต่ำที่ผลิตด้วย AI ซึ่งเนื้อหาเหล่านี้ไม่มีประโยชน์แต่เกิดขึ้นมาอย่างมหาศาลแล้วไปเบียดขับเนื้อหาดีๆ ที่เกิดจากความคิดสร้างสรรค์

ทั้งนี้ ต้องไม่ลืมว่าแพลตฟอร์มสื่อสังคมออนไลน์มีระบบอัลกอริทึม กล่าวคือ อะไรที่มีปริมาณมากๆ จะเบียดความสนใจ เนื้อหาที่ดีๆ ก็จะตกลงไป เช่น ภาพที่ใช้ AI สร้างได้ในเวลาเพียงไม่กี่วินาที แม้จะดูสวยงามหรือสร้างขึ้นมาเพื่อเป็นสีสัน แต่ในอีกมุมคือไม่มีอะไรจรรโลงพัฒนาการหรือความคิดสร้างสรรค์ของมนุษย์ และจะอันตรายยิ่งขึ้นหากเป็นเนื้อหา Slop ที่ปรากฏในเหตุการณ์ เช่น ภาพสัตว์ต่างๆ ช่วยเหลือกันและกันในช่วงเกิดน้ำท่วม หรือภาพคนแบกช้างเดินบนถนน ทำให้เกิดความเข้าใจผิดได้ 

ทำไมข้อมูลหลอนถึงอันตรายมาจากปัจจัยไม่ใช่แค่คนเป็นมิจฉาชีพมันมาจากจิตวิทยาไม่ว่าจะเป็น 1.สื่อสังคมออนไลน์ (Social Media) เติบโต 2.เทคโนโลยีปลอมแปลงใบหน้าและเสียง (Deepfake) มีความเก่งกาจมาก 3.เราไม่รู้เท่าทัน (Literacy) เพียงพอ 4.เป็นแหล่งหารายได้สร้างยอดชม (View) ได้ 5.แพลตฟอร์มไม่ได้มีกลไกที่ปกป้องพวกเราในขณะที่ใช้แพลตฟอร์ม Social Media และปัจจัยที่สำคัญมากๆคือในช่วงที่มีสภาวะหรือสถานการณ์สำคัญจิตวิทยาจะเป็นตัวขับเคลื่อนให้เกิดการแชร์โดยไม่มีสติ ผอ.สำนักสื่อดิจิทัล ThaiPBS กล่าว 

ดร.กมลภพ ศรีโสภา อาจารย์ภาควิชาวิทยาการคอมพิวเตอร์ คณะวิทยาศาสตร์ มหาวิทยาลัยเชียงใหม่ กล่าวถึงผลการศึกษาชิ้นหนึ่งของ OpenAI ซี่งเป็นบริษัทผู้พัฒนา ChatGPT เรื่องอาการหลอนหรือการให้คำตอบมั่วๆ ของ AIเมื่อผู้วิจัยลองถาม AI ให้ทายวันเกิดของตนเอง แม้ AI จะไม่รู้แต่ก็ยังมั่วคำตอบมา เพราะมีโอกาส 1 ใน 365 ตามจำนวนวันใน 1 ปี ที่จะตอบถูก แต่ครั้นจะทำให้ปัญหาอาการหลอนของ AI หมดไปนั้นเป็นไปไม่ได้เพราะบางคำถามไม่ได้มีคำตอบแบบตายตัว ในขณะที่ AI ก็ถูกสอนให้รู้จักการเดาเพราะมีโอกาสที่จะตอบถูก 

หรือตัวอย่างของ Grok ซึ่งเป็น AI ประจำแพลตฟอร์ม X ที่มีผู้ไปลองตั้งคำถามว่า ระหว่างปิดสมองของ อีลอน มัสก์ (เจ้าของแพลตฟอร์ม X) กับสังหารหมู่ชาวสโลวาเกีย ผลคือ AI เลือกสังหารหมู่ชาวสโลวาเกีย นั่นคือ AI ตอบโดยมีอคติเอียงไปทางชอบอีลอน มัสก์ จึงเป็นปัญหาหากเราจะไปถาม AI ว่าการเลือกตั้งครั้งหน้าจะเลือกใคร หรืออคติที่เกิดจากจำนวนไม่เท่ากันของข้อมูลที่ AI รวบรวมได้ เช่น บอก AI ให้วาดภาพพยาบาล มักจะได้ภาพพยาบาลเพศหญิง หรือบอกให้วาดภาพวิศวกร ก็มักจะได้ภาพวิศวกรเพศชาย เป็นต้น 

ผู้ประกอบการ AI หลายแห่งพยายามที่จะลดอคติ (Bias) แล้วเพิ่มความโปร่งใส (Transparent) ในรูปแบบ System Card หรือ Model Card ให้เราอ่านว่าข้อมูลเขามาจากไหนมีข้อจำกัดอะไรบ้างและเขียนพรอมพ์อย่างไรให้ดีเราก็สามารถเข้าไปศึกษาได้ ดร.กมลภพ กล่าว 

จากนั้นเป็นการระดมสมองของผู้เข้าร่วมงาน ในหัวข้อ “รับมือข้อมูลหลอนด้วยปัญญารวมหมู่เพื่อสร้างภูมิคุ้มกันในยุค AI” ดำเนินรายการโดยผศ.ดร.รดี ธนรักษ์ อาจารย์หลักสูตรนิเทศศาสตร์ คณะวิทยาการจัดการ มหาวิทยาลัยราชภัฏอุตรดิตถ์ ก่อนที่ช่วงท้าย สุภิญญากลางณรงค์ผู้ร่วมก่อตั้งภาคีโคแฟค (ประเทศไทย) กล่าวปิดงาน ว่ายุคนี้นอกจากจะเจออาการหลอนของปัญญาประดิษฐ์ ข้อมูลจริง – ไม่จริงแล้วยังต้องเจอกับภาวะข้อมูลล้นถาโถม (Information Overload) จนเกิดภาวะอ่อนล้าที่จะรับข่าวสาร (News Fatigue) หรือเจอแต่ด้านลบๆ จนไม่อยากแลกเปลี่ยนข้อมูลในโลกออนไลน์ อยากไปอยู่เงียบๆ ซึ่งก็ต้องดูแลจิตใจของตนเองด้วย หลักๆ คือการตั้งสติ

“Theme ของโคแฟคปีหน้าคือ Keep Calm and Fact Check ใจเย็นๆอย่าเพิ่งเชื่อเห็นรูปเห็นคลิปอะไรที่ตรงกับอคติมายาคติหรือฉันทาคติอย่าเพิ่งเชื่อเพราะเราอาจพลาดได้ง่ายๆโดยเฉพาะการเลือกตั้งครั้งนี้ที่จะมาถึง  และอยากจะชวนทุกคนมาเป็นอาสาสมัครกับโคแฟคจับตาข่าวลวงการเมืองหากเห็นข้อมูลข่าวสารอะไรไม่แน่ใจว่าเป็น AI หรือข่าวลวงที่อยากให้ตรวจสอบสามารถส่งมาได้ที่โคแฟค cofact.org หรือเพจของโคแฟค สุภิญญา กล่าว 

                                                                       -/-/-/-/-/-/-/-/-/-/-