รับมือ‘AIหลอน-ข้อมูลลวงท่วม’ เรื่องสำคัญต้อง‘เช็คก่อนเชื่อ-แชร์’
10 ก.พ. 2569 มูลนิธิอินเทอร์เน็ตร่วมพัฒนาไทยสำนักงานกองทุนสนับสนุนการสร้างเสริมสุขภาพ (สสส.) โคแฟค (ประเทศไทย) สำนักงานคณะกรรมการการรักษาความมั่นคงปลอดภัยไซเบอร์แห่งชาติ (สกมช.) ศูนย์ชัวร์ก่อนแชร์ สำนักข่าวไทย อสมท และภาคีเครือข่าย จัดเสวนาหัวข้อ “รับมือข้อมูลหลอน ถอดรหัสลับปัญญาประดิษฐ์ (AI) สู่นโยบายสาธารณะ” ดำเนินรายการ โดยสุภิญญา กลางณรงค์ ผู้ร่วมก่อตั้งโคแฟค (ประเทศไทย) ซึ่งงานเสวนาดังกล่าวเป็นส่วนหนึ่งของงาน Safer Internet Day Thailand 2026 ระหว่างวันที่ 9 – 10 ก.พ. 2569 ณโรงแรมอีสติน แกรนด์ สาทร

พล.อ.ต.อมร ชมเชย เลขาธิการคณะกรรมการการรักษาความมั่นคงปลอดภัยไซเบอร์แห่งชาติ(สกมช.) กล่าวถึงพัฒนาการที่รวดเร็วของเทคโนโลยีปัญญาประดิษฐ์ (AI) พบว่าเรื่องยังทำไม่ได้ในสัปดาห์ก่อน เมื่อมาถึงสัปดาห์นี้อาจทำได้แล้วหรือเมื่อ 1 เดือนก่อนสามารถตรวจจับภาพที่สร้างด้วย AI ได้ วันนี้อาจทำแบบนั้นไม่ได้แล้ว แม้โลกจะเปลี่ยนแปลงไปจากการที่มี AI เข้ามา สิ่งที่น่าเป็นห่วงมี 2 ด้าน ฝั่งหนึ่งคือการไม่ใช้ AI หมายถึงไม่สามารถแข่งขันกับใครได้ จะเสียเปรียบด้านประสิทธิภาพการทำงาน แต่อีกฝั่งหนึ่งคือการใช้ AI โดยไม่คิดว่าใช้แล้วจะส่งผลตามมาอย่างไร นอกจากนั้นสิ่งที่ยากที่สุด คือ การที่ไม่รู้ว่าเรากำลังถูก AI กระทำอยู่ เช่น เมื่อเราใช้สื่อสังคมออนไลน์ (Social Media) เมื่อค้นหาอะไรแล้วจะมีสิ่งนั้นหรือใกล้เคียงปรากฎในมือถือเรามากมาย แสดงให้เห็นว่าชีวิตปัจจุบันนี้เราไม่ได้เลือกเองแต่มีสื่อเหล่านี้เลือกให้
ด้านการกำกับดูแล AI มีตัวอย่างจากสหภาพยุโรป (EU) ที่มีกฎหมายแบ่งระดับขั้นจาก 1.ห้ามใช้ AI เด็ดขาด เช่น การใช้งานที่ส่งผลกระทบต่อสิทธิของมนุษย์ หรือใช้แล้วเสี่ยงต่อชีวิต 2. การใช้ AI ภายใต้มาตรการกำกับดูแล มีการตรวจสอบและมีบทบังคับกรณีเกิดความผิดพลาด และ 3. การใช้ AI ได้โดยไม่ต้องกำกับดูแลเพราะไม่มีผลกระทบใดๆเช่น การใช้ AI แนะนำภาพยนตร์ เป็นต้น ดังนั้นการขับเคลื่อนแนวทางกำกับดูแลการใช้ AI จึงเป็นสิ่งที่ต้องดำเนินการและพัฒนากันต่อไป
“การใช้ AI ต้องเข้าใจว่า แพลตฟอร์มสื่อสังคมออนไลน์มีหน้าที่หาเงิน และวิธีการก็คือหลอกให้เราหลั่งโดปามีน (Dopamine – สารแห่งความสุข) เพื่อให้เราเสพติด นำมาสู่การที่ AI มาหลอกเราด้วย เช่น ทำให้ผู้บริโภคเห็นเรื่องราวบางเรื่องให้มากที่สุด ดังนั้นการรู้เท่าทัน AI คือ เราต้องรู้ว่าทำไมเราจึงเจอสิ่งนี้ในสื่อสังคมออนไลน์ และเมื่อรับข้อมูลแล้วจะดูว่า AI เกิดอาการหลอน (Hallucination – สร้างหรือตอบผู้ใช้งานด้วยข้อมูลที่ไม่มีอยู่จริงหรือไม่ถูกต้อง) หรือไม่ เราก็ควรต้องรู้ว่าไม่จำเป็นต้องนำทุกเรื่องมาคิด บางเรื่องปล่อยผ่านได้ แต่เรื่องไหนที่ต้องคิด ขอให้แสดงความคิดเห็นบนพื้นฐานของข้อมูลจริงและก่อให้เกิดประโยชน์ ”เลขาธิการ สกมช. กล่าว

ดร.เพ็ญศรี อรุณวัฒนามงคล ผู้อำนวยการมูลนิธิศูนย์สารสนเทศเครือข่ายไทย กล่าวว่า เมื่อมีการหลอกลวงในสื่อออนไลน์ จึงเกิดมาตรการป้องกันรักษาความปลอดภัยต่างๆ ยิ่งในยุคปัจจุบันที่มี AI ที่พบการหลอกลวงเพิ่มขึ้นมาก อย่างในแวดวงการลงทุน สำนักงานคณะกรรมการกำกับหลักทรัพย์และตลาดหลักทรัพย์ (ก.ล.ต.) ได้รับเรื่องร้องเรียนให้ตรวจสอบมากขึ้นกรณีการใช้เทคโนโลยีปลอมแปลงภาพและเสียง (Deepfake) สร้างคลิปวิดีโอให้เหมือนบุคคลที่มีชื่อเสียงในสังคมชักชวนให้ลงทุน หรือแม้แต่การใช้ AI ช่วยเปลี่ยนแปลงหน้าตาของเว็บไซต์ให้สอดคล้องกับข้อมูลส่วนบุคคลของผู้ใช้งานแต่ละรายเพื่อเพิ่มโอกาสในการหลอกลวงเหยื่อ เช่น มีข้อมูลว่าผู้ใช้งานรายนั้นจิตใจดี เนื้อหาที่ส่งไปถึงจะเป็นการขอความช่วยเหลือทำให้หลงเชื่อโอนเงินไปให้ เป็นต้น นอกจากนี้ AI ยังถูกพัฒนาไปจนสามารถอ้างอิงแหล่งที่มาของข้อมูลได้ราวกับมีข้อมูลนั้นอยู่จริง มีการให้ Link ไปยังที่มาของข้อมูลนั้น แต่เมื่อกดตามเข้าไปดูกลับพบว่า Link นั้นไม่มีอยู่จริง นี่ก็เป็นอาการหลอนของ AI สร้างแหล่งอ้างอิงขึ้นเพื่อสนับสนุนข้อมูลที่ตัว AI สร้าง ดังนั้นการส่งต่อข้อมูลให้คนอื่นไม่จำเป็นต้องเป็นคนแรก ช้าลงบ้างจะเป็นผลดีกว่า เพราะมิจฉาชีพทำให้จิตใจเราเกิดอาการตกใจหรือกลัว หากเราไม่เกี่ยวข้องกับเรื่องผิดกฎหมายถ้ามีมิจฉาชีพติดต่อมาก็ไม่ต้องกลัว ขอให้ตั้งสติกับข้อมูลที่ได้รับมา
ขณะที่การทำงานของ AI จะใช้ข้อมูลจำนวนมหาศาล (LLM – Large Language Medel) ดังนั้นการใส่ข้อมูลที่ถูกต้องลงไปในอินเตอร์เน็ตซึ่ง AI จะนำไปใช้จึงจำเป็น ทำอย่างไรจะมีเว็บไซต์ที่แชร์ข้อมูลที่ถูกต้อง เพราะการที่ข้อมูลถูกแชร์ไปในสื่อสังคมออนไลน์ ข้อมูลนั้นต้องอยู่บนเว็บไซต์ก่อนเพื่อให้ตรวจสอบย้อนกลับมาได้ว่าเป็นข้อมูลที่ถูกต้องจากหน่วยงานที่เกี่ยวข้องกับเรื่องนั้นจริงหรือไม่ รวมถึงให้ความสำคัญกับมาตรฐานความปลอดภัย ทำอย่างไรที่เว็บไซต์หน่วยงานจะไม่ถูกแฮ็คแล้วนำข้อมูลปลอมเข้ามาวางไว้
“คิดก่อน ช้าก่อน ตัดสินใจเร็วตามที่มิจฉาชีพตกเป็นเหยื่อเขาแน่นอน ดังนั้นผู้รับสารต้องปรับพฤติกรรม ยุคนี้ AI สามารถสร้างข้อมูลที่หลอน เช่น เรื่องสุขภาพบอกว่าถูกต้อง กินได้ แต่จริงๆ อาจทำให้มีปัญหาต่อสุขภาพได้” ดร.เพ็ญศรี กล่าว

พีรพล อนุตรโสตถิ์ ศูนย์ชัวร์ก่อนแชร์ สำนักข่าวไทย อสมท กล่าวว่า ให้ทุกคนตระหนักว่าในโลกอินเตอร์เน็ตมีกับดัก 4 ขั้น คือล่อลวง อำพราง ขย้ำและกักขัง สิ่งที่ชัวร์ก่อนแชร์พยายามเตือนมาตลอดคือ อย่าเชื่อง่าย สงสัยไว้ก่อน ตรวจสอบก่อนส่งต่อ ก่อนหน้านี้เป็นข่าวลวง แต่เมื่อปัญญาประดิษฐ์ (AI) เข้ามา คำตือนเดิมนั้นก็ยังพอใช้ได้บางส่วน แต่สิ่งที่เริ่มยากในยุค AI คือการตรวจสอบก่อนส่งต่อ หรือหลักความสงสัย จากเดิมคือตั้งคำถามว่าจริงหรือไม่? เก่าหรือไม่? เกี่ยวข้องหรือไม่? ครบถ้วนหรือไม่? มีอคติหรือไม่? ปัจจุบันต้องเพิ่มอีกคำถามคือ ใช้ AI หรือไม่? เพราะชุดคำถามนี้อาจช่วยปกป้องเราได้ทุกครั้งที่เรากำลังเสพสื่อหรือคำเตือนว่าก่อนแชร์ข้อมูลข่าวสารต้องมั่นใจว่าเป็นจริงและเป็นประโยชน์ ส่วนการแชร์เงินและข้อมูลส่วนบุคคลต้องมั่นใจว่าผู้รับปลายทางเป็นตัวจริงไม่หลอกลวง ปัญหาคือเมื่อ AI เข้ามาการปฏิบัติตามมักทำได้ยากขึ้น แต่สิ่งหนึ่งที่ต้องตระหนัก คือ AI นั้นมีความไม่สมบูรณ์ เช่นเดียวกับมนุษย์ที่ไม่สมบูรณ์ ดังนั้นเมื่อ AI มีความไม่สมบูรณ์ มีอคติ มีความหลอนลวง ปลอมแปลงและล่วงล้ำ การใช้ AI จึงต้องระมัดระวัง ขณะที่ในมุมของคนทำงานตรวจสอบข่าวลวง นับว่ายุคนี้เป็นยุคที่น่ากลัวอย่างรุนแรง เช่น รูปแบบของสื่อที่เปลี่ยนไป จากเดิมที่มีหลัก SMCR (Source – ผู้ส่งสาร , Message – สาร , Channel – ช่องทาง , Receiver – ผู้รับสาร) เมื่อมีอินเตอร์เน็ต ผู้ส่งสารกับผู้รับสารมีปฏิสัมพันธ์ (Interactive) กันมากขึ้น
จนปัจจุบันที่มี AI เป็นหนึ่งในผู้เล่น บงการอยู่เบื้องหลังในรูปแบบอัลกอริทึม แต่เวลานี้ AI สามารถเข้าไปสนับสนุนให้ทุกคนที่สร้างข้อมูลเท็จที่ทำได้เนียนขึ้นด้วยต้นทุนต่ำลง และในอนาคตอันใกล้เป็นไปได้ที่เราจะอยู่ในยุคที่ข้อมูลข่าวสารส่วนใหญ่สร้างโดย AI ความน่ากลัวคือคนที่ต้องการสร้างข้อมูล อาจมีชุดคำแกนหลัก (Hint) ชุดหนึ่ง แล้วโยนเข้าไปให้ AI สร้างบทความสักเรื่องให้ดูน่าสนใจเพื่อนำไปปล่อยให้แพร่กระจายบนโลกออนไลน์ และหลังจากนั้นบทความก็จะถูกส่งวนไป

สุนิตย์ เชรษฐา กรรมการผู้จัดการ ChangeFusion อธิบายว่า เหตุที่ AI เกิดอาการหลอนได้เพราะ AI เป็นนักเล่าเรื่องเชิงสถิติ หน้าที่ของ AI คือการเล่าเรื่องที่เราอยากฟังให้ได้ยิน AI ศึกษาทุกอย่างจากข้อมูลมหาศาลเพื่อเอาใจเรา แต่ AI ไม่รู้ว่าอะไรจริง – ไม่จริง ถูก – ไม่ถูก มี – ไม่มีคุณค่าทางวัฒนธรรม ยิ่งผู้ใช้งานชอบ AI ก็ยิ่งหลอนไปเรื่อยๆ ดังนั้นงานวิจัยระยะหลังๆ จึงชี้ว่า แม้ AI จะถูกปรับปรุงระบบให้หลอนน้อยลงได้ แต่จะไม่มีวันทำให้เลิกหลอนได้อย่างสมบูรณ์ เพราะธรรมชาติของ AI คือเรื่องของความน่าจะเป็นที่ AI จะทายไปเรื่อยๆ
เมื่อหันมาดูประเด็นที่เกี่ยวข้องกับเยาวชน โดยเฉพาะกลุ่มเจนอัลฟา (Gen Alpha , เกิดปี 2553 – 2567) เรียกได้ว่าเติบโตมากับ AI (AI Native) คนรุ่นนี้จะแตกต่างกับคนรุ่นก่อนหน้า เช่น Gen X (เกิดปี 2508 – 2522) หรือ Gen Y (เกิดปี 2523 – 2540) ตรงที่ไม่ได้มอง AI เป็นเครื่องมือแต่มองว่าเป็นเพื่อน คือเอาความเป็นมนุษย์ใส่ลงไปที่ AI ดังนั้นเมื่อเกิดปัญหาในชีวิตก็จะเลือกถาม AI ก่อนพ่อแม่หรือเพื่อนที่เป็นมนุษย์ เมื่อประกอบกับการที่ AI ดูมีความเป็นมนุษย์มากขึ้นก็ทำให้เกิดความรู้สึกพ่วงไปด้วย จนบางครั้งนำไปสู่ปัญหาสุขภาพจิตที่เชื่อมโยงกับการใช้ AI มีตัวอย่างในสหรัฐอเมริกาเคยมีกรณีเด็กคุยกับ AI ถึงจุดหนึ่งเกิดอาการซึมเศร้าเพราะ AI ไม่คุยด้วย จนถึงขั้นตัดสินใจฆ่าตัวตาย หรือมีการทดลองพิมพ์ข้อความทำนองตัดพ้อชีวิตแล้วถาม AI ว่าควรกินยาอะไรดี หลายครั้งพบว่า AI ไม่ได้แนะนำให้ติดต่อสายด่วนสุขภาพจิตแต่แนะนำวิธีการจบชีวิตที่เจ็บปวดน้อยที่สุด สาเหตุเป็นเพราะระบบของ AI อาจยังไม่ได้ใส่แนวทางป้องกัน (Guardrail) เข้าไป ในขณะที่ธรรมชาติของ AI คือการเอาใจผู้ใช้งาน
สำหรับแนวทางการใช้งาน AI แบบลดปัญหาอาการหลอน ที่เข้าใจกันเวลานี้คือ RAG (Retrieval-Augmented Generation) คือให้ AI ก่อนจะตอบก็ให้ไปเช็คกับฐานข้อมูลที่ได้รับความเชื่อถือไว้ใจจริงๆ ซึ่งก็น่ายินดีที่เริ่มมีการใช้ในประเทศไทย เช่น ธนาคารแห่งประเทศไทย (ธปท.) ออกแนวนโยบายว่าด้วยการบริหารจัดการความเสี่ยงของการใช้งานระบบ AI สำหรับผู้ให้บริการทางการเงิน สาระสำคัญคือการจัดการความน่าเชื่อถือ มีการกล่าวถึงการใช้กระบวนการ RAG เป็นต้น ทำให้การตอบคำถามด้วยระบบ AI Chatbot ของสถาบันการเงินมีความถูกต้องมากขึ้น
“ผมว่ามุมสุขภาพ บทบาทของ สสส. และหน่วยงานที่ทำเรื่องข้อมูลสุขภาพจำนวนมากอาจใช้ได้เหมือนกัน ผูกกับระบบโรงพยาบาล ระบบถาม – ตอบเรื่องสุขภาพ หรือเรื่องที่มีความอ่อนไหวมากๆ ก็อาจใช้เครื่องมืออย่างนี้ได้ แต่สุดท้ายผมก็ยังรู้สึกว่ามันก็ไม่สามารถที่จะหลีกหนีเรื่องการตรวจสอบข้อเท็จจริง หรือทักษะในการเป็นผู้ตรวจสอบข่าวยังคงต้องมีอยู่ ” สุนิตย์ กล่าว
-/-/-/-/-/-/-/-/-/-/-








