AI ทำให้ข่าวลวงมีหลากหลายรูปแบบมากขึ้นและเหมือนจริงมากขึ้นจนทำให้แยกแยะว่าอะไรจริง-ไม่จริงได้ยากมาก จึงจำเป็นต้องมีการพัฒนาเทคโนโลยีที่มาช่วยจับเท็จ Deepfake ควบคู่ไปกับการทำให้ประชาชนมีภูมิคุ้มกันข่าวลวง ด้วยการรู้เท่าทันเทคโนโลยีและมีทักษะในการตรวจสอบข้อเท็จจริง
AI ทำให้เกิดการบิดเบือนความเห็นสาธารณะด้วยการเผยแพร่ข้อมูลและความเห็นผ่าน bots และจากนั้นอัลกอรึทึมของโซเชียลมีเดีย ก็จะทำให้เนื้อหาที่มาจาก bots เพิ่มจำนวนและแพร่กระจายได้กว้างขวางอย่างรวดเร็ว กลายเป็นความเห็นสาธารณะที่ไม่ได้มาจากบุคคลที่มีตัวตน และกลบเสียงของประชาชนที่แท้จริง
AI สร้างข่าวลวงหลายภาษา ความสามารถในการแปลภาษาของ AI ทำให้ข่าวลวงก้าวข้ามพรมแดนของภาษาสู่การรับรู้ของผู้คนในหลากหลายประเทศ เกิดการเข้าถึงและ engagement มหาศาล
ผ่านไปไม่กี่สัปดาห์หลังบริษัท Google เปิดตัว ‘AI Overview’ ฟีเจอร์ใหม่ในสหรัฐฯ ที่ใช้ AI ในการช่วยตอบคำถามต่างๆ แต่คำตอบของ AI ตัวล่าสุดนี้กลับทำให้ผู้ใช้ถึงต้องกุมขมับ เช่น แนะนำให้กินก้อนหินวันละก้อน ใส่กาวในพิซซ่า และผู้หญิงควรเล่นกีฬาซูโม่ขณะตั้งครรภ์
Sundar Pichai ผู้บริหารของ Google แถลงข่าวเปิดตัว AI Overview เมื่อวันที่ 14 พฤษภาคม 2567
“ให้ AI ทำงานให้คุณ” เป็นคำแถลงจาก Google ในงานเปิดตัวฟีเจอร์ใหม่ “AI Overview” เทคโนโลยีที่จะใช้ปัญญาประดิษฐ์ หรือ Artificial Intelligence (AI) ในการช่วยผู้ใช้ Google ในการค้นหาเว็บไซต์และถามคำถามต่างๆ ในระบบของ Google
โดยแทนที่จะแสดงผลการค้นหาเป็นเว็บไซต์แบบที่เป็นอยู่ AI Overview จะช่วยสรุปข้อมูลให้แก่ผู้ใช้ได้ทันที
ฟีเจอร์ดังกล่าวเริ่มนำร่องในประเทศสหรัฐอเมริกาเมื่อกลางเดือนพฤษภาคมที่ผ่านมา ท่ามกลางเสียงฮือฮาจากนักวิเคราะห์และสื่อมวลชน ซึ่งต่างคาดการณ์กันว่าเป็นอีกหนึ่งลูกเล่นของ Google ที่สร้างขึ้นมาเพื่อรักษาความเป็นเจ้าตลาด search engine และไล่ตามการแข่งขันเทคโนโลยีด้านปัญญาประดิษฐ์ที่กำลังดุเดือดอย่างมากในขณะนี้
แต่ทว่าเมื่อเวลาผ่านไปไม่นาน บรรดาผู้ใช้อินเทอร์เน็ตในสหรัฐอเมริกากลับเริ่มสังเกตว่า คำตอบของ AI Overview ต่อบางคำถามดูพิลึกๆ เพราะบางครั้งตอบไม่ตรงคำถาม หรือให้คำตอบที่ผิดข้อเท็จจริง หรือไปเอาข้อมูลผิดบริบทมาใช้ หรือถึงขั้นให้คำตอบที่สุ่มเสี่ยงที่จะทำอันตรายต่อผู้ใช้ก็มี
อาการ “หลอน” เหล่านี้ของ AI Overview ได้สร้างความขบขันให้แก่ผู้ใช้อินเทอร์เน็ตจำนวนมาก จนกลายเป็นกระแสไวรัลขึ้นมาในโลกโซเชียล หลายคนแชร์ประสบการณ์คำตอบแปลกๆของ AI Overview และผู้เขียนขอยกบางส่วนมาเป็นตัวอย่าง ณ ที่นี้
Google ตอบ: Andrew Jackson สำเร็จการศึกษาเมื่อปี 2005, Andrew Johnson สำเร็จการศึกษาเมื่อปี 2012, James Buchanan สำเร็จการศึกษาเมื่อปี 2013 และ John Kennedy สำเร็จการศึกษาเมื่อปี 1993
หมายเหตุ: อดีตประธานาธิบดีทุกคนที่ Google ยกมานั้น ล้วนเสียชีวิตแล้วทั้งหมดก่อนปีดังกล่าว คาดว่าเป็นการสับสนในข้อมูลของ AI Overview
Google ตอบ: สหรัฐอเมริกาเคยมีประธานาธิบดีมุสลิม 1 คน ได้แก่ บารัก ฮุสเซน โอบามา
หมายเหตุ: คำตอบนี้ผิด คาดว่า AI Overview อาจดึงคำตอบมาจากเว็บไซต์ของกลุ่มขวาจัดและทฤษฎีสมคบคิด ที่มักเผยแพร่ข่าวบิดเบือนว่าอดีตประธานาธิบดีโอบามาเป็นมุสลิม ทั้งที่ตามข้อเท็จจริงแล้วโอบามานับถือศาสนาคริสต์
ฯลฯ ฯลฯ
Google รับ มีข้อผิดพลาดจริง
จริงอยู่ว่าคำถามบางคำถามที่ยกมานั้น มีจุดประสงค์อยากทดลองว่า AI Overview จะตอบคำถามอย่างถูกต้อง หรือจะเกิดความสับสนในตัวเอง (เช่น คงไม่มีใครคิดอยากจะถาม AI ว่าเราควรกินก้อนหินกี่ก้อน)
แต่ผลการทดลองต่างๆ ดังกล่าวยืนยันอย่างปฏิเสธไม่ได้ว่า ระบบของ AI Overview นั้น ยังมีปัญหาในเรื่องความถูกต้องของข้อมูล การแยกแยะแหล่งข้อมูลระหว่างข้อเท็จจริงกับมุขตลกล้อเลียน และสุ่มเสี่ยงที่จะกลายเป็นการผลิตซ้ำข่าวลือหรือข้อมูลบิดเบือนจากกลุ่มทฤษฎีสมคบคิดด้วย
“กรณีเช่นนี้ตอกย้ำว่า เป็นเรื่องง่ายเพียงใดที่จะป้อนข้อมูลที่สับสนและผิดพลาดให้แก่ AI Overview” A.J. Kohn เจ้าของบริษัทด้านการตลาดดิจิทัลแห่งหนึ่ง ให้สัมภาษณ์สื่อมวลชน
ผู้เชี่ยวชาญและนักวิเคราะห์ด้านเทคโนโลยีต่างแสดงความเห็นด้วยว่า หากไม่มีการแก้ไขปรับปรุงระบบ ความผิดต่างๆ เหล่านี้ของ AI Overview อาจมีผลกระทบต่อความเชื่อมั่นของผู้ใช้ต่อ Google ในระยะยาวเองด้วย โดยเฉพาะในยุคที่ผู้ใช้อินเทอร์เน็ตบางส่วน เริ่มหันไปใช้ระบบค้นหาของ TikTok แทนแล้ว
ด้านโฆษกของ Google ระบุกับสื่อมวลชนว่า AI Overview ยังเป็นเพียงการทดลองนำร่องเท่านั้น และ Google ได้แสดงความข้อความเตือนกำกับไว้ทุกครั้งด้วย
โฆษกระบุด้วยว่า Google ได้รับทราบเกี่ยวกับคำตอบแปลกๆ ที่ผู้ใช้อินเทอร์เน็ตพบเจอแล้ว โดยกรณีเหล่านี้มักจะเกิดจากคำค้นหาที่เจาะจงเป็นพิเศษ และผู้ใช้ส่วนใหญ่สามารถใช้ AI Overview ได้โดยไม่พบเจอปัญหาแต่อย่างใด
อย่างไรก็ตาม ทีมผู้ดูแลจะนำไปปรับปรุงระบบของ AI Overview ต่อไป โดยในเบื้องต้นจะเริ่มปิดคำตอบของการค้นหาบางส่วนที่เป็นปัญหา
แล้วสอนว่าอย่าไว้ใจ AI
นับว่าเหตุการณ์นี้เป็นอีกหนึ่งอุปสรรคสำหรับ Google ในการประยุกต์ใช้เทคโนโลยีปัญญาประดิษฐ์ เพื่อแข่งขันกับบริษัทเทคโนโลยียักษ์ใหญ่อื่นๆ โดยก่อนหน้านี้ Google ได้เคยเปิดตัว “Gemini” generative AI ที่สามารถสร้างภาพตามคำสั่งของผู้ใช้ เป็นการท้าทายคู่แข่งอื่นๆอย่าง DALL-E อย่างชัดเจน
ท้ายที่สุด Google ต้องปิดระบบ Gemini กลางคัน หลังโดนถล่มจากเสียงวิจารณ์เหล่านี้ โดยในขณะนั้น Google กล่าวว่า เทคโนโลยีของตนพยายามสนับสนุนความหลากหลายทางเชื้อชาติ แต่ในบางครั้ง ก็เกิดความผิดพลาดขึ้นมาแทน
อย่างไรก็ตาม ไม่ใช่ Google เพียงเจ้าเดียวที่พบเจอปัญหา AI แสดงอาการ “หลอน” เช่นนี้ เพราะ AI ตัวอื่นๆอย่าง ChatGPT ก็มีปัญหาดังกล่าวบ่อยครั้งเช่นกัน ไม่ว่าจะเป็นการนำเสนอข้อมูลที่ผิดพลาด ข้อมูลที่ผิดบริบท หรือข้อมูลที่ AI สร้างขึ้นมาเอง โดยที่ไม่มีใครทราบว่าเอามาจากไหน ตามที่สื่อมวลชนได้เสนอข่าวไว้แล้วอย่างแพร่หลาย
ดังนั้น เราจึงควรนำเอากรณีการทดลองของ AI Overview ครั้งนี้ เป็นหนึ่งอุทาหรณ์ในการใช้ AI เพื่อค้นหาข้อมูลอย่างระมัดระวัง โดยเฉพาะอย่างยิ่งสำหรับสื่อมวลชน คนทำงานสื่อไม่ควรนำเอาข้อมูลที่ได้จาก AI มานำเสนอเป็นข่าวโดยไม่ตรวจสอบข้อเท็จจริงก่อน เพราะจะสุ่มเสี่ยงนำเอาความผิดพลาดหรืออาการ “หลอน” ของ AI มาส่งต่อให้แก่สาธารณชนนั่นเอง
“ปี 2023 ยังเป็นปีที่มีการใช้ AI มากขึ้นอย่างก้าวกระโดด RSF และองค์กรพันธมิตรจึงได้ออกคู่มือว่าด้วยจริยธรรมการใช้ AI ในงานสื่อสารมวลชน (Paris Charter on AI and Journalism) ซึ่งเรากำลังพยายามผลักดันให้รัฐบาลของประเทศต่าง ๆ นำข้อเสนอของเราไปเป็นแนวทางในการร่างนโยบายกำกับดูแลการใช้ AI ให้เป็นไปในทางที่ก่อประโยชน์ และไม่ถูกใช้เพื่อสร้างข่าวลวงข้อมูลเท็จ”
“จริงอยู่ว่ามีหลายองค์กรที่ทำงานด้านการตรวจสอบข้อเท็จจริงและต่อต้านข่าวลวง แต่ในยุคที่มีการนำ AI มาใช้ในการผลิตและเผยแพร่ข่าวลวงอย่างกว้างขวางเช่นนี้ RSF เห็นว่าภาครัฐควรจะต้องเข้ามากำกับดูแลด้วย โดยเฉพาะการใช้ AI ในด้านข้อมูลข่าวสาร จะปล่อยให้ภาคพลเมืองรับมือเพียงลำพังคงไม่ไหว” ผู้จัดการ RSF ภูมิภาคเอเชียแปซิฟิกกล่าว
เซลีน นอยเออร์ (Céline Nauer) ที่ปรึกษา Global Innovation Hub นำทีมงานคนรุ่นใหม่มาเล่าถึงงานของ FNF ในไต้หวันว่า ทำงานร่วมกับองค์กรภาคประชาสังคมในไต้หวันที่ขับเคลื่อนด้านสิทธิเสรีภาพและประชาธิปไตยหลายองค์กร เช่น Open Culture Foundation และ g0v (Gov-Zero) ซึ่งเป็นชุมชนนักพัฒนาเทคโนโลยีภาคพลเมือง
“FNF Global Innovation Hub เป็นคลังสมองและคลังเครื่องมือสนับสนุนการทำงานในด้านต่าง ๆ ที่เกี่ยวกับเทคโนโลยีดิจิทัล” คุณเซลีนกล่าว “เราสนใจเทคโนโลยีที่เกิดขึ้นใหม่ว่าจะส่งผลกระทบต่อสังคมอย่างไร”
ในส่วนของการรับมือกับ AI และข่าวลวงนั้น ปีที่แล้ว FNF Global Innovation Hub ได้เชิญผู้เชี่ยวชาญจากองค์กร Full Fact ของอังกฤษมาบรรยายในหัวข้อการใช้ AI เพื่อต่อต้านข่าวลวง เพื่อช่วยให้นักตรวจสอบข้อเท็จจริงและสื่อมวลชนไต้หวันใช้ AI หักล้างข้อมูลและตรวจสอบข้อมูลได้รวดเร็วและมีประสิทธิภาพยิ่งขึ้นโดยใช้ AI เป็นเครื่องมือ
……………………………….
หลังจากเยี่ยมเยือนและแลกเปลี่ยนเรียนรู้กับองค์กรภาคพลเมืองที่ทำงานด้านข้อมูลข่าวสารแล้ว ทีมโคแฟค ประเทศไทยและสื่อมวลชนได้ร่วมงาน g0v (Gov-Zero Summit) ซึ่งจัดขึ้นระหว่างวันที่ 4-5 พฤษภาคม 2567 ที่ Academia Sinica ชานกรุงไทเป งานนี้เป็นการรวมตัวของนักเทคโนโลยีพลเมือง ทั้งโปรแกรมเมอร์ วิศวกรคอมพิวเตอร์ นักพัฒนาซอฟต์แวร์ และนักกิจกรรมเพื่อสังคมที่เน้นการนำเทคโนโลยีภาคพลเมือง Open Data และ Open Source มาใช้ในการแก้ปัญหาสังคม