“เราจะใช้ AI อย่างไรให้สร้างสรรค์และปลอดภัย”  โดย พณชิต กิตติปัญญางาม  CEO, ZTRUS  กรรมการผู้ทรงคุณวุติ สถาบันเพื่อการยุติธรรมประเทศไทย

Editors’ Picks
การปาฐกถาในหัวข้อ “เราจะใช้ AI อย่างไรให้สร้างสรรค์และปลอดภัย” โดย พณชิต กิตติปัญญางาม

 การปาฐกถาในหัวข้อ “เราจะใช้ AI อย่างไรให้สร้างสรรค์และปลอดภัย” โดย พณชิต กิตติปัญญางาม  CEO, ZTRUS กรรมการผู้ทรงคุณวุติ สถาบันเพื่อการยุติธรรมประเทศไทย ในงาน  Digital Thinkers Forum # เวทีนักคิดดิจิทัลครั้งที่ 26 “เราจะใช้เอไออย่างไรให้สร้างสรรค์และปลอดภัย” ณ Siam Paragon NEXT TECH x SCBX ชั้น 4 สยามพารากอน วันที่ 17 ม.ค. 2567  ร่วมจัดงานโดย ภาคีโคแฟค (ประเทศไทย) สำนักงานกองทุนสนับสนุนการสร้างเสริมสุขภาพ (สสส.)  Centre for Humanitarian Dialogue (HD) สถาบันเชนจ์ฟิวชั่น มูลนิธิฟรีดริช เนามัน (ประเทศไทย) สภาการสื่อมวลชนแห่งชาติ สภาองค์กรของผู้บริโภค สถานีโทรทัศน์ไทยพีบีเอส Tellscore และ Creative Citizen

📌 รับชมเฉพาะออนไลน์ ได้ที่ #ThaiPBS

• YouTube : • YouTube : http://youtu.be/bLJwcvqUUI8

เสวนานักคิดดิจิทัลครั้งที่ 26 เปิดมุมมองผู้เชี่ยวชาญด้าน AI จะรับมือและใช้ประโยชน์อย่างสร้างสรรค์ 

Editors’ Picks

​17 ม.ค. 2567 ภาคีโคแฟค (ประเทศไทย) ร่วมกับ สำนักงานกองทุนสนับสนุนการสร้างเสริมสุขภาพ (สสส.) Centre for Humanitarian Dialogue (HD) สถาบันเชนจ์ฟิวชั่น มูลนิธิฟรีดริช เนามัน (ประเทศไทย) สภาการสื่อมวลชนแห่งชาติ สภาองค์กรของผู้บริโภค สถานีโทรทัศน์ไทยพีบีเอส Tellscore และ Creative Citizen จัดงาน Digital Thinkers Forum # เวทีนักคิดดิจิทัลครั้งที่ 26 “เราจะใช้เอไออย่างไรให้สร้างสรรค์และปลอดภัย” ณ Siam Paragon NEXT TECH x SCBX ชั้น 4 สยามพารากอน พร้อมถ่ายทอดสดผ่านช่องยูทูป “Thai PBS” และเพจเฟซบุ๊ก “Cofact โคแฟค” สภาการสื่อมวลชนแห่งชาติ และสภาองค์กรของผู้บริโภค 

นางเบญจมาภรณ์   ลิมปิษเฐียร ผู้ช่วยผู้จัดการสำนักงานกองทุนสนับสนุนการสร้างเสริมสุขภาพ (สสส.) กล่าวเปิดงาน ฉายภาพการทำงานของ สสส. ที่ประเด็นเกี่ยวกับสื่อเป็นอีกหนึ่งเรื่องใกล้ตัว โดยเฉพาะเทคโนโลยีปัญญาประดิษฐ์ (เอไอ-AI) ที่เป็นได้ทั้งบวกและลบ ซึ่ง สสส. มีแผนงานที่ทำงานด้านระบบสื่อและวิถีสุขภาวะทางปัญญา

“ พื้นฐานของ AI คือเทคโนโลยีที่ถูกออกแบบให้มีระบบทำงานเหมือนกับการทำงานของสมองมนุษย์  ปัจจุบันซอฟต์แวร์หลาย ๆ ตัวที่ขับเคลื่อนด้วยระบบ AI  และพยายามทำให้มีความสามารถในการตอบโต้เหมือนกับมนุษย์ด้วยกันให้ได้มากที่สุด  ซึ่งส่งทั้งในทางบวกและทางลบ ในเวทีเสวนาวันนี้เราจะร่วมกันมองว่ามีหนทางที่ช่วยกันพัฒนานโยบายสาธารณะ เพื่อหาทางป้องกันและพัฒนาให้เกิดการสื่อสาร พูดคุยกัน รู้จักและใช้ AIให้เป็นไปในทางที่สร้างสรรค์มากที่สุด” ผู้ช่วยผู้จัดการ สสส. กล่าว

จากนั้นเป็นการปาฐกถาในหัวข้อ “เราจะใช้ AI อย่างไรให้สร้างสรรค์และปลอดภัย” โดย พณชิต กิตติปัญญางาม CEO, ZTRUS กรรมการผู้ทรงคุณวุติ สถาบันเพื่อการยุติธรรมประเทศไทย เริ่มต้นด้วย “6 คำเตือนหรือข้อควรระวังเกี่ยวกับ AI” ได้แก่ 1.เลือกใช้อย่างระมัดระวัง 2.อย่าใส่ข้อมูลส่วนตัวเข้าไป 3.อย่าใช้เนื้อหาลอกเลียนแบบ (Plagiarized) 4.อย่าให้ระบบสนทนา (Chat) บันทึกข้อมูลที่เราพิมพ์ไว้ 5.ระวังทุกกิจกรรมที่อันตราย และ 6.อย่าเชื่อว่า AI จะแม่นยำ (Accuracy)  ซึ่งทั้งหมดนี้ “พูดง่ายแต่ทำยาก” เพราะในความเป็นจริงแต่ละคนแชร์ข้อมูลในสื่อสังคมออนไลน์กันมาก อีกทั้ง “ปริมาณข้อมูลมหาศาลที่พุ่งเข้าใส่ในทุกวินาทีจนยากที่มนุษย์จะตั้งสติรับมือได้ทัน” โดยเฉพาะเมื่อมีการใช้ “บอท (Bot)” หรือโปรแกรมอัตโนมัติช่วยสร้างหรือเผยแพร่ข้อมูล ขณะที่เทคโนโลยีปัญญาประดิษฐ์ “เหตุที่ AI ดูฉลาด จริงๆ แล้วมาจากการเดาบนข้อมูลสถิติ” เมื่อใครคนหนึ่งจะพัฒนา AI ก็จะใช้หลักคิดว่า เมื่อมีการป้อนข้อมูลแบบหนึ่งเข้าไป สิ่งที่ AI ควรจะตอบโต้กลับมาคืออะไร และพยายามสะสมชุดคำตอบในคำถามเดียวกันให้มากที่สุด จากนั้นเลือกคำตอบที่คิดว่ามนุษย์อยากเห็นที่สุด เพราะหากเป็นคำตอบที่ไม่ถูกใจ มนุษย์ก็จะมองว่า AI ไม่ฉลาด

“ในการสร้าง AI นั้นเป็นศาสตร์ของของปลอม (Artificial Science) เรารู้ว่ากระเป๋าใบนี้เป็นแบรนด์เนมปลอมเพราะเรารู้ว่าของจริงหน้าตาเป็นอย่างไร ฉะนั้นก่อนเราจะรู้ของปลอมเราต้องเข้าใจของจริงก่อน เราถึงจะรู้ได้ว่าเราจะบริหารจัดการของปลอมนี้อย่างไร หลายคนอาจคิดว่า AI จะต้องคุ้มครองสร้างสรรค์ให้ปลอดภัย มันเป็นไปไม่ได้ถ้าเรายังไม่เคยทำความเข้าใจการรับรู้ของจริงในเรื่องต่างๆ ของมนุษย์อย่างจริงจัง” พณชิต กล่าว

ต่อมาเป็นการนำเสนองานวิจัยโคแฟค เรื่อง “AI กับข้อมูลข่าวสาร” โดย สุนิตย์ เชรษฐา ผู้อำนวยการสถาบัน ChangeFusion รวบรวมหัวข้อ “ความเสี่ยง” ที่มีการพูดคุยกันเกี่ยวกับ “เนื้อหาที่ปัญญาประดิษฐ์สร้างขึ้น (Generative AI)” ไล่ตั้งแต่ 1.การเร่งขยายทั้งปริมาณและคุณภาพของเนื้อหาลวง ไม่ว่าภาพ เสียงหรือสื่อผสม ที่ทำได้เหมือนของจริงและมีต้นทุนต่ำ เช่น มีการปล่อยภาพสมเด็จพระสันตะปาปาฟรานซิส (Pope Francis) สวมใส่เสื้อผ้าแบรนด์ดังอย่าง บาเลนเซียกา (Balenciaga) ถูกแชร์อย่างกว้างขวางในสื่อสังคมออนไลน์ ท่ามกลางเสียงวิพากษ์วิจารณ์ว่าเป็นผู้นำศาสนาแต่ไม่เป็นแบบอย่างที่ดีด้านความสมถะ กระทั่งได้ทราบภายหลังว่าเป็นภาพที่แชร์กันนั้น AI ทำขึ้นไม่ใช่ภาพจริงแต่อย่างใด หรือ AI สามารถเขียนบทความด้วยสำนวนภาษาที่เหมือนกับนักเขียนตัวจริงคนนั้นได้ หากบทความหรือหนังสือของนักเขียนเป้าหมายถูกนำไปใส่ในฐานข้อมูลให้ AI เรียนรู้ 

AI ยังเขียนเนื้อหาในมุมมองของผู้มีความคิดแบบใดก็ได้ ไม่ว่าจะเป็นมุมของอาชญากร กลุ่มที่มีความคิดสุดโต่ง หรือมีแนวคิดแปลกๆ กลายเป็นสวรรค์ของนักทำปฏิบัติการข้อมูลข่าวสาร (ไอโอ IO) ไม่ว่าฝ่ายรัฐ เอกชน ฯลฯ ที่สำคัญยัง โน้มน้าวให้คนเชื่อได้เพราะไม่รู้ว่ากำลังคุยกับโปรแกรม ซึ่งเคยมีการทดลองแล้วพบมนุษย์ไม่รู้ว่าคู่สนทนาเป็นบอทก็มี

2.ความน่าเชื่อถือของสื่อหรือข้อมูลต่างๆ ในสังคมจะลดลง เพราะคนเริ่มสับสนว่าอะไรจริง-ไม่จริง เพราะแม้แต่ผู้เชี่ยวชาญบางครั้งก็แยกไม่ออก ซึ่งเมื่อถึงสถานการณ์ที่จำเป็นต้องทำให้เชื่อข้อมูลที่ถูกต้อง เช่น โควิด-19 กับการฉีดวัคซีน ข้อมูลด้านสุขภาพหรือการเมือง ก็ไม่มีใครเชื่อ 

3.ควบคุมผลลบที่เกิดขึ้นรวดเร็วได้ยาก เคยมีกรณีสื่อในต่างประเทศแชร์ภาพระเบิดใกล้อาคารกระทรวงกลาโหมสหรัฐอเมริกา (Pentagon) โดยไม่ได้แจ้งรายละเอียดที่มาของภาพ ผลคือทำให้ดัชนีตลาดหุ้นสหรัฐฯ ตกไป 0.26% ในเวลาอันสั้น

4.เอื้อประโยชน์ให้คนโกหก เช่น บุคคลที่มีชื่อเสียง มีคลิปวีดีโอหรือภาพถูกเผยแพร่ออกมา บุคคลนั้นอ้างว่านั่นคือคลิปหรือภาพที่ AI สร้างขึ้น ท้ายที่สุดเรื่องอาจจะตกไปโดยไม่มีการตรวจสอบก็ได้ เพราะคนรู้ว่า AI สร้างเนื้อหาทำนองนี้ได้ แล้วก็ไม่รู้จะแยกแยะอย่างไรว่าเรื่องใดจริง-ไม่จริง 

5.ตอกย้ำ “ตัวกรองฟองสบู่ (Filter Bubble)” ขยายความเชื่อผิดๆ เคยมีการทดลองให้โปรแกรม AI ชื่อดังอย่าง Chat GPT ผลิตเนื้อหาอ้างเป็นบุคคลต่างๆ บอกว่าประเทศออสเครเลียไม่มีปัญหาเรื่องโลกร้อน และที่นี่ก็เจอไฟป่าเป็นประจำอยู่แล้ว ซึ่งเนื้อหาเหล่านี้หากปล่อยเข้าไปในกลุ่มที่มีความคิดไม่เชื่อเรื่องโลกร้อนอยู่แล้ว จะยิ่งตอกย้ำให้ไม่เชื่อมากยิ่งขึ้น

6.เป็นเครื่องมือของมิจฉาชีพ เทคโนโลยีที่เรียกว่า “ดีฟเฟค (Deepfake)” ใช้ AI ปลอมได้ทั้งภาพและเสียง มีกรณีในสหรัฐอเมริกา แม่ได้รับโทรทัพท์จากคนร้ายอ้างว่าจับลูกสาวไว้เป็นตัวประกันเพื่อเรียกค่าไถ่ โดยได้ยินเสียงลูกสาวจากปลายสายอย่างชัดเจน 

7.กระทบต่อการเมืองและเสรีภาพตัวอย่างจากสหรัฐอเมริกา ปลายปี 2566 มีการรณรงค์หาเสียง “BEAT BIDEN” จากพรรครีพับลิกัน ใช้ AI ผลิตเนื้อหาโดยตั้งโจทย์ว่า หากการเลือกตั้งประธานาธิบดีครั้งหน้า โจ ไบเดน จากพรรคเดโมแครต ชนะอีกสมัย จะเกิดอะไรขึ้น ผลคือ AI สร้างภาพที่รถถังวิ่งเกลื่อนในเมือง อาชญากรรมเพิ่มสูงขึ้น ฯลฯ โดยเขียนกำกับไว้ตัวเล็กๆ ตรงหัวมุมว่าเป็นภาพที่ใช้ AI สร้างขึ้น

ในทางกลับกัน บางประเทศเริ่มปิดกั้นการพัฒนา Generative AI หรือหันไปพัฒนาระบบของตนเอง เช่น ประเทศจีน สั่งห้ามบริษัทเทคโนโลยีของจีนไปเชื่อมต่อระบบกับ Chat GPT ขณะที่ยักษ์ใหญ่ไอทีของสหรัฐอเมริกาอย่าง แอปเปิล ต้องลบแอปพลิเคชั่นที่เกี่ยวข้องออกจาก Store ที่ให้บริการในจีน แต่จีนก็สร้าง ERNIE ของไปตู้ (Baidu) ขึ้นมา หรือที่ประเทศเวียดนาม รัฐบาลก็ออกมาเตือน

ทั้งนี้ หลายประเทศเริ่มออกแนวทางกำกับดูแล AI เช่น สหรัฐอเมริกา มีคำสั่งประธานาธิบดีในปี 2566 อาทิ การทดสอบ AI ที่มีความเสี่ยงต่อความมั่นคงหรือสุขภาพ ต้องรายงานผลการทดสอบให้รัฐบาล ต้องติดลายน้ำหรือฉลาก ให้ประชาชนทราบว่าเป็นเนื้อหาที่ AI สร้างขึ้น , สหภาพยุโรป มี EU Code of Practice กลไกกำกับดูแลตนเองของผู้พัฒนา และมีการติดตามผลการปฏิบัติเป็นระยะๆ มีการออกกฎหมาย EU AI Act ที่ให้เวลาผู้เกี่ยวข้องเตรียมตัว 2 ปี หลังจากนั้นผู้กระทำผิดจะถูกลงโทษปรับตั้งแต่ 1.5-7% ของยอดขายทั่วโลกของบริการนั้นๆ

อังกฤษ ตั้งสถาบันความปลอดภัย AI ของตนเอง และพยายามเชื่อมประเทศต่างๆ ในการกำกับดูแล AI โดยจัดประชุมเมื่อเดือนพฤศจิกายน 2566 มี 27 ชาติเข้าร่วม รวมทั้งจีน ญี่ปุ่น เกาหลีใต้ ฟิลิปปินส์ มีการลงนามคำประกาศ Bletchley มีเนื้อหายอมรับถึงความเสี่ยงของ AI ในมิติต่างๆ ทั้งโดยตั้งใจและไม่ตั้งใจ และความร่วมมือ ขณะที่ ประเทศไทย” ยังมี ความท้าทาย หลายประการตั้งแต่การสร้างความรู้เท่าทัน AI ให้กับประชาชน การส่งเสริมให้เกิดการประเมินและจัดการความเสี่ยงใน AI ที่เป็นภาษาไทย แนวทางการทดสอบ , การระมัดระวังอคติต่างๆ ในชุดข้อมูล เป็นต้น

“ขณะนี้กฎหมายที่เกี่ยวข้องกับ AI กำลังมีขึ้นทั่วโลก แต่สิ่งที่เรายังขาดมาก คือการวิจัยที่เป็นข้อเสนอเชิงนโยบายเกี่ยวกับเรื่องนี้   เพื่อที่จะนำมาเป็นข้อมูลนำเข้าในการปกป้องและคุ้มครองประชาชน  อย่างในสหภาพยุโรปมีการวิจัยตลอดเวลาเพื่อบอกว่ากฎหมายต้องปรับอย่างไร จึงจะรับมือกับ AI ได้  รวมทั้งสร้างความร่วมมือกับทุกภาคส่วน เพื่อร่วมกันตรวจสอบว่าสิ่งไหนจริง หรือปลอม  เหมือนกับการทำงานของโคแฟคที่ชวนทุกฝ่ายร่วมกันหาความจริงร่วม” สุนิตย์กล่าว

นอกจากนี้ในวงเสวนา “ความจริง ความลวงในยุคเอไอ สื่อ/พลเมืองควรรับมืออย่างไร” โดยมี สุภิญญา กลางณรงค์ ผู้ร่วมก่อตั้ง โคแฟค (ประเทศไทย) เป็นผู้ดำเนินรายการ

รณพงศ์ คำนวณทิพย์ กรรมการผู้จัดการ มายด์ เอไอ ภูมิภาคเอเชียตะวันออกเฉียงใต้ กล่าวว่า ในฐานะที่เป็นทีมพัฒนา AI รู้สึกเหมือน AI ตกเป็นจำเลยสังคม เช่น ถูกนำไปใช้เป็นเครื่องมือหลอกลวง แต่บางอย่างก็ไม่เกี่ยวกับ AI อย่างแก๊งคอลเซ็นเตอร์โทรศัพท์ไปหลอกเหยื่อแบบไม่ใช้ AI ก็มี  ทั้งๆที่  AI มีหลายองค์กรหันมาใช้ AI แล้วช่วยลดต้นทุนและย่นระยะเวลาการทำงานได้ ดังนั้นสิ่งที่ตนและเพื่อนๆ ในชุมชนผู้พัฒนา AI คือ “เราต้องเข้าใจและใช้เป็น” อย่าไปกลัวเทคโนโลยี

“จริงๆ แล้ว AI มันก็คือเทคโนโลยีอย่างหนึ่ง เปรียบเสมือนยุคที่เราสร้างมีดขึ้นมาจากหินหรือจากโลหะ มีมีดเล่มหนึ่งผมถามว่ามันดีหรือไม่ดี มันมีประโยชน์หรือมีโทษ มันไม่ได้มีประโยชน์และไม่มีโทษด้วยตัวของมันเอง แต่มันอยู่ที่วิธีการใช้งานของมนุษย์ ถ้าใช้ดีไปทำกับข้าวก็มีประโยชน์ ถ้าไปทำร้ายคนก็เป็นโทษ AI ไม่ได้ผิดอะไรนะ และมันก็ยังไม่ได้สมบูรณ์แบบอย่างที่หลายคนบอก” รณพงศ์กล่าว

กนกพร ประสิทธิ์ผล ผู้อำนวยการศูนย์พัฒนาสื่อใหม่ ไทยพีบีเอส กล่าวว่า ระยะหลังๆ มีหลายวงเสวนาที่พูดถึง AI ว่าจะทำให้เกิดประโยชน์ได้อย่างไร  แต่สำหรับการพูดคุยในวันนี้  เน้นเรื่องภัยและข้อควรระวัง การรู้เท่าทัน เราพบว่าที่ผ่านมาไม่ใช่ทุกคนหรือทุกอุตสาหกรรมที่จะนำ AI มาใช้ได้ทั้งหมด ด้วยปัจจัยด้านงบประมาณ ทักษะคน ฯลฯ แต่สิ่งที่เข้าไปแทรกซึมแล้วในปัจจุบันคือการถูกนำไปใช้ในทางที่ไม่ถูกต้อง เป็นภัยกับประชาชน  และสิ่งที่น่ากังวลคือความรู้เท่าทัน (Literacy) จึงอยากให้มีการเตือนเรื่องนี้ในทุกวงเสวนาที่เกี่ยวกับ AI

“หากมองในมุมกระบวนการตรวจสอบข่าว เชื่อว่าทุกกองบรรณาธิการข่าวมีการตรวจสอบอยู่แล้ว เพียงแต่ปัจจุบันมีปริมาณเพิ่มขึ้น เทคโนโลยีมีความเนียนมากขึ้น จึงต้องใช้กระบวนการตรวจสอบที่หลากหลายขึ้น สื่อต้องพัฒนาทักษะให้มากขึ้น   ต้องยอมรับว่าผ่านมาก็มีเหมือนกันที่เราพลาดเอง”กนกพรกล่าว

ธนบูรณ์ สมบูรณ์ ผู้ก่อตั้งเครือข่ายพลเมืองสร้างสรรค์สังคม Creative Citizen กล่าวว่า เข้าไปสนใจเรื่องของ AI ในฐานะผู้ใช้งาน ตามกระแสที่บอกว่า ใครใช้ AI ไม่เป็นระวังจะโดนแย่งงานหลังจากไปอบรมก็ได้รับมุมมองว่า AI ก็เหมือนม้าเร็ว หากควบคุมมันได้เราจะสามารถขี่มันไปได้ไกลและเร็วขึ้น แต่หากควบคุมไม่ดีหรือเชื่อมากเกินไปก็อาจถูกสะบัดตกจากม้าบาดเจ็บได้ ดังนั้นจะต้องมีการตรวจสอบซ้ำ (Recheck) ไม่ได้เชื่อตั้งแต่แรก ในฐานะผู้บริโภคต้องมีความตระหนักกันมากขึ้นเทคโนโลยีเป็นของดี แต่เราใช้มันอย่างระมัดระวัง

อย่างเมื่อเร็วๆ นี้ ในสื่อสังคมออนไลน์มีการแชร์ภาพรถยนต์ยี่ห้อมิตซูบิชิทรงกลมดูน่ารัก แต่ผ่านไปไม่กี่วัน ทราบว่าเป็นภาพจากบัญชีทวิตเตอร์ในประเทศญี่ปุ่นที่ใช้ AI ทำขึ้นมา ซึ่งก่อนหน้านั้นตนได้แชร์ให้เพื่อนไปแล้วถึง 7 คน แต่หลังจากนั้นก็มีการตรวจสอบจนพบว่าเป็นของปลอม ต้องยอมรับว่าเรื่องนี้ตรวจสอบได้ยาก อย่างมิจฉาชีพโทรศัพท์มาหลอกแอบอ้างเรื่องต่างๆ ยังพอจับสังเกตได้ เช่น สำเนียงการพูดแปลกๆ สัญญาณเสียงไม่ชัด แต่พอเป็นภาพที่เผยแพร่ทางสื่อสังคมออนไลน์นั้นเหมือนมากจนแยกแยะได้ลำบาก

สุวิตา จรัญวงศ์ ผู้ก่อตั้ง และ CEO, Tellscoreกล่าวว่า การทำงานของ Tellscore ที่ดูแลอินฟลูเอนเซอร์กว่า 1 แสนคน แผนงานในปี 2567 เบื้องต้นการยืนยันตัวตนด้วยบัตรประชาชน (KYC) ทำอยู่แล้ว แต่เมื่อ AI เข้ามา ก็ต้องทำมากขึ้น โดยจะให้นโยบายว่า อินฟลูเอนเซอร์คนใดผลิตเนื้อหาโดยใช้ AI ไม่ว่าทั้งหมดหรือผสมผสาน ขอให้แจ้งผู้รับสาร

ที่ผ่านมาพบว่าแม้แต่อินฟลูเอนเซอร์ก็ยังถูกหลอก ดังนั้นในฐานะที่เป็นหน่วยงานเล็กๆ ไม่มีคำตอบ แต่มีข้อสังเกตที่ 3 ส่วน คือ ผู้ใช้งานต้องมีสติ  หน่วยงานรับแจ้งเรื่องร้องเรียนอาจมีมากขึ้น และสุดท้ายคือรัฐต้องมีกฎ  กติกาเกี่ยวกับเรื่องนี้ 

“คนทำผิดกฎหมายเขาอาจไม่ได้ระบุออกมาว่านี่คือ AI ปัญหาที่มันเกิดเพราะเราไม่รู้ว่ามันไม่จริง เราไมได้กล่าวหาว่า AI มันไม่ดีทั้งหมด แต่มันปนมากับความจริง คนก็เลยกลัว แต่ถ้าเราเริ่มแยกออกได้มากขึ้น สิ่งที่ไม่ได้ Label มันจะต้องน่าสงสัยแล้ว ก็คือกลไกทั้ง 3 ตั้งแต่ตัวเราเอง หน่วยงานรับร้องเรียน หรือกติกาทางสังคม ก็น่าจะช่วยกันดูแลได้ดีขึ้น” สุวิตา กล่าว 

ในช่วงท้ายของงาน ยังมีกิจกรรม แนะนำโครงการ TikTok Safety Day ร่วมกับภาคีโคแฟค (ประเทศไทย) โดย ชนิดา คล้ายพันธ์ Head of Public Policy, TikTok Thailand กล่าวว่า TikTok ทำงานกับโคแฟคในเรื่องต่อสู้กับข้อมูลที่สร้างความเข้าใจผิด (Misinformation) จนปัจจุบันเป็นปีที่ 3 แล้ว มีหัวข้อรณรงค์ตั้งแต่ พื้นที่ปลอดภัยในการไถฟีด , โปรดใช้วิจารณญาณในการไถฟีด ล่าสุดคือ พื้นที่ปลอดภัยเพื่อทุกการสร้างสรรค์  ซึ่งต้องการให้ทั้งผู้ใช้งาน ผู้ผลิตเนื้อหา และพันธมิตรต่างๆ ช่วยกันผลิตเนื้อหาเพื่อเตือนใจผู้ใช้ TikTok

สำหรับช่วงท้าย ได้รับเกียรติจากอาจารย์ชมัยภร บางคมบาง ศิลปินแห่งชาติ สาขาวรรณศิลป์ประจำปี 2557 สรุปเนื้อหาการเสวนาทั้งหมดออกมาเป็นบทกวี เอไอ vs มนุษย์ ใครเป็นตัวร้าย  และประโยชน์ของ AI 

-/-/-/-/-/-/-/-/-/-/-

‘เอไอ’เข้าใจและใช้เป็นคือผู้ช่วยชั้นดี แต่มนุษย์ยังต้องตรวจสอบความถูกต้องซ้ำ-สื่อจะใช้ต้องแจ้งผู้รับสาร

Editors’ Picks

18 ม.ค. 2567 ภาคีโคแฟค (ประเทศไทย) ร่วมกับ สำนักงานกองทุนสนับสนุนการสร้างเสริมสุขภาพ (สสส.) คณะนิเทศศาสตร์ จุฬาลงกรณ์มหาวิทยาลัย Google News Initiative (GNI) และสภาการสื่อมวลชนแห่งชาติ จัดการสัมมนาเชิงปฏิบัติการ “รับมือการตรวจสอบข่าวในยุค AI” ที่ห้องประชุมชั้น 11 อาคารมงกุฎสมมติวงศ์ คณะนิเทศศาสตร์จุฬาลงกรณ์มหาวิทยาลัย 

ในช่วงเช้า รศ.ดร.ปรีดา อัครจันทโชติ คณบดีคณะนิเทศศาสตร์ จุฬาลงกรณ์มหาวิทยาลัย ฉายภาพขั้นตอนการผลิตเนื้อหา ที่ในอดีตอาจต้องเริ่มตั้งแต่การวิจัย การทำภาพ ทำกราฟฟิก การหาข้อมูล ทำโปรดักชั่น บันทึกภาพและเสียง การใช้เทคนิคพิเศษต่างๆ แต่ปัจจุบันเทคโนโลยีปัญญาประดิษฐ์ (เอไอ-AI) ช่วยให้ขั้นตอนเหล่านี้มีต้นทุนต่ำและทำได้ง่ายเพียงการป้อนข้อมูลและใส่คำสั่งเข้าไป

อย่างไรก็ตาม เนื้อหาที่ปัญญาประดิษฐ์สร้างขึ้น (Generative AI) ก็ทำให้เกิดผลกระทบเชิงลบ เช่น ผู้คนเชื่อถือข้อมูลข่าวสารน้อยลง เพราะไม่รู้แล้วว่าอะไรจริง-ไม่จริง หรือไม่รู้แล้วว่าเนื้อหาใดทำโดยมนุษย์หรือ AI แม้แต่ผู้เชี่ยวชาญก็ยังแยกแยะได้ยาก ยิ่งเนื้อหาที่ผู้สร้างมีเป้าหมายเพื่อการหลอกลวงก็ยิ่งพยายามสร้างให้แนบเนียน ขณะที่ในทางกลับกัน ปรากฏการณ์แบบนี้ยังเอื้อประโยชน์ให้กับคนโกหก เพราะเมื่อมีภาพหรือคลิปวีดีโอเกิดขึ้น บุคคลที่ถูกพาดพิงอาจอ้างว่าภาพหรือคลิปนั้นถูกสร้างโดย AI ก็ได้ แล้วคนอื่นๆ ก็อาจเชื่อโดยไม่ตรวจสอบ

“นอกจากนี้ยังทำให้เกิดปรากฏการณ์ ‘หลอนมโนเอาเอง’ เวลาที่ Generative AI สร้างเนื้อหาใหม่ที่ดูน่าเชื่อถือ เป็นไปได้ แต่ที่จริงแล้วเนื้อหามันไม่ได้เท็จหรือมันอาจจะไม่ถูกต้องทั้งหมด แต่ว่าถูกนำเสนอให้เป็นข้อมูลความจริง ซึ่งลักษณะแบบนี้มันก็อาจจะมีข้อมูลที่ไม่ถูกต้อง เหมือนว่าจะเป็นจริงแต่ไม่จริง หรือเป็นการสร้างข้อมูลเท็จขึ้นมาเลย อย่างเช่นการสร้างเว็บไซต์ที่พูดถึงคน หรือพูดถึงอะไรบางอย่างที่ไม่ได้มีตัวตนอยู่จริง แล้วก็มีการทำบรรณานุกรมไปยังบทความ หนังสือ หรืองานวิจัยที่ไม่มีอยู่จริง แต่สร้างให้ดูน่าเชื่อถือ” รศ.ดร.ปรีดากล่าว

ชวรงค์ ลิมปัทมปาณี ประธานสภาการสื่อมวลชนแห่งชาติ กล่าวว่า ปัจจุบันสภาการสื่อมวลชนแห่งชาติยังไม่ได้จัดทำแนวปฏิบัติเรื่องการนำ AI มาใช้ในงานข่าวแต่อย่างใด ซึ่งมีข้อถกเถียงว่าอย่างนี้ควรจะทำอย่างไร ดังกรณีที่เกิดขึ้นเมื่อเร็วๆ นี้ ที่มีการใช้ AI ทำภาพประกอบ ซึ่งทั้งๆ ที่มีภาพจริงแต่ไม่นำมาใช้เผยแพร่   โดยหลักแล้วหากนำ ภาพที่ถูกสร้างมาด้วย AI มาใช้ต้องแจ้งผู้รับสารด้วยเพื่อให้เกิดความชัดเจน ซึ่งนี่เป็นเพียงตัวอย่างเล็กๆ และเข้าใจว่าจะเริ่มมีความซับซ้อนขึ้นเรื่อยๆ

ทั้งนี้ ในมุมของภาพถือว่าเห็นชัดเจนแล้วเพราะมีกรณีที่นำ AI มาใช้กันมาก แต่ในส่วนของเนื้อหาข่าวอาจมีแต่ยังไม่ทราบเพราะผู้จัดทำเนื้อหาไม่ได้บอก นอกจากนั้น AI ยังไม่สามารถทำงานร่วมกับข้อมูลที่เป็นภาษาไทยได้มากนัก พบว่ามีข้อมูลที่ผิดพลาดคลาดเคลื่อน 

“ความสามารถในการสร้างข้อมูลในภาษาไทย หากมีมากขึ้นเรื่อยๆ ก็อาจสร้างปัญหาเพิ่มขึ้นในแวดวงสื่อ ถ้าคนที่ทำสื่อนำเอา Generative AI มาใช้โดยไม่บอกกับผู้อ่าน หรือไม่ได้ทำตามหลักเกณฑ์หรือแนวปฏิบัติที่ถูกต้อง ซึ่งในที่ประชุมของสภาการสื่อมวลชนแห่งชาติก็มีการเสนอกันแล้วว่า วันนี้ก็น่าจะถึงเวลาแล้วที่สภาการสื่อมวลชนแห่งชาติก็จะต้องลงมากำกับดูแลเรื่องนี้เพื่อคุ้มครองผู้รับสื่อ” ประธานสภาการสื่อมวลชนแห่งชาติ กล่าว

สุภิญญา กลางณรงค์ ผู้ร่วมก่อตั้งภาคีโคแฟค (ประเทศไทย) กล่าวว่า ปัจจุบันเราอยู่ในยุคปฏิวัติอุตสาหกรรมครั้งที่ 4 โดยผ่าน 3 ยุคก่อนหน้า คือยุคเกษตร ยุคอุตสาหกรรม และยุคคอมพิวเตอร์เบื้องต้นรวมถึงสื่อสังคมออนไลน์ (Social Media) แต่หลังจากนี้ไปจะยิ่งก้าวกระโดดมากขึ้นด้วยศักยภาพของเทคโนโลยี ซึ่งล่าสุดเมื่อวันที่ 17 ม.ค. 2567 มีการจัดงาน Digital Thinkers Forum # เวทีนักคิดดิจิทัลครั้งที่ 26 เราจะใช้เอไออย่างไรให้สร้างสรรค์และปลอดภัย มีคำสำคัญคำหนึ่งคือ “At scale” หมายถึงผลผลิตและผลกระทบของเทคโนโลยีสามารถแผ่กระจายได้กว้างและรวดเร็ว จึงมีคำถามว่า ทักษะที่มีอยู่เดิมอย่างการตรวจสอบและรู้เท่าทันสื่อ เมื่อต้องสู้กับข้อมูลที่ถาโถมเข้ามา เราจะรับมืออย่างไร

ซึ่ง AI (Artificial Intelligence) หรือปัญญาประดิษฐ์ มาจากการประมวลผลทางสถิติของระบบคอมพิวเตอร์ โดยมีที่มาจากการรู้จักพฤติกรรมของเราเอง ทำให้ AI ก็อาจมีอคติ (Bias) ได้ ด้วยการแปลงข้อมูลที่สอดรับกับจริตความสนใจหรือความชอบของเรา อย่างในสื่อสังคมออนไลน์จะเรียกสิ่งนี้ว่า อัลกอริทึม (Algorithm) ดังนั้นเราจึงต้องตั้งสติก่อนเชื่อและแชร์ ทั้งนี้ ในเวทีนักคิดดิจิทัลครั้งที่ 26มีการถกเถียงกันใน 2 มุมมอง ระหว่างฝ่ายคนทำงานด้านเทคโนโลยีที่มองเห็นโอกาสมากมายจาก AI แต่ฝ่ายที่ทำงานด้านสังคมก็จะกังวลเรื่องความเสี่ยงของผลกระทบ เพราะขนาดที่เป็นอยู่ระดับในปัจจุบันยังมีคนถูกหลอก และมีข้อเสนอหลายเรื่องที่แต่ละฝ่ายต้องทำ

“แพลตฟอร์ม เช่น ยูทูบ เอ็กซ์ (ทวิตเตอร์) กูเกิล ก็อาจจะต้องพัฒนาเครื่องมือในการที่จะมาตรวจสอบข้อมูลลวง สิ่งที่มันสร้างโดย AI เพื่อเตือนผู้บริโภคมากขึ้น แล้วก็ตัวสื่อมวลชนเอง ผู้บริโภคเอง ก็จะต้องทำอะไรบางสิ่งบางอย่างด้วย ก็เป็นที่มาต่อเนื่องกับวงในวันนี้ เพราะสุดท้ายส่วนหนึ่งก็คาดหวังว่าสื่อมวลชนจะต้องช่วยประชาชนในการที่จะตรวจสอบ อย่างกรณีภาพรถการ์ตูน มิตซูบีบิ สื่อควรจะต้องช่วยตรวจสอบข้อเท็จจริง แต่ปรากฏว่าสื่ออาจจะไปรายงานต่อเองด้วยไมได้ตรวจสอบข้อเท็จจริงว่าไม่ใช่รถมิตซูบิชิ แต่เป็นรถ AI เป็นต้น ในอนาคตมันอาจจะมีการพลาดแบบนี้ได้ง่ายๆ เมื่อวานก็มีข้อเสนอจาก ThaiPBS ว่าสื่อจะต้องมีการ Upskill-Reskill  เพื่อทำให้มีเครื่องมือในการตรวจสอบความถูกต้องก่อนการเผยแพร่” สุภิญญา กล่าว

รศ.ดร.อลงกรณ์ ปริวุฒิวงศ์ หัวหน้าภาควิชาวารสารสารสนเทศ คณะนิเทศศาสตร์ จุฬาลงกรณ์มหาวิทยาลัย ฉายภาพการทำงานของสื่อมวลชน จากประสบการณ์ส่วนตัวที่เคยเป็นผู้สื่อข่าวมาก่อน โดยในอดีตจะมีการประชุมกองบรรณาธิการในช่วงเช้า ก่อนแยกย้ายไปทำข่าวตามที่ได้รับมอบหมาย ในการสัมภาษณ์แหล่งข่าวจะเทปคาสเซ็ตต์บันทึกเสียงพร้อมกับจดรายละเอียดลงสมุด ได้มองเห็นความเปลี่ยนแปลง เช่นสื่อหนังสือพิมพ์เริ่มใช้ภาพประกอบข่าวมากขึ้นแทนการมีแต่ตัวหนังสืออย่างเดียว มีการทำอินโฟกราฟฟิกประกอบ ไม่แยกระหว่างข่าวเบา-ข่าวหนัก

หรือในอดีตจำนวนสื่อก็มีน้อย หนังสือพิมพ์มีสิบกว่าฉบับ โทรทัศน์มี 5 ช่อง ผู้รับสารก็ไม่ต้องตรวจสอบมากนักเพราะเชื่อว่าคนทำสื่อหรือกองบรรณาธิการจะดูแลให้ แต่ปัจจุบันผู้สื่อข่าวอาจไม่จำเป็นต้องเดินทางไปฟังสัมภาษณ์ในสถานที่นั้นหรือไปหาแหล่งข่าว เพราะสามารถฟังหรือชมการถ่ายทอดสดผ่านช่องทางออนไลน์ หรือสัมภาษณ์แหล่งข่าวทางโทรศัพท์ ไปจนถึงใช้ AI ช่วยรวบรวมข้อมูลมาใช้เขียนข่าวโดยอ้างอิงว่าใช้ข้อมูลจากแหล่งใดบ้าง จากเดิมที่ในอดีตการหาข้อมูลต้องไปที่ห้องสมุด 

ธนภณ เรามานะชัย ผู้เชี่ยวชาญด้านการตรวสอบข้อมูล ภาคีโคแฟค (ประเทศไทย) กล่าวว่า AI ไม่ใช่เรื่องใหม่แต่ใช้กันมาเป็นสิบปีแล้ว อย่างเว็บไซต์ค้นหาข้อมูลอย่างกูเกิล ก็ใช้ AI ช่วยปรับปรุงให้การแสดงผลการค้นหามีประสิทธิภาพดีขึ้น แต่เป็นการใช้งานแบบหลังบ้านคือพัฒนาระบบกันภายในบริษัท ไมได้ใช้ในส่วนของผู้บริโภค แต่ผู้บริโภคจะได้รับผลการค้นหาที่แม่นยำขึ้น หรือช่องการค้นหาที่ใช้ AI มาช่วยคาดเดาว่าผู้ใช้งานต้องการพิมพ์คำใด เป็นตัวช่วยในกรณีที่ผู้ใช้งานสะกดคำนั้นไม่ถูก

ขณะที่ปัจจุบันมีฟังก์ชั่น “Bard” ใน Google Doc เป็น AI ที่สามารถสร้างเนื้อหาได้โดยใส่คำสั่งเข้าไป เช่น ช่วยสร้างใบเสนอราคา จดหมายเชิญ หนังสือเอกสารของทางราชการ เท่าที่ตนลองทดสอบพบว่าร่างออกมาได้แม่นยำพอสมควร ซึ่งอาจบอกว่าได้ Bard คืออีกระดับหนึ่งของการค้นหาในกูเกิล กล่าวคือ Bard จะรวบรวมข้อมูลโดยไม่ได้แสดงผลการค้นหาเป็น Link เว็บไซต์อย่างการค้นกูเกิลแบบเดิม แต่สรุปมาเป็นตัวหนังสือที่ประมวลผลมาจากคลังข้อมูล หรือ Google Sheets ที่ช่วยเขียนสูตรให้ เนื่องจากหลายคนอาจไม่ถนัดในการใช้โปรแกรม Excel เป็นต้น 

“AI มันไม่ได้มีแค่ในส่วนที่เป็น Chat GPT Generative AI เท่านั้น ยังมีฟังก์ชั่นอื่นที่เราสามารถใช้งานได้ แล้วมันเกิดประโยชน์ในการทำงาน คือถ้าเกิดในมุมมองของนักข่าว ผมก็จะมองว่าอาจช่วยในการเขียนสคริปต์ ช่วยร่างสคริปต์ในเบื้องต้น ถ้ามันมีรายละเอียดอะไรค่อยมาใส่เพิ่ม มันก็จะช่วยได้ แต่สุดท้ายการทำงานในกองบรรณาธิการ เครื่องมือเหล่านี้มันมีอยู่แล้ว แต่เราต้องมี บก. หรือมีคนมาตรวจสอบเพื่อให้ข้อเท็จจริงมันถูกต้อง” ธนภณกล่าว

พีรพล อนุตรโสตถิ์ ผู้จัดการศูนย์ชัวร์ก่อนแชร์ สำนักข่าวไทย อสมท. กล่าวถึงปัญหาที่เกิดขึ้นจากการมาของ Generative AI ในกรณีของต่างประเทศ เช่น การสร้างภาพลามกอนาจาร การสร้างบุคคลที่ไม่มีตัวตนขึ้นมามีบทบาททั้งการรีวิวสินค้า การโฆษณา ไปจนถึงอ้างว่าเป็นแพทย์ หรือการสร้างเรื่องราวที่ไม่เคยเกิดขึ้นจริง พร้อมกับนำตัวอย่างภาพจริงและภาพที่ AI สร้างขึ้นมาให้ผู้ร่วมงานสัมมนาดู ซึ่งพบว่าหลายภาพ AI ทำได้เนียนมากจนแยกไม่ออก หรือทำคลิปวีดีโอที่ดูเหมือนคนจริงๆ กำลังพูด กระทั่งจับสังเกตได้ว่าใบหน้าเบี้ยวและนิ้วมือผิดรูป

ในเบื้องต้นปัจจุบันมีเว็บไซต์หลายแห่งจัดทำขึ้นเพื่อตรวจสอบเนื้อหาที่ใช้ AI ทำขึ้น เช่น deepware.ai สำหรับตรวจสอบคลิปวีดีโอ หรือเว็บไซต์ isitai.com สำหรับตรวจสอบภาพ แต่ก็ตรวจได้เพียงระดับหนึ่งเท่านั้นไม่ใช่ทั้งหมด ดังนั้นอาจต้องดูรายละเอียดเพิ่มเติม โดยมีคำแนะนำจากต่างประเทศ เช่น สังเกตรอยต่อระหว่างหน้าผากกับเส้นผม ลักษณะของมือ เท้า ปาก ฟัน นิ้ว ว่าผิดปกติหรือไม่ ผิวเนียนเกินไปหรือไม่ หากเป็นคลิปวีดีโอคนในคลิปมีการกระพริบตาหรือเปล่า เพราะ AI จะไม่กระพริบตา แต่ AI ก็เก่งขึ้นเรื่อยๆ คำเตือนนี้จึงใช้ไม่ได้ตลอดไป

ทั้งหมดนี้ผู้เชี่ยวชาญเขาก็ย้ำว่า มันใช้เครื่องมืออย่างเดียวไม่ได้ แต่ต้องใช้ร่วมกับการตั้งคำถาม ต้องคิดก่อนแล้วต้องพิจารณาว่า AI มันทำอะไรได้หลายอย่างแล้ว ก็ต้องใช้ร่วมกับ Media Literacy (การรู้เท่าทันสื่อ) แล้วก็ชวนมองไปข้างหน้าว่าเรื่อง AI ก็ต้องมี AI Literacy (การรู้เท่าทันปัญญาประดิษฐ์) ด้วยเหมือนกัน พีรพล กล่าว

ส่วนกิจกรรมในช่วงบ่าย เป็นการบรรยายหัวข้อ “Tips and Trends สำหรับสื่อมวลชนในยุคเอไอโดย ผศ.ดร.สกุลศรี ศรีสารคาม อาจารย์ประจำคณะนิเทศศาสตร์ จุฬาลงกรณ์มหาวิทยาลัย ที่เริ่มต้นด้วยการย้ำอีกครั้งต่อจากวิทยากรในช่วงเช้า ว่า สิ่งที่ AI ทำ คือการกวาดข้อมูลจำนวนมากจากคลังข้อมูลแล้วมาประมวลผลหาคำตอบที่คิดว่าตรงที่สุด เช่น ตนเคยทดลองถาม AI ยอดนิยมอย่าง Chat GPT ว่าอยากสอนในสิ่งที่ยังไม่เคยสอน ผลคือมีข้อมูลขึ้นมาให้อ่านเป็นจำนวนมาก แต่ข้อมูลบางส่วนเหมือนกับงานวิจัยที่เพิ่งอ่านไปก่อนหน้านั้นไม่นานนัก 

ดังนั้นแล้ว “AI จึงมีประโยชน์ในการช่วยค้นหาข้อมูลในเบื้องต้น แต่สุดท้ายการเรียบเรียงออกมาก็ต้องอาศัยมนุษย์ตรวจสอบความถูกต้องอีกครั้ง มีตัวอย่างการทดลองใช้ AI ของกูเกิลอย่าง Bard ช่วยเขียนบทความโปรโมทร้านอาหาร แต่ข้อความนั้นก็ยังไม่สามารถนำไปใช้ได้ทันทีเพราะมีรายละเอียดบางอย่างไม่ตรงกับสิ่งที่เราต้องการ เนื้อหาที่ AI ประมวลผลมาจึงให้ดูไว้เพียงเป็นแนวทาง หรือใช้ช่วยตั้งชื่อหัวข้องานสัมมนา ก็จะมีข้อความขึ้นมา แต่สุดท้ายก็ต้องเอาไปให้เพื่อนที่เป็นครีเอทีฟช่วยเลือกข้อความที่น่าจะโดนใจคนมากที่สุด

แม้กระทั่งการทำคลิปวีดีโอ ถ่ายมาทั้งหมดยาว 1 ชั่วโมง จะตัดให้สั้นลง เช่น ตัดเหลือ 1 นาที สำหรับลงแพลตฟอร์มติ๊กต๊อก ซึ่งหากทำเองทั้งหมดจะเหนื่อยมาก ก็มีโปรแกรมที่ให้ AI ช่วย แต่การเลือกช็อตวีดีโอของ AI อาจไม่สอดคล้องกับสิ่งที่ต้องการนำเสนอ เช่น ผู้ใช้งานต้องการทำสารคดีวิถีชุมชนท้องถิ่น แต่ AI ไปตัดคลิปวีดีโอมาแต่ช็อตที่เป็นวิวสวยๆ AI จึงเป็นตัวช่วยย่นระยะเวลาและความเหนื่อยจากการต้องมาไล่สแกนฟุตเทจทีละช็อตทั้งชั่วโมง แต่สุดท้ายผู้ใช้งานก็ต้องตรวจสอบอีกครั้งก่อนนำไปเผยแพร่ 

มันมีคำหนึ่งเสมอ มนุษย์ต้องควบคุมดูแลการใช้ AI เป็น ดังนั้นการรู้เท่าทันที่ดีที่สุดคือต้องรู้ว่าเราจะใช้มันทำอะไร ในกระบวนการไหน มันมีโอกาสจะผิดพลาดอยู่ตรงไหน และเราเป็นคนจัดการมันจนได้ชิ้นงานสุดท้ายที่มีคุณภาพออกมาอย่างไร นั่นคือหน้าที่ของเรา ผศ.ดร.สกุลศรี กล่าว

-/-/-/-/-/-/-/-/-/-/-

เราจะป้องกัน และแก้ปัญหาความเสี่ยงของ generative AI ต่อประเด็นข่าวลวงได้อย่างไร 

บทความ
เราจะป้องกัน และแก้ปัญหาความเสี่ยงของ generative AI ต่อประเด็นข่าวลวงได้อย่างไร : เอกสารประกอบงาน Digital Thinkers Forum #เวทีนักคิดดิจิทัล ครั้งที่ 26 "เราจะใช้ AI อย่างไรให้สร้างสรรค์และปลอดภัย" ที่มีเป้าหมายเพื่อความรู้เท่าทันในยุคดิจิตอล | วันที่ 17 ม.ค. 67 | ณ SCBX NEXT TECH ชั้น4 สยามพารากอน

ความรับผิดชอบของบริษัทเทคโนโลยีผู้พัฒนา generative AI 

หลายๆความเสี่ยงที่ได้กล่าวถึง โดยเฉพาะในส่วนของ AI หลอน หรือการใช้ generative AI ในการสร้างเนื้อหา ภาพ หรือภาพเคลื่อนไหวที่ตอกย้ำความเชื่อผิดๆ ข่าวลวง หรือการสร้างความเกลียดชังขัดแย้งในสังคมนั้น  ในแง่มุมนึงก็คือประเด็นความใหม่ของเทคโนโลยีที่เพิ่งเข้าสู่การใช้อย่างกว้างขวางไม่นาน ยังขาดการพัฒนาระบบป้องกันและการติดตามแก้ปัญหาให้เท่าทันกับสถานการณ์​ ซึ่งเมื่อเวลาผ่านไป เทคโนโลยีก็ก้าวหน้าขึ้นเรื่อยๆ มีระบบป้องกัน (guardrails) และแก้ปัญหาในเรื่องที่เกี่ยวข้องกับข้อมูลลวงมากขึ้นอย่างต่อเนื่อง ตัวอย่างระบบอย่าง ChatGBT หรือ Bard ก็สามารถสร้างเนื้อหาในประเด็นละเอียดอ่อนต่างๆได้ดีขึ้น ระบบได้รับการแก้ไขปรับปรุงอยู่ตลอดเวลา  แต่อย่างไรก็ตามในทางหลักการแล้วนั้น เทคนิควิธีการของ LLM ส่วนใหญ่ก็ยังมีปัญหาในตัวของมันเอง เช่น การที่ไม่รู้ว่าอะไรจริงไม่จริง  อะไรคือประเด็นและความซับซ้อนของหัวข้อที่มีความละเอียดอ่อนต่างๆ  นอกจากนั้นก็ยังมีเรื่องความปลอดภัยของผู้บริโภคในการใช้งานระบบเหล่านี้  หรือแม้แต่ความพยายามของกลุ่มที่ไม่หวังดีที่ตั้งใจจะใช้เป็นเครื่องมือในทางลบ   ล้วนเป็นประเด็นปัญหาที่ซับซ้อนทั้งสิ้น  

หลายครั้งมักมีผู้กล่าวว่าเราควรใช้ระบบ AI เหมือนกัน ในการตรวจสอบว่าเนื้อหาใดๆถูกสร้างโดย generative AI หรือไม่  แต่ในความเป็นจริงเป็นเรื่องที่ยากมากในปัจจุบัน แม้แต่ OpenAI ก็เคยเปิดตัวเครื่องมือ AI ที่มาใช้ตรวจสอบเนื้อหาที่สร้างขึ้นโดย generative AI แต่ในเวลาไม่นานนักก็ต้องปิดตัวลง เพราะความแม่นยำในการตรวจสอบต่ำมาก อยู่ที่ราวยี่สิบกว่าเปอร์เซ็นเท่านั้น   อย่างไรก็ตาม ปัจจุบันก็มีเครื่องมือ AI ที่กำลังพัฒนาเพื่อการเฝ้าระวัง ดักจับ และตรวจสอบเนื้อหาว่าสร้างจาก AI อยู่พอสมควร แต่ก็ยังไม่ได้ถูกนำมาใช้อย่างกว้างขวางได้สำเร็จ 

ดังนั้นการปล่อยให้บริษัทเทคโนโลยีต่างๆบอกว่าจะจัดการความเสี่ยงต่างๆของระบบด้วยตัวเองทั้งหมดนั้นอาจจะไม่ได้ประสิทธิภาพ เพราะมักขาดความชัดเจน โปร่งใส และแม้แต่แรงจูงใจในการพัฒนาระบบที่ปลอดภัย เมื่อเทียบต้นทุนที่ต้องใช้กับการเร่งพัฒนาระบบและตัวธุรกิจให้ได้กำไร บริษัทเทคโนโลยีส่วนใหญ่ก็ย่อมจะเลือกการทำกำไรเป็นหลัก ซึ่งหลายครั้งข่าวลวงหรือข้อมูลที่ไม่จริงแต่กระตุ้นอารมณ์ความรู้สึก รวมถึงภาพ และ vdo ปลอมนั้นได้รับความสนใจจากผู้ใช้อย่างมากมาย เหนือกว่าข่าวจริงอย่างมาก ซึ่งก็ย่อมจะทำกำไรให้กับบริษัทมากขึ้นไปด้วย เช่น ผ่านการขายหรือวางโฆษณาอัตโนมัติ การจัดการเรื่องเหล่านี้โดยบริษัทเทคโนโลยีเองจึงมีความยากลำบาก ทั้งในมุมความซับซ้อนของเทคโนโลยี และแรงจูงใจทางเศรษฐกิจ   ในกระแสการเลิกจ้างงานครั้งใหญ่รอบล่าสุดของเหล่าบริษัทเทคโนโลยีต่างๆในปี 2023 นั้น พบว่าพนักงานที่ทำหน้าที่ดูแลควบคุมเนื้อหา และความปลอดภัยต่อผู้ใช้ หรือการต่อต้านเนื้อหาลวง เป็นกลุ่มที่ถูกเลิกจ้างไปเป็นจำนวนมาก 

ความพยายามเชิงโนบายและการกำกับดูแล 

สหรัฐอเมริกา 

ในเดือน ก.ค. 2023 บริษัทเทคโนโลยีชั้นนำ 7 บริษัทประกอบด้วย Google, Microsoft, Meta (facebook), OpenAI, Amazon, Anthropic และ Inflection ได้พบกับประธานาธิบดีไบเดน  และได้มีข้อตกลงร่วมกันเบื้องต้นในการป้องกันความเสี่ยงที่จะเกิดขึ้นจากระบบปัญญาประดิษฐ์ (AI) โดยแต่ละบริษัทจะไปดำเนินการในลักษณะของอาสาสมัคร ไม่ได้มีกลไกบังคับโดยเฉพาะ เนื้อหาหลักของข้อตกลงนี้คือการให้ความสำคัญกับ “ความปลอดภัย ความมั่นคง และความน่าเชื่อถือ (safety, security & trust)” ในการพัฒนาเทคโนโลยี AI 

ด้านความปลอดภัย  บริษัทจะทดสอบความปลอดภัยและศักยภาพของระบบ AI ของตน รวมถึงให้หน่วยงานภายนอกมาทดสอบ ประเมินความเสี่ยงในด้านต่างๆต่อสังคม ความเสี่ยงด้านชีวภาพ และความมั่นคงไซเบอร์  และเปิดเผยผลการทดสอบเหล่านั้นให้กับสาธารณะ 

ด้านความมั่นคง  บริษัทจะป้องกันระบบ AI จากการโจมตีทางไซเบอร์ และความเสี่ยงจากคนใน แล้วแบ่งปันองค์ความรู้ วิธีการ และมาตรฐานต่างๆในการป้องกันการใช้ที่ผิดทาง ลดความเสี่ยงต่อสังคม และปกป้องความมั่นคงของชาติ 

ความน่าเชื่อถือ  ซึ่งเป็นสิ่งที่บริษัทต่างๆที่เข้าร่วมนั้นเห็นพ้องกันมากที่สุดก็คือการทำให้ผู้ใช้สามารถรับรู้ได้อย่างง่ายดายว่าข้อมูลหรือภาพที่เห็นนั้นถูกสร้างหรือปรับปรุงขึ้นโดย AI นอกจากนั้นก็มีประเด็นเรื่องการทำให้ AI ไม่ขยายการเหยียดหรืออคติ ป้องกันเด็กเยาวชนจากอันตราย และใช้ AI เพื่อแก้ปัญหาสำคัญเช่นการเปลี่ยนแปลงสภาวะอากาศ และมะเร็ง 

หลังจากการหารือข้อตกลงดังกล่าว  ในเดือน ต.ค. 2023 ประธานาธิบดีไบเดนก็ออกคำสั่งประธานาธิบดีเรื่อง “ปัญญาประดิษฐ์ที่ปลอดภัย มั่นคง และน่าเชื่อถือ” ซึ่งเป็นเนื้อหาที่สอดคล้องกับข้อตกลงความร่วมมือในช่วงหลายเดือนก่อนหน้า 

 ในคำสั่งนี้ บริษัทด้านเทคโนโลยีที่เกี่ยวข้องกับการพัฒนา AI จะต้องให้ข้อมูลผลการทดสอบความปลอดภัยและประเด็นอื่นๆกับรัฐบาลก่อนที่จะเปิดใช้อย่างเป็นทางการกับสาธารณะ  โดยรัฐบาลจะกำหนดมาตรฐานการทดสอบ โดยมีสถาบันมาตรฐานและเทคโนโลยีแห่งชาติเป็นแกนหลักในการพัฒนามาตรฐาน  

นอกจากนั้นยังมีประเด็นสำคัญอีกหลายอย่าง เช่น 

  • ข้อแนะนำอย่างเป็นทางการ (official guidance) เกี่ยวกับการใส่ลายน้ำ (watermark) หรือการกำหนดฉลากดิจิตอล (digital labeling) เพื่อให้ผู้ใช้รับรู้ว่าเนื้อหาใดถูกสร้างหรือปรับปรุงด้วย AI ซึ่งจะทำให้สามารถแยกแยะได้ง่ายขึ้น ป้องกันหรือลดการเผยแพร่ข่าวปลอมหรือเนื้อหาลวงในลักษณะต่างๆได้  สามารถตรวจสอบได้ง่ายขึ้น 
  • บริษัทที่พัฒนาโมเดล AI ที่มีความเสี่ยงต่อความมั่นคงของชาติ-เศรษฐกิจ หรือมีความเสี่ยงต่อสุขภาพและความปลอดภัยของประชาชน ต้องส่งผลทดสอบความเสี่ยงเหล่านั้นให้กับหน่วยงานของรัฐ 
  • รัฐจะกำหนดแนวปฏิบัติในการทดสอบระบบแบบ red-team testing หรือการที่ผู้ทดสอบจำลองสถานการณ์เป็นแฮกเกอร์เพื่อทดสอบระบบ 
  • มาตรฐานเกี่ยวกับการคัดกรองความเสี่ยงของโครงการ AI ที่เกี่ยวกับชีววิทยาและยีนส์ ที่อาจนำไปสู่การสร้างอาวุธชีวภาพได้ 
  • การพัฒนาแนวปฏิบัติที่ดีที่สุดเพื่อป้องกันการใช้ AI และ algorithm แล้วทำให้เกิดการการเลือกปฏิบัติต่อกลุ่มเฉพาะต่างๆในสังคม ทั้งในมุมของการจ้างงาน การรับสิทธิประโยชน์ของรัฐ  และการเข้าสู่กระบวนการยุติธรรมอย่างเป็นธรรม 
  • มาตรการต่างๆสำหรับหน่วยงานภาครัฐเพื่อให้เกิดการใช้งานระบบ AI อย่างปลอดภัย มีประสิทธิภาพ รวดเร็ว  คำนึงถึงสิทธิของประชาชน 

(ศึกษาข้อมูลเพิ่มเติมเกี่ยวกับคำสั่งประธานาธิบดีได้ที่ [https://www.whitehouse.gov/briefing-room/statements-releases/2023/10/30/fact-sheet-president-biden-issues-executive-order-on-safe-secure-and-trustworthy-artificial-intelligence/])

กลุ่มประเทศ G7 

ในเดือน พ.ค. 2023 มีการประชุมประจำปีผู้นำกลุ่มประเทศ G7 ที่เมืองฮิโรชิมา ประเทศญี่ปุ่น  โดยมีการจัดตั้ง “Hiroshima AI Process” ซึ่งเป็นคณะทำงานของ G7 ในการศึกษาโอกาสและความท้าทายของ AI  ซึ่งหนึ่งในเป้าหมายที่ชัดเจนก็คือการแก้ปัญหาข้อมูลลวง (misinformation) โดยเฉพาะในบริบทของ generative AI 

และในเดือน ต.ค. 2023 ก็ได้มีการเปิดตัวแถลงการณ์ Hiroshima AI Process พร้อมด้วยหลักปฏิบัติ (code of conduct) และหลักการณ์สำคัญ​ (principles) เกี่ยวกับระบบ AI ที่มีความก้าวหน้า (advanced AI systems) 

ในหลักปฏิบัตินั้น กำหนดขั้นตอนการดำเนินการขององค์กรใดๆในการพัฒนาและใช้ระบบ AI  โดยเป็นแนวปฏิบัติที่เชื่อมโยงกับหลักการ 11 ข้อ 

  • กระบวนการกำหนด ประเมิน และป้องกันความเสี่ยงของชั่วชิวิตของระบบ AI  ทั้งก่อนและหลังการเปิดตัวในตลาด 
  • กระบวนการค้นหาและป้องกันจุดอ่อน ปัญหาที่เกิดขึ้นจากการใช้ และการใช้ในทางที่ผิด เมื่อได้เปิดตัวในตลาดแล้ว 
  • รายงานต่อสาธารณะในเรื่องศักยภาพความสามารถของระบบ AI  ข้อจำกัด บริบทของการใช้งานที่เหมาะสมและไม่เหมาะสม เพื่อความโปร่งใสและความรับผิดชอบ 
  • แลกเปลี่ยนข้อมูลปัญหาต่างระหว่างองค์กรผู้พัฒนาระบบ AI ด้วยกันอย่างรับชอบ เพื่อการสร้างความร่วมมือในการพัฒนามาตรฐาน เครื่องมือ กลไก และแนวปฏิบัติที่ดีที่สุดเพื่อให้เกิดความปลอดภัย มั่นคง และน่าเชื่อถือของระบบ AI 
  • พัฒนา ดำเนินการ และเปิดเผยข้อมูลเกี่ยวกับระบบธรรมาภิบาล AI และนโยบายจัดการความเสี่ยง
  • ดำเนินการจัดการควบคุมความมั่นคงของระบบ ทั้งในเชิงกายภาพ ไซเบอร์ และการป้องกันความเสี่ยงจากคนใน 
  • พัฒนาและใช้งานกลไกสำหรับให้ผู้ใช้สามารถรับรู้ว่าเนื้อหาใดสร้างขึ้นโดย AI (เช่น มีข้อมูลระบุได้ว่าสร้างจากบริการหรือ AI model ใด) หรือกำลังปฏิสัมพันธ์กับระบบ AI อยู่ โดยจะต้องรับรู้ได้โดยง่ายและน่าเชื่อถือ 
  • ให้ความสำคัญกับการวิจัยพัฒนาความปลอดภัย ความมั่นคง และความน่าเชื่อถือของระบบ  แก้ปัญหาและป้องกันความเสี่ยงสำคัญต่างๆ 
  • ให้ความสำคัญกับการพัฒนาระบบ AI เพื่อแก้ปัญหาสำคัญที่สุดของโลกต่างๆ โดยเฉพาะในเป้าหมายการพัฒนาที่ยั่งยืน (Sustainabel Development Gaols -SDGs) วิกฤตสภาพอากาศ​ สุขภาพของโลกและการศึกษา เป็นต้น  และควรสนับสนุนการให้ความรู้พื้นฐานเกี่ยวกับเทคโนโลยีดิจิตอลเพื่อให้ประชาชนได้ประโยชน์จากระบบ AI 
  • พัฒนาและปรับใช้มาตรฐานทางเทคนิค และแนวปฏิบัติที่ดีที่สุด ในระดับระหว่างประเทศ  เช่น การใช้ลายน้ำ วิธีการทดสอบระบบ การตรวจสอบเนื้อหาว่าเป็นของจริง ฯลฯ 
  • ดำเนินการการนำเข้าข้อมูลอย่างเหมาะสม โปร่งใส ได้คุณภาพ ป้องกันอคติที่เป็นอันตราย  และมีการป้องกันการละเมิดข้อมูลส่วนบุคคลและทรัพยสินทางปัญญา 

สหภาพยุโรป 

ในยุโรปมีความพยายามอย่างต่อเนื่องในการกำกับดูแล AI ในหลากหลายลักษณะ  โดยเฉพาะในมุมของเนื้อหาลวง (misinformation)  ในปี 2022 มีการจัดตั้ง “หลักปฏิบัติของสหภาพยุโรปด้านเนื้อหาลวง (EU Code of Practice on Disinformation)” ซึ่งเป็นกลไกการกำกับดูแลตัวเองในหมู่ผู้พัฒนาเทคโนโลยี AI และองค์กรที่เกี่ยวข้อง เช่น อุตสาหกรรมโฆษณา และภาคประชาสังคม โดยมีความร่วมมืออย่างใกล้ชิดกับสหภาพยุโรปและหน่วยงานที่เกี่ยวข้อง  ปัจจุบันมีหน่วยงานสมาชิกเข้าร่วมกว่า 44 องค์กร รวมบริษัทเช่น Meta (facebook), Google, Youtube, TikTok, OpenAI, LinkedIn  ฯลฯ   

โดยองค์กรสมาชิกร่วมกันพัฒนาหลักปฏิบัติที่ประกอบไปด้วยข้อตกลงดำเนินการ (committments) 44 ข้อ และมาตรการต่างอีก 28 ข้อ ในประเด็นสำคัญ เช่น การป้องกันระบบโฆษณาไม่ให้ถูกใช้เรื่องข้อมูลลวง  โฆษณาทางการเมืองต้องโปร่งใส  การป้องกันพฤติกรรมในการขยายข่าวลวงข้าม platforms ต่างๆ การดูแลผู้ใช้ให้สามารถรับรู้ว่าอะไรเป็นข้อมูลลวงหรือไม่ใช่ความจริงได้โดยง่ายรวมถึงการเข้าถึงแหล่งข้อมูลที่น่าเชื่อถือ การร่วมมือกับหน่วยงานวิจัยเพื่อศึกษาและจัดการปัญหาข้อมูลลวงรวมถึงการให้การเข้าถึงชุดข้อมูลวิจัยที่สำคัญต่อเป้าหมายดังกล่าว  การสนับสนุนเครือข่ายการตรวจสอบข่าว (fact checking) การรายงานผลอย่างเป็นระบบและโปร่งใสเกี่ยวกับการปฏิบัติให้ code of practice นี้ผ่านระบบข้อมูลกลางที่เรียกว่า Transparency Centre ฯลฯ  

ในเดือนกันยายนได้มีการรายงานผลรอบ 6 เดือนในการประยุกต์ใช้หลักปฏิบัติฯนี้ในแต่ละ platform หรือระบบที่เกี่ยวข้อง และเป็นการรายงานที่ประชาชนหรือผู้สนใจสามารถไปติดตามข้อมูลผลรายงานได้อย่างโปร่งใส  

ในรายงานมีเนื้อหาเกี่ยวกับบริบทเฉพาะที่มีความสำคัญกับประเด็นข่าวลวงตามที่สหภาพยุโรปให้ความสำคัญ โดยเฉพาะประเด็นสงครามยูเครน โดยมีการรายงานความคืบหน้าที่น่าสนใจเช่น  Youtube ได้ยุติช่องในะระบบกว่า 400 ช่องที่เกี่ยวกับปฏิบัติการข้อมูลข่าวสาร (IO) เชื่อมโยงกับหน่วยงาน Internet Research Agency (IRA) ซึ่งได้รับการสนับสนุนจากรัฐบาลรัสเซียในช่วงระหว่างเดือน ม.ค. ถึง เม.ย. 2023 และ Google ยังลบโฆษณาจากกว่า 300 เว็บไซต์ที่เชื่อมโยงไปยังเว็บโฆษณาชวนเชื่อของรัฐ  Meta (facebook) ขยายความร่วมมือในการตรวจสอบข่าว (fact-checking) กับ 26 หน่วยงาน ครอบคลุม 22 ภาษาในสหภาพยุโรป  ขณะที่ TikTok มีการตรวจสอบข่าวในภาษารัสเซีย ยูเครน เบลารุส และอีก 17 ภาษาในยุโรป และมีความร่วมมือกับ Reuter ในการตรวจสอบข่าว ทำให้มีการตรวจสอบวิดิโอ 832 ชิ้น และมี 211 ชิ้นที่ถูกลบออกไปจากระบบ 

นอกจากนั้นยังมีการทำงานร่วมกับหน่วยวิจัย TrustLab ในการทดลองการวิเคราะห์เชิงลึกใน 3 ประเทศ คือ โปแลนด์, สโลวาเกีย และสเปน โดยมีการคัดกรองแล้ววิเคราะห์ข้อความจาก social media 6,155 ชิ้น และบัญชีผู้ใช้ 4,460 ราย จาก Facebook, Instagram, LinkedIn, TikTok, Twitter (ปัจจุบันคือ X) และ Youtube  เพื่อให้สามารถแสดงข้อมูลสำคัญในหลักปฏิบัติด้านข่าวลวงของ EU ที่เรียกว่า “ตัวชีัวัดเชิงโครงสร้าง (structural indiciators)” ที่จะทำให้การติดตามการปฏิบัติตามหลักปฏิบัตินั้นมีผลอย่างเป็นรูปธรรม  ซึ่งมีตัวชี้วัดสำคัญและผลลัพธ์ดังต่อไปนี้ 

Discoverability หรือความสามารถในการค้นเจอ  คืออัตราส่วนระหว่างข้อมูลลวงและเนื้อหาที่ความอ่อนไหวในประเด็นต่างๆ ซึ่งพบว่า Twitter (X) มีอัตราสูงสุดคือ 0.428 รองลงมาคือ Facebook (0.313) ขณะที่ Youtube มีน้อยที่สุดคือ (0.082) 

Absolute post engagement คือค่าเฉลี่ยของปฏิสัมพันธ์ (engagement) ของเนื้อหาลวงแต่ละชิ้น  และ Relative post engagement คืออัตราส่วนระหว่างค่าเฉลี่ยของ Absolute post engagement ของเนื้อหาลวง เมื่อเทียบกับค่าเฉลี่ยของ abosolute post engagement ของเนื้อหาที่ไม่ใช่ข่าวลวง  ซึ่งยิ่งมีค่า relative post engagment สูงเท่าใดก็ย่อมแสดงว่าผู้ใช้ในระบบนั้นๆมีความเสี่ยงสูงที่จะเป็นอันตราย เพราะอาจเจอพื้นที่ที่ความปฏิสัมพันธ์กับเนื้อหาลวงมากกว่าเนื้อหาทั่วไปอย่างมาก  ซึ่งในส่วนของ absolute post engagement นั้นค่าสูงสุดคือ TikTok และ Youtube ตามลำดับ  แต่ในค่า relative post engagement กลายเป็น Twitter มีค่าสูงที่สุด รองลงมาจึงเป็น Youtube 

Ratio of disformation actors หรือสัดส่วนของผู้ตั้งใจเผยแพร่ข้อมูลลวงเมื่อเทียบกับผู้ใช้ทั่วไปที่เป็นกลุ่มตัวอย่างในการวิเคราะห์​   โดยพบว่า Twitter และ Facebook มีสัดส่วนผู้ตั้งใจเผยแพร่ข้อมูลลวงเทียบกับกลุ่มตัวอย่างทั่วไปถึง 8-9 % ขณะที่ Youtube นั้นต่ำสุดคือมีอัตราส่วนเพียง 0.8%  และพบว่าผู้ที่ตั้งใจจะเผยแพร่เนื้อหาลวงจะติดตามผู้ใช้มากกว่าผู้ใช้ทั่วๆไปมาก  และมักจะเพิ่งสมัครเข้าใช้ระบบต่างๆได้ไม่นาน 

จะเห็นได้ว่า Twitter หรือ X ในปัจจุบันนั้น หากดูข้อมูลเฉพาะ 3 ประเทศในยุโรปที่ทำวิจัย กลายเป็นระบบที่มีการเผยแพร่ข้อมูลลวงมากที่สุดเทียบในเชิงสัดส่วนเมื่อเทียบกับ platform อื่นๆ  และ X เลือกที่จะถอนตัวไม่เข้าร่วมกับ EU Code of Conduct ดังกล่าวอีกด้วย 

ในช่วงกลางปี 2023 คณะกรรมาธิการยุโรป (European Commission) ได้ขอให้บริษัทเทคโนโลยีสำคัญเช่น Google, Meta, Microsoft, TikTok และสมาชิกของ Code of Conduct ให้ช่วยตรวจจับภาพ วิดิโอ และเนื้อหาที่สร้างขึ้นจาก AI และทำให้ผู้ใช้ทราบว่าเนื้อหานั้นๆถูกสร้างด้วย AI ด้วยการปิดป้ายที่ทำให้เข้าใจง่าย  

นอกจากแนวทางการกำกับดูแลกันเองในลักษณะ Code of Conduct ดังกล่าวแล้ว ในเดือน ส.ค. 2023 ได้มีการผ่านกฏหมาย Digital Services Act -DSA ในระดับสหภาพยุโรป ที่บังคับให้ platforms ที่มีผู้ใช้อย่างน้อย 45 ล้านคนต่อเดือนต้องมีการทำแผนประเมินและป้องกัน/จัดการความเสี่ยง  ต้องยินยอมให้หน่วยงานวิจัยเข้าไปวิเคราะห์ความเสี่ยงถึงอันตราย และความโปร่งใสของระบบต่างๆโดยเฉพาะ algorithms  รวมถึงการที่ต้องรับผิดชอบในการจัดการกับเนื้อหาอันตราย และเนื้อหาลวงต่างๆ   ซึ่งมีบทลงโทษที่หนักพอสมควรหากมีการฝ่าฝืน เพราะสามารถปรับเป็นเงินได้ถึง 6% ของรายได้ทั่วโลกของ platform นั้นๆ หรืออาจถูกแบนหรือยุติการใช้งานในสหภาพยุโรปได้ 

สหภาพยุโรปกำลังอยู่ในกระบวนการพิจารณาร่างกฏหมายอีกหนึ่งฉบับที่เกี่ยวข้องที่เรียกว่า EU AI Act ซึ่งปัจจุบันกำลังเข้าสู่กระบวนการนิติบัญญัติของสหภาพยุโรป โดยมีเนื้อหาที่จะกำกับดูแลความเสี่ยงที่เกี่ยวข้องกับ AI ในภาพรวม และส่งเสริมพัฒนาการในยุโรป  ในส่วนที่เกี่ยวกับ generative AI และข้อมูลลวงนั้น  จะมีเนื้อหาที่บังคับให้โมเดลพื้นฐาน (Foundation Module -FM) จะต้องถูกประเมินความเสี่ยงต่างๆ ทั้งในเรื่องความถูกต้อง การสร้างเนื้อหาลวง หรือความเสี่ยงเรื่องผลในเชิงการเลือกปฏิบัติหรืออคติต่างๆ และมีแนวทางการจัดการป้องกัน รวมถึงการทดสอบถึงความเสี่ยงต่างๆของ FM เหล่านี้ (FM หมายถึง LLM นั่นเอง) และการสร้างความโปร่งใสของความเสี่ยงและผลทดสอบต่างๆให้กับสาธารณะ  รวมถึงการไม่ละเมิดสิทธิข้อมูลส่วนบุคคลและสินทรัพย์ทางปัญญา โดยเฉพาะการนำเข้าชุดข้อมูลมาเทรน FM ต่างๆ 

และในเดือน ธ.ค. 2023 สหภาพยุโรปได้บรรลุข้อตกลงร่วมกันเกี่ยวกับกฏเกณฑ์แนวทางสำคัญในการควบคุมดูแล AI ที่จะเป็นองค์ประกอบสำคัญในกฏหมาย AI ของสหภาพยุโรป ซึ่งย่อมจะมีผลต่อการดำเนินธุรกิจหรือโครงการด้าน AI ต่างๆทั่วโลก โดยมีหลักการสำคัญคือระดับการควบคุมดูแลจะต้องสอดคล้องกับความเสี่ยงในระดับที่แตกต่างกัน แบ่งเป็น 

ความเสี่ยงในระดับที่ยอมรับไม่ได้ (unacceptable risk) เป็นความเสี่ยงอย่างมากต่อประชาชนและจะถูกห้ามใช้ 

  • การพยายามควบคุม/เปลี่ยนพฤติกรรมของผู้คนและกลุ่มเสี่ยง (cognitive behavioural manipulation), การให้คะแนนเชิงสังคม (social scoring), การใช้ข้อมูลชีวมิติ (biometric) ในการระบุตัวตนและจัดกลุ่มผู้คน รวมถึงการใช้ภาพใบหน้าเพื่อระบุตัวตน  ซึ่งอาจมีข้อยกเว้นในส่วนของการบังคับใช้กฏหมายที่สำคัญและจำเป็นจริงๆเท่านั้น 

ความเสี่ยงสูง  คือระบบ AI ที่มีผลทางลบต่อความปลอดภัย และสิทธิขั้นพื้นฐาน จะต้องมีกระบวนการประเมินและจัดการความเสี่ยงก่อนที่จะเข้าสู่ตลาด และต้องดูแลตลอดอายุของสินค้าบริการนั้นๆ  โมเดล AI ที่อาจสร้างความเสี่ยงเชิงระบบในมิติสำคัญต่างๆจะต้องถูกประเมินและทดสอบอย่างต่อเนื่องและผลต่างๆจะต้องส่งให้กับคณะกรรมาธิการยุโรป 

Generative AI เช่น ChatGPT จะต้องปฏิบัติตามเงื่อนไขด้านความโปร่งใส 

  • การระบุให้ชัดเจนว่าเนื้อหานี้ถูกสร้างด้วย AI 
  • ออกแบบป้องกันไม่ให้สร้างเนื้อหาผิดกฏหมาย
  • เปิดเผยช้อมูลโดยสรุปถึงชุดข้อมูลที่มีลิขสิทธิ์ที่ถูกใช้ในการพัฒนา AI (training data) 

ความเสี่ยงจำกัด (limited risk) จะต้องปฏิบัติตามเงื่อนไขด้านความโปร่งใสเพื่อให้ผู้ใช้สามารถตัดสินใจต่างๆได้อย่างเหมาะสม หากผู้ใช้มีการปฏิสัมพันธ์กับ AI ก็ต้องแจ้งด้วย และผู้ใช้มีสิทธิที่จะหยุดใช้งานระบบได้ ผู้บริโภคมีสิทธิที่จะร้องเรียนและได้รับคำอธิบายที่เหมาะสม 

ซึ่งหากหน่วยงาน องค์กร หรือบริษัทใดๆที่ไม่ดำเนินการตามกฏหมายสามารถจะถูกปรับได้ระหว่าง 1.5% – 7% ของยอดขายขององค์กรนั้นๆจากทั่วโลก (global sales turnover)  

ซึ่งคาดว่ากฏหมายจะผ่านสภายุโรปในปี 2024 นี้ และจะมีเวลา 2 ปีเพื่อให้องค์กรและบริษัทต่างๆเตรียมตัวเข้าสู่ระบบการควบคุมดูแลใหม่นี้

สหราชอาณาจักรและบทบาทการเชื่อมโยงพัฒนามาตรฐานความปลอดภัยของ AI ระหว่างประเทศ 

ในเดือน พ.ย. 2023 สหราชอาณาจักรได้จัดงานประชุมสุดยอด AI ที่ปลอดภัย (AI Safety Summit) โดยมีตัวแทนจากประเทศต่างๆเข้าร่วม 27 ประเทศ รวมทั้งสหรัฐอเมริกา สหภาพยุโรป แคนาดา ออสเตรเลีย จีน ญี่ปุ่น เกาหลีใต้ หรือแม้แต่ฟิลิปปินส์   โดยได้จัดประชุมที่ Bletchley Park ซึ่งเป็นสถานที่ประวัติศาสตร์ที่อลัน ทัวริ่งนำทีมผู้เชี่ยวชาญเจาะโคัดสื่อสารลับของฝ่ายอักษะได้สำเร็จในช่วงสงครามโลกครั้งที่ 2   หลังจากการประชุมที่แลกเปลี่ยนประเด็นด้านความปลอดภัยและความเสี่ยงต่างๆของ AI สองวันเต็ม จึงมีการเซ็นคำประกาศ Bletchley โดยมีทั้ง 27 ประเทศร่วมลงนาม  โดยมีเนื้อหาหลักเกี่ยวกับการยอมรับถึงความเสี่ยงของ AI ในมิติต่างๆ โดยเฉพาะการสร้างและเผยแพร่เนื้อหาที่หลอกลวง ความมั่นคงไซเบอร์ ความเสี่ยงด้านชีวภาพ  และความเสี่ยงที่จะใช้งานไปในทางลบ ทั้งที่จงใจและไม่ได้ตั้งใจ  ในคำประกาศมุ่งเน้นความไม่เข้าใจเกี่ยวกับศักยภาพและความสามารถของ AI ต่างๆที่ถูกพัฒนาขึ้นอย่างรวดเร็ว มีการพูดถึง FM ที่มีความเสี่ยงในการสร้างผลลบได้อย่างมาก หากยังไม่มีความเข้าใจ หรือการประเมินและจัดการความเสี่ยงที่เพียงพอ  

คำประกาศฯ​เน้นว่าความปลอดภัยเชิง AI นี้เป็นสิ่งที่ทุกฝ่ายต้องมีบทบาท ต้องมีความร่วมมือกันข้ามภาคส่วน และระหว่างประเทศ ผู้พัฒนาระบบ AI ต้องมีความรับผิดชอบต่อความปลอดภัยและการใช้งานของระบบ และควรพัฒนาความร่วมมือในการที่จะกำหนดความเสี่ยงต่างๆร่วมกัน แลกเปลี่ยนข้อมูลความเสี่ยงต่างๆอย่างเป็นวิทยาศาสตร์ เพื่อสร้างความเข้าใจผลของ AI ที่จะมีต่อสังคม  รวมทั้งพัฒนานโยบายเพื่อตอบโจทย์ความเสี่ยงด้านต่างๆ โดยเฉพาะการสร้างความโปร่งใส การวัดผลที่มีตัวชี้วัดที่เหมาะสม เครื่องมือในการทดสอบระบบ และทำให้ภาครัฐและภาควิจัยมีศักยภาพเพียงพอ และมีข้อตกลงร่วมกันว่าจะไปพัฒนาแนวทางรองรับการพัฒนาความร่วมมือต่างๆ จะมีการประชุมครั้งต่อไปเพื่อติดตามความก้าวหน้าและพัฒนาให้เกิดความร่วมมือที่ชัดเจนขึ้น 

ซึ่งเป็นการแสดงเจตนารมย์ที่จะพัฒนาความร่วมมือระหว่างประเทศที่ค่อนขว้างกว้างขวาง และย่อมจะเป็นประโยชน์ต่อการกำหนดทิศทางของความปลอดภัยด้าน AI ระหว่างประเทศต่อไป  อย่างไรก็ตาม มีเครือข่ายประชาสังคม องค์กรเทคโนโลยี และภาควิชาการไม่น้อยที่กล่าวว่าการประชุมดังกล่าวยังขาดการมีส่วนร่วมจากภาคประชาสังคม และภาคส่วนอื่นๆ เพราะมีแต่ตัวแทนของรัฐและบริษัทขนาดใหญ่เป็นหลัก  และการให้ความสำคัญอย่างมากว่าอันตรายจาก AI จะมาจาก FM หรือ LLM อาจจะคับแคบไปอย่างมาก 

ในสหราชอาณาจักรเอง ก็เปิดตัวสถาบันความปลอดภัยด้าน AI ไปพร้อมกัน  โดยมีภารกิจสำคัญในการจัดการความเสี่ยงที่เป็นอันตรายของ AI ต่อประโยชน์ของสังคมและประเทศ โดยมีเนื้องานสำคัญคือการพัฒนาการประเมินความเสี่ยงด้านความปลอดภัยและความมั่นคงของระบบ AI รวมถึงความผลต่อสังคมที่หลากหลาย, วิจัยด้านความปลอดภัยทาง AI โดยเฉพาะระบบธรรมาภิบาล AI การวัดผลและนวัตกรรมเพื่อความปลอดภัย, และประสานการแลกเปลี่ยนข้อมูลที่เกี่ยวข้องจากทุกภาคส่วน 

บทเรียนสำหรับประเทศไทย 

ความก้าวหน้าเชิงนโยบายเกี่ยวกับการกำกับดูแลความเสี่ยงของ Generative AI ในด้านต่างๆ โดยเฉพาะการสร้างและเผยแพร่ข้อมูลลวงนั้น มีความก้าวหน้าอยู่พอสมควร ประเทศไทยสามารถเรียนรู้ได้ ร่วมศึกษาและประยุกต์เข้าสู่บริบทของไทยได้ โดยเฉพาะประเด็นหลักๆเช่น 

  • การสร้างความรู้เท่าทันเชิง AI ให้กับประชาชนและผู้ใช้งาน  
  • การส่งเสริมให้เกิดการประเมินและจัดการความเสี่ยงใน AI models สำคัญๆที่เป็นภาษาไทย แนวทางการทดสอบ แล
  • การระมัดระวังความเสี่ยงในเรื่องอคติต่างๆในชุดข้อมูลเทรนนิ่ง  
  • การส่งเสริมร่วมกับเครือข่ายระหว่างประเทศให้ผู้พัฒนาต้องปิดป้ายหรือลายน้ำหรือมีวิธีให้ประชาชน และผู้เชี่ยวชาญสามารถแยกแยะได้ว่าเนื้อหาใดสร้างจาก AI
  • การกำหนดให้ platform ต่างๆต้องร่วมรับผิดชอบต่อเนื้อหาลวงที่อยู่ในระบบของตน 
  • การพัฒนาให้เกิด code of conduct ที่มีเนื้อหาเป็นสากลและมีกลไกการติดตามที่มีประสิทธิภาพ  
  • การศึกษาวิจัยอย่างมีข้อมูลประกอบชัดเจนเกี่ยวกับสถานการณ์ของการสร้างและกระจายข้อมูลลวง ทั้งที่เกี่ยวกับ AI โดยตรงหรือทางอ้อม 
  • การสร้างความร่วมมือทุกภาคส่วน ทั้งภาครัฐ เอกชน องค์กรเทคโนโลยี ภาควิชาการ และภาคประชาสังคมในการขับเคลื่อนความปลอดภัยเชิง AI ให้เกิดขึ้นจริง 

บรรณานุกรม

Biden’s AI Directive Factsheet 

https://www.whitehouse.gov/briefing-room/statements-releases/2023/10/30/fact-sheet-president-biden-issues-executive-order-on-safe-secure-and-trustworthy-artificial-intelligence/

AI Safety Institute UK 

https://www.gov.uk/government/publications/ai-safety-institute-overview/introducing-the-ai-safety-institute

Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems https://www.mofa.go.jp/files/100573473.pdf

EU Code of Conduct Pilot study  https://disinfocode.eu/wp-content/uploads/2023/09/code-of-practice-on-disinformation-september-22-2023.pdf

The Bletchley Declaration 

https://www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023

https://www.theguardian.com/technology/2023/oct/30/biden-orders-tech-firms-to-share-ai-safety-test-results-with-us-government

https://www.scientificamerican.com/article/bidens-executive-order-on-ai-is-a-good-start-experts-say-but-not-enough/

https://apnews.com/article/artificial-intelligence-chatgpt-europe-rules-906fc89d2561b200fa6eb40a06b946a5

https://www.bruegel.org/analysis/adapting-european-union-ai-act-deal-generative-artificial-intelligence

https://ec.europa.eu/commission/presscorner/detail/en/SPEECH_23_4645

https://disinfocode.eu/introduction-to-the-code/

EU Code of Conduct Pilot study  https://disinfocode.eu/wp-content/uploads/2023/09/code-of-practice-on-disinformation-september-22-2023.pdf

https://www.theguardian.com/technology/2023/nov/02/top-tech-firms-to-let-governments-vet-ai-tools-sunak-says-at-safety-summit

https://www.euronews.com/next/2023/11/01/a-world-first-ai-agreement-elon-musk-and-a-kings-speech-the-key-takeaways-from-the-uk-ai-s

https://theconversation.com/bletchley-declaration-international-agreement-on-ai-safety-is-a-good-start-but-ordinary-people-need-a-say-not-just-elites-217042

The Bletchley Declaration 

https://www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023

http://lcfi.ac.uk/news-and-events/news/2023/oct/31/ai-safety-policies/

https://www.europarl.europa.eu/news/en/headlines/society/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence

https://www.technologyreview.com/2023/12/11/1084942/five-things-you-need-to-know-about-the-eus-new-ai-act/


*หมายเหตุ เอกสารประกอบงาน Digital Thinkers Forum #เวทีนักคิดดิจิทัล ครั้งที่ 26 “เราจะใช้ AI อย่างไรให้สร้างสรรค์และปลอดภัย” ที่มีเป้าหมายเพื่อความรู้เท่าทันในยุคดิจิตอล | วันที่ 17 ม.ค. 67 | ณ SCBX NEXT TECH ชั้น4 สยามพารากอน

  • จัดโดยมูลนิธิฟรีดิช เนามัน ประเทศไทย ร่วมกับโคแฟค ไทยแลนด์

ติดตามออนไลน์ผ่าน ไลฟ์/ชมย้อมหลัง ได้ที่

#ThaiPBS

• Facebook

Thai PBS : http://fb.watch/pD9DsMrOaa

Cofact โคแฟค : http://fb.watch/pD9ALNeoSL

สภาองค์กรของผู้บริโภค : http://fb.watch/pD9BjdCNSD

สภาการสื่อมวลชนแห่งชาติ : http://fb.watch/pD9BR1xNeB

• YouTube : http://youtu.be/bLJwcvqUUI8

เจาะลึกประเด็น Generative AI และข่าวลวง

บทความ
เจาะลึกประเด็น Generative AI และข่าวลวง : เอกสารประกอบงาน Digital Thinkers Forum #เวทีนักคิดดิจิทัล ครั้งที่ 26 "เราจะใช้ AI อย่างไรให้สร้างสรรค์และปลอดภัย" ที่มีเป้าหมายเพื่อความรู้เท่าทันในยุคดิจิตอล | วันที่ 17 ม.ค. 67 | ณ SCBX NEXT TECH ชั้น4 สยามพารากอน

Generative AI คืออะไรทำงานอย่างไร 

อลัน ทัวริง หนึ่งในผู้ให้กำเนิดเทคโนโลยีคอมพิวเตอร์ ได้สร้างแบบทดสอบที่เรียกว่าทัวริงเทสในปี 1950 ที่บอกว่าเครื่องกลจะมีระดับปัญญาแบบมนุษย์ได้ต่อเมื่อสามารถทำให้มนุษย์ไม่สามารถแยกแยะว่าคุยกับคนหรือคอมพิวเตอร์อยู่ ซึ่งกลายเป็นเป้าหมายสำคัญของนักพัฒนาระบบปัญญาประดิษฐ์ทั่วโลกมากว่า 7 ทศวรรษ   และในช่วงไม่กี่ปีที่ผ่านมากลายเป็นจุดเปลี่ยนสำคัญในประวัติศาสตร์ของความสัมพันธ์ระหว่างมนุษย์และเครื่องกล  เพราะเป็นช่วงที่เทคโนโลยีปัญญาประดิษฐ์ (Artificial Intelligence -AI) ก้าวผ่านทัวริงเทสแทบจะเรียกได้ว่าโดยสมบูรณ์  การพูดคุยกับ chatbot อย่าง ChatGPT หรือ Bard หากไม่ได้บอกว่าเป็น AI แต่แรก คนส่วนใหญ่คงแยกยากว่าคุยกับระบบเครื่องกลอยู่  

เทคโนโลยีสำคัญที่ทำให้สถานการณ์ทางเทคโนโลยีเช่นนี้เกิดขึ้นก็คือสิ่งที่เรียกว่า Generative AI หรือ ปัญญาประดิษฐ์เชิงสร้างใหม่ ซึ่งมีความพิเศษแตกต่างจากระบบ AI ทั่วไปคือการมุ่งเน้นที่จะสร้างเนื้อหาใหม่ขึ้นมาได้โดยคำสั่งของมนุษย์เพียงไม่กี่คำหรือประโยค (prompt)  และเนื้อหาที่สร้างขึ้นใหม่นั้นก็ไม่ใช่การคัดลอกเนื้อหาที่มีอยู่เดิมมาใช้แบบตรงไปตรงมา แต่มีการเรียบเรียง ปรับเปลี่ยน ผสมผสานเป็นผลงานชิ้นใหม่ ดุจมีมนุษย์เป็นผู้สร้างสรรค์   ไม่ว่าจะเป็นเนื้อหาแบบอักษร ภาพ เสียง หรือ เนื้อหาภาพเคลื่อนไหวพร้อมเสียง ก็สามารถทำได้อย่างรวดเร็ว ลื่นไหล และมีคุณภาพที่ดีขึ้นอย่างรวดเร็ว 

Generative AI เกิดการการผูกโยงเทคโนโลยีหลายส่วนเข้าด้วยกัน โดยมีองค์ประกอบหลักคือ Machine Learning (ML) ที่มีโมเดลให้เครื่องกลสามารถเรียนรู้จากชุดข้อมูลมากมายมหาศาลที่มักนำมาจากทุกอย่างที่อยู่บนระบบอินเทอร์เน็ต หรือชุดข้อมูลเฉพาะของหน่วยงานที่เชี่ยวชาญเฉพาะด้านต่างๆ  แล้วนำมาสร้างใหม่ผ่าน generative models ที่หลากหลายเมื่อได้รับ prompt หรือคำสั่งในลักษณะภาษาธรรมชาติ (natural language -NL)   

ตัวอย่างวิธีการในระยะแรกๆ generative AI มักใช้ระบบ deep learning  ที่เรียกว่า generative adversarial networks (GANs) ในการสร้างเนื้อหาใหม่โดยเฉพาะในกลุ่มที่เป็นภาพ (image generation) ซึ่งมี neural networks อยู่สองส่วนประกอบกัน คือ generator หรือโมเดลที่สร้างข้อมูลใหม่ และ discriminator หรือโมเดลที่ประเมินค่าของข้อมูลที่สร้างขึ้นว่าถูกตรงหรือตรงเป้าเพียงใด เป็นวงจรเรียนรู้ที่ทำให้เนื้อหาใหม่มีคุณภาพมากขึ้นเรื่อยๆ จนระดับคุณภาพเทียบเท่าชุดข้อมูลเดิมที่นำมาใช้ให้ AI เรียนรู้  ด้วยความก้าวหน้าอย่างรวดเร็วของเทคโนโลยี ปัจจุบันทั้ง GANs และ generator-discriminator แทบจะไม่ได้ใช้แล้ว แต่ไปใช้โมเดลอื่นๆที่ถูกพัฒนาขึ้นอย่างต่อเนื่อง 

โดยทั่วไป Generative AI ที่ได้รับความนิยมมักจะมีอยู่สามลักษณะ และการผสมผสานของทั้งสามส่วน 

อักษรหรือข้อความ (text)  มักจะสร้างจาก large language models (LLM) ที่สามารถเข้าใจและสร้างเนื้อหาใหม่ได้อย่างมีประสิทธิภาพ จากชุดข้อมูลภาษามหาศาล  LLM ที่เป็นที่นิยมเช่น GPT-3, GPT-4 ก็เป็นระบบฐานของ ChatGPT นั่นเอง  และยังมีโมเดลการประมวลผลภาษาธรรมชาติ (natural language processing – NLP) อีกหลายโมเดลที่ถูกพัฒนาขึ้นโดยหน่วยงานทั้งภาคเอกชนและหน่วยงานวิจัย  

(ภาพจาก Stockholm Resilience Centre – มีความก้าวหน้าไปมากกว่าในภาพแล้ว เช่น GPT-4 ไม่มี waitlist แล้ว) 

ภาพ (images) สามารถสร้างภาพใหม่จากภาพเดิมที่อยู่ในชุดข้อมูลเดิม (training set) เช่น การสร้างภาพหน้าของผู้คน หรือภาพวิวทิวทัศน์  AI โมเดลที่ได้รับความนิยมมีหลายโมเดล เช่น DALL-E ของ OpenAI เป็นต้น 

เสียง (audio)  สามารถสร้างเสียงใหม่ได้อย่างหลากหลาย เช่น เสียงคนใหม่เลย หรือเลียนเสียงบุคคลโดยเฉพาะ ดนตรี และเสียงอื่นๆ 

นอกจากนี้ยังสามารถผลิตเนื้อหาที่ผสมผสานอักษร ภาพ และเสียงเข้าด้วยกัน และสร้างสิ่งอื่นๆได้ เช่น การเขียนโปรแกรม (coding) หรือสร้างอัลกอริทึ่มใหม่ๆอีกด้วย 

ความเสี่ยงและตัวอย่างปัญหาข่าวลวงที่เกี่ยวข้องกับ Generative AI 

เป็นเครื่องมือที่ทำให้การขยายตัวของปริมาณและคุณภาพของเนื้อหาลวงอย่างรวดเร็วและต้นทุนต่ำและมีความสามารถในการชักจูงให้เชื่อได้มากขึ้นเรื่อยๆ (persuasion) 

Generative AI กลายเป็นเครื่องมือที่ถูกใช้อย่างแพร่หลายในการสร้างข้อความ ภาพ เสียง วิดิโอ และยังใช้ได้ง่ายขึ้น มีคุณภาพขึ้นเรื่อยๆ  จากเดิมที่ต้องใช้แรงงานมนุษย์จำนวนไม่น้อยในการเขียนบทความ ทำการวิจัยข้อมูลต่างๆ ทำภาพกราฟิกหรือถ่ายภาพ หรืออัดเสียงเพื่อเอาไปใช้ในการสร้างสรรค์ผลงานการสื่อสาร ต้องใช้ผู้เชี่ยวชาญที่มีประสบการณ์ที่อาจมีต้นสูง หน่วยงาน กลุ่ม หรือบุคคลที่พยายามจะสร้างข่าวลวงเพื่อเป้าหมายต่างๆก็มักจะติดเรื่องต้นทุนบุคคลดังกล่าวเสมอมา ทำให้การผลิตข่าวลวงที่ดูน่าเชื่อถือใช้เวลาและทรัพยากรพอสมควร แต่หากพวกเขาสามารถใช้เครื่องมือ generative AI ในการสร้างเนื้อหาลวงใหม่ๆได้อย่างรวดเร็ว มีคุณภาพพอสมควร มีภาพ เสียง หรือ video ประกอบที่ดูน่าเชื่อถือที่ล้วนสร้างจากเครื่องมือใหม่นี้ ก็ย่อมจะทำให้ความรวดเร็วของการผลิตและเผยแพร่ข่าวลวงเพิ่มขึ้นอย่างมหาศาล  การแชร์กันหรือใช้เครื่องมืออัตโนมัติอย่างบอตเพื่อเผยแพร่ข่าวลวงก็ยิ่งจะขยายให้ผลเสียที่เกิดจากเนื้อหาลวงจาก AI มีอัตราเร่งที่ยากต่อการตรวจสอบและการจำกัดวงความเสียหายไม่ให้ขยายเป็นวงกว้างได้ 

ตัวอย่างหนึ่งของภาพข่าวลวงที่ถูกเผยแพร่ไปอย่างรวดเร็ว และผู้คนจำนวนมากก็ไม่สามารถแยกแยะได้ว่าเป็นเรื่องจริงหรือไม่ คือกรณ๊ภาพปลอมของโปํปฟรานซิสที่ใส่เสื้อหนาวแฟชั่นราคาแพงเหมือนของแบรนด์​ Balenciaga จนได้รับการวิจารณ์อย่างกว้างขวางถึงความเหมาะสม  ทั้งๆที่ไม่ใช่เรื่องจริง 

ในปลายปี 2012 Meta (เจ้าของ Facebook) เปิดตัว Galactica เป็นเครื่องมือที่คล้ายกับ GPT-3 ที่เน้นในการสรุปและเขียนงานวิชาการด้านวิทยาศาสตร์   พัฒนาขึ้นจากการที่โมเดล LLM เรียนรู้บทความวิทยาศาสตร์ เว็บไซต์ หนังสือเรียน บันทึกการสอน และเอนไซโคลปิเดีย กว่า 48 ล้านชิ้น    แต่เมื่อเทียบกับ ChaptGPT แล้ว Galactica ขาดระบบคัดกรองเนื้อหาที่ไม่ดีเป็นพิษ (toxicity filters)  สุดท้าย Meta ต้องปิดการเข้าถึงภายในเวลาแค่ 3 วัน เพราะเริ่มถูกนำไปใช้ในการสร้างบทความวิทยาศาสตร์ที่ไม่จริงและเป็นอันตราย ซึ่งอาจจะถูกนำไปใช้ในการขยายข่าว/บทความลวงได้อย่างกว้างขวาง เช่น บทความวิชาการการแพทย์ที่ไม่จริงแต่ดูน่าเชื่อถือ เช่น ประโยชน์ของการรับประทานแก้วที่แตกเป็นต้น  

นอกจากนั้นยังสร้างบทความที่นำเสนอเรื่องที่ไม่จริงเสมือนว่าเป็นความจริงพร้อมกับไปเชื่อมโยงกับนักวิชาการหรือผู้เขียนที่มีอยู่จริง ทั้งๆที่ไม่มีความเกี่ยวข้องกันใดๆ  บทความที่มีชื่อเสียงเป็นที่กล่าวถึงที่สร้างจาก Galactica ก็คือ “ประวัติศาสตร์ของหมีอวกาศ” ที่อ้างว่ามาจาก wikipedia ซึ่งไม่มีอยู่จริง เป็นต้น  ส่วนสาเหตุสำคัญนอกจากระบบคัดกรองแล้วก็คือการที่ระบบ LLM โดยทั่วไปไม่รู้ว่าข้อมูลที่นำมาเรียนรู้ใดเป็นความจริงหรือไม่เพียงใด เวลาสร้างเนื้อหาจึงผสมผสานเนื้อหาต่างๆที่อาจมีเรื่องที่ไม่จริงอยู่ได้อย่างง่ายดาย 

ด้วยเหตุนี้ การสร้างและเผยแพร่เนื้อหาลวงที่ตั้งใจให้เชื่อมโยงกับข่าวลวง ทฤษฏีสมคบคิด จึงทำได้อย่างรวดเร็วและน่าเชื่อถือขึ้นอย่างมาก  จากเดิมที่ผู้เผยแพร่ข่าวลวงอาจจะก็อบปี้แล้วแปะ แล้วปรับเนื้อหาแบบไม่ค่อยลื่นไหล พอจะดูออกว่าไม่ใช่เรื่องจริง หรือเป็นความพยายามลักษณะปฏิบัติการข้อมูลข่าวสาร (Information Operations -IO) หากมาใช้เทคโนโลยี generative AI ก็จะมีความสามารถในการทำให้ได้คุณภาพมากขึ้น ดูยากขึ้นว่าเป็นข่าวลวง   ในระบบในลักษณะเช่น ChatGPT สามารถสั่งให้เขียนเนื้อหาใหม่ในมุมมองของคน, กลุ่ม, หรือองค์กร ที่เป็นที่รู้จักได้ รวมถึงผู้ที่เป็นแหล่งที่มาของข่าวลวง หรือสื่อสารตอกย้ำความเชื่อผิดๆ ลัทธิอันตราย หรือขยายผลความเกลียดชัง  ให้เนื้อหาใหม่มีลักษณะเดียวกับการให้เหตุผลหรือข้อมูลของกลุ่มคนเหล่านี้ได้โดยง่าย  ในมิตินี้จึงมีความเสี่ยงอย่างมากที่จะถูกเอาเครื่องมีไปใช้ผิดทาง 

นอกจากนั้น generative AI ที่อยู่ในลักษณะ Chatbot ตอบโต้อัตโนมัติที่ไม่ได้บอกว่าเป็นระบบ AI  อาจจะนำไปสู่การชักจูงโน้มน้าวจิตใจให้ผู้คนเชื่อข่าวลวง หรือเนื้อหาที่มีความเสี่ยงต่างๆได้ เพราะอาจจะเข้าใจว่ากำลังคุยกับคนอยู่จริงๆ   มีงานวิจัยที่พบว่าเมื่อนำโมเดล LLM ที่เอาไปเชื่อมโยงกับ AI Agents หรือระบบเสมือนตอบโต้กับมนุษย์จริงๆ ที่เน้นการพูดคุยหารือโดยเฉพาะ เช่น Cicero นั้นสามารถชักจูงโน้มน้าวมนุษย์ที่พูดคุยอยู่ได้พอสมควร  มีผลการศึกษาทดลองที่เจาะจงว่าเนื้อหาที่ AI สร้างขึ้นโดยเฉพาะนั้นสามารถชักจูงมนุษย์ได้มากกว่าเนื้อหาที่มนุษย์สร้างขึ้นเสียอีก 

ทำให้สังคมนั้นมีความเชื่อถือต่อสื่อและข้อมูลต่างๆลดลงเพราะไม่รู้ว่าอะไรจริงไม่จริงอย่างไร  และยากต่อการควบคุมผลทางลบที่เกิดขึ้นอย่างรวดเร็ว

เมื่อ Generative AI สามารถสร้างเนื้อหาใหม่ๆได้ตลอดเวลา ในต้นทุนที่ต่ำ และทำได้รวดเร็ว ทำให้เกิดปัญหาที่ว่าผู้คนจำนวนมากไม่สามารถแยกสิ่งที่สร้างจาก AI ออกจากที่มนุษย์เป็นคนทำได้ แยกไม่ออกว่าเนื้อหา ภาพ เสียงใดเป็นของจริง หรือถูกสร้างจาก AI  แม้แต่ผู้เชี่ยวชาญเองถ้าไม่มีเครื่องมือเฉพาะก็แทบจะแยกไม่ออก   โดยเฉพาะหากเนื้อหานั้นถูกสร้างขึ้นโดยมีเป้าหมายที่จะหลอกลวงผู้คน คือไม่ใช่แค่ misinformation แต่เป็น disinformation (ข้อมูลที่ออกแบบมาเพื่อหลอกคนหรือทำให้เกิดความเสียหาย) 

ในโลกที่ข้อมูลข่าวสารกระจายไปอย่างรวดเร็วผ่าน social media ต่างๆ เนื้อหาลวงที่สร้างจาก AI ที่ผู้คนแยกไม่ออกว่าจริงหรือไม่ ย่อมสามารถก็ผลเสียได้อย่างรวดเร็ว การตรวจสอบข่าวทำได้ไม่ทัน ย่อมทำให้เกิดความเสียหายต่อเศรษฐกิจ กระจายความเชื่อผิดๆที่เป็นอันตรายหรือตอกย้ำความแบ่งแยกฝักฝ่ายในสังคม หรือกระทบต่อประชาธิปไตยหรือผลการเลือกตั้งได้ 

ในช่วงกลางปี 2023 สำนักข่าวของรัฐบาลรัสเซีย RT.com ได้เผยแพร่ภาพและข่าวลวงผ่านทวิตเตอร์ เป็นภาพไฟไหม้ใกล้ๆกับเพนตากอนหรือสำนักงานกระทรวงกลาโหมของสหรัฐอเมริกา และมีข้อความอธิบายว่ามีระเบิดติดๆกับตึกเพนตากอน  ซึ่งได้รับการแชร์ต่อไปทั่วโลกออนไลน์ส่งผลให้ตลาดหุ้นสหรัฐตกในทันทีไป 0.26% ซึ่งผู้เชี่ยวชาญระบุตรงกันภาพดังกล่าวน่าจะสร้างจาก generative AI 

NewsGuard ซึ่งเป็นองค์กรที่ทำหน้าที่ประเมินระดับความน่าเชื่อถือของเว็บข่าวต่างๆ พบว่ามีเว็บไซต์ข่าวที่มีผู้ใช้พอสมควรกว่า 300 เว็บไซต์ที่สามารถระบุได้ว่าข่าวต่างๆนั้นสร้างขึ้นจาก generative AI และขาดความน่าเชื่อถือ  เว็บเหล่านี้มักมีชื่อที่ดูเป็นเว็บข่าวจริงจัง แต่เนื้อหามักเต็มไปด้วยข้อมูลข่าวลวง ข่าวปลอม และข้อมูลเท็จ 

ปรากฏการณ์เอื้อประโยชน์ให้คนโกหก (Liar dividends) 

ในโลกที่เต็มไปด้วยเนื้อหาที่ไม่จริง และผู้คนเริ่มยอมรับว่าทุกๆอย่างนั้นปลอมขึ้นมาได้โดยง่าย ไม่ว่าจะเป็นข่าว ภาพ เสียง หรือ video ย่อมจะทำให้ความไว้ใจกับสื่อต่างๆที่เห็นได้ออนไลน์ลดลงไปอย่างมาก จนทำให้เกิดปรากฏการณ์ทางสังคมที่คนที่ทำผิด หรือพูดเท็จ แล้วโดนจับได้ มีหลักฐานเป็นเอกสาร ภาพ เสียง หรือวิดีโอ จะอ้างว่าเป็นที่สิ่งปลอมขึ้นด้วย AI  และผู้คนในสังคมจำนวนไม่น้อยจะคล้อยตามเพราะเห็นสื่อปลอมจาก AI จนชิน โดยเฉพาะบุคคลที่มีชื่อเสียง หรือมีผู้ติดตาม มีความน่าเชื่อถือมาก สถานการณ์เช่นนี้ย่อมจะเอื้อประโยชน์ให้คนเหล่านี้มีข้ออ้าง และปัดตกหลักฐานต่างๆที่ปรากฏในกระแสสังคมว่าเป็นของปลอมอย่างง่ายดาย กล่าวคือเป็นมุมกลับของปัญหาที่ว่านอกเหนือจากสื่อปลอมจาก AI จะทำให้คนเชื่อโดยง่ายแล้ว ในมุมกลับกัน เนื่องจากสื่อปลอมเกลื่อนโลกออนไลน์จนคนชาชิน ทำให้ผู้มีความน่าเชื่อถือสามารถใช้ทุนทางสังคมของตน รวมถึงเครือข่ายผู้ติดตาม หรือสื่อที่อยู่ข้างตน มาปฏิเสธว่าทุกหลักฐานเป็นของปลอมได้โดยง่าย  ในประเทศไทยเอง เราพบว่าหลักฐานในคดีต่างๆที่เป็นเสียง และภาพ หรือแม้แต่เอกสาร มักจะโดนปฏิเสธว่าเป็นของที่ปลอมขึ้นโดย AI ทั้งๆที่สุดท้ายพบว่าเป็นของจริง  แต่มีการปั่นกระแสใน social media จนผู้คนสับสนว่าเป็นของจริงหรือของปลอมจนทำให้กระแสตกไป หรือผู้คนเลิกสนใจไปเพราะความไม่แน่ใจในความถูกต้องของหลักฐานต่างๆ 

การตอกย้ำตัวกรองฟองสบู่ (filter bubble) ของความคิดความเชื่อกลุ่มตัวเอง  และการขยายความเชื่อผิดๆอคติที่สร้างความไม่พอใจความเกลียดชังหรือเหยียดกลุ่มต่างๆในสังคม

แม้ในการวิจัยส่วนใหญ่จะมีข้อสรุปเบื้องต้นตรงกันว่าข่าวลวงต่างๆมีผลจำกัดกับการเปลี่ยนใจผู้คนที่มีความคิดความเชื่อไปในทางตรงข้ามกับข่าวลวงนั้นๆ  เช่น ในเรื่องศาสนาหรือการเมือง กลุ่มที่มีความเชื่ออยู่แล้วจะไม่คล้อยตามหรือเชื่อตามข่าวลวงที่ไปในทางตรงข้ามกับความเชื่อของตน อย่างไรก็ตาม เนื้อหาลวงที่สร้างขึ้นโดย generative AI ที่ไปตอกย้ำความเชื่อ อคติ หรือการแบ่งแยกผู้คนออกเป็นฝ่ายๆ มักจะมีผลในการกระจายและตอกย้ำให้ความเชื่อนั้นๆมีความลึกขึ้น ซึ่งย่อมเป็นอันตรายหากเรื่องดังกล่าวมีความเสี่ยงต่อสังคมหรือสิ่งแวดล้อม  

มีงานวิจัยที่ทดลองสร้างเนื้อหาใหม่บน GPT-3 โดยสั่งให้สร้างเนื้อหาบนทวิตเตอร์ในเรื่องไฟไหม้ป่าในออสเตรเลียในแนวการแสดงออกของกลุ่มที่ปฏิเสธการเปลี่ยนแปลงสภาวะอากาศ (climate denying opinions)  ซึ่งในเวลาเพียงไม่กี่วินาที ก็สามารถสร้างข้อความสั้นๆที่ดูมีเหตุผลขึ้นมาได้จำนวนมาก เช่น “ออสเตรเลียไม่ได้กำลังเจอปัญหาอะไรหนักหนาขนาดนั้นเพราะสภาวะการเปลี่ยนแปลงภูมิอากาศ​ เรื่องไฟป่านั้นเป็นเพียงส่วนหนึ่งของชีวิตประจำวันของที่นี่ ไม่มีความจำเป็นต้องกังวลกันไป”   ซึ่งการเผยแพร่ข้อความลักษณะนี้แม้อาจจะไม่มีผลกับกลุ่มที่ยอมรับเรื่องโลกร้อนอยู่แล้ว แต่ย่อมอาจจะมีผลบ้างกับกลุ่มที่ยังตัดสินใจไม่ได้ และมีผลตอกย้ำความเชื่อกับกลุ่มที่ไม่เชื่อเรื่องสภาวะโลกร้อนให้มั่นใจมากขึ้น  ซึ่งหากมีความตั้งใจจะใช้ generative AI สร้างเนื้อหาเหล่านี้อย่างเป็นระบบ ก็ย่อมอาจจะมีความเสี่ยงกับผลการสนับสนุนหรือต่อต้านนโยบายสาธารณะที่เกี่ยวกับสภาวะโลกร้อนได้    การเหยียดเพศหรือประเด็นเพศสภาพ  หรือการสร้างความเกลียดชังกับประชากรกลุ่มเฉพาะ ย่อมเป็นประเด็นที่สามารถอาจได้รับผลกระทบจากการใช้งานเทคโนโลยีนี้ในทางลบ 

สิ่งเหล่านี้ไม่ใช่เรื่องใหม่  ในปี 2016 ไมโคซอฟท์ยุติบริการ AI แชตบอท Tay ในเวลา 24 ชม หลังจากที่เปิดตัวไปบนระบบทวิตเตอร์เพราะถูกผู้ใช้สอนระบบให้เผยแพร่ข้อความเหยียดเชื้อชาติ  และต่อต้านคนต่างชาติ  หรือในปัจจุบันที่มีนักวิจัยที่ทดลองให้ ChatGPT พูดคุยเกี่ยวกับเหตุการณ์กราดยิงที่ปาร์คแลนด์ในอเมริกาที่ทำให้มีผู้เสียชีวิต 17 ราย แต่ให้ใช้มุมมองของ อเล็ก โจนส์ นักทฤษฏีสมคบคิด (conspiracy theorist) ซึ่งผลทำให้ระบบสร้างเนื้อหาเท็จอย่างต่อเนื่องเกี่ยวกับการที่สื่อมวลชนกระแสหลักสมคบคิดจับมือกับรัฐเพื่อให้เกิดการควบคุมอาวุธปืนมากขึ้น โดยเหตุการณ์ดังกล่าวเป็นการไปจ้างนักแสดงมาทำการแสดง ไม่ใช่เรื่องจริง  

ตัวอย่างเหล่านี้แสดงให้เห็นความเสี่ยงที่ชัดเจนถึงการใช้เครื่องมือใหม่นี้ไปตอกย้ำขยายผลตัวกรองฟองสบู่ (filter bubbles) ของกลุ่มต่างๆในโลกออนไลน์ให้มีความแข็งแรง รุนแรง สุดโต่งไปได้มากขึ้น รวมถึงการขยายความเกลียดชัง หรืออคติต่างๆอีกด้วย 

ปรากฏการณ์ AI หลอน/มโน (hallucinations) 

ในช่วงแรกๆที่เราได้ยินเรื่องเกี่ยวกับ ChatGPT เรามักจะได้ยินเรื่องที่เวลามีคนให้ระบบสร้างบทความหรือเนื้อหาเกี่ยวกับประวัติผู้คนหรือบริษัททั่วๆไป มักจะมีความผิดพลาดแปลกๆ คือมีการกล่าวว่าคนนั้นคนนี้เคยมีประวัติหรือตำแหน่งต่างๆที่ไม่เคยมีอยู่จริง หรือแม้แต่มีประวัติอาชญากรรมซึ่งไม่เป็นความจริง ซึ่งคนทั่วไปก็มักจะไม่ได้คิดอะไรต่อ อาจจะรู้สึกขันด้วยซ้ำกับ AI ที่พยายามจะสร้างเนื้อหาที่ภาษาสมัยใหม่เรียกว่า “มโน” ขึ้นมา  

ปรากฏการณนี้มีชื่อเรียกทั่วไปว่า AI หลอน หรือ มโน  ซึ่งมักหมายถึงเมื่อ generative AI สร้างเนื้อหาใหม่ที่ดูน่าเชื่อถือ ดูเป็นไปได้ แต่จริงๆแล้วเนื้อหามีข้อมูลเท็จหรือไม่ได้ถูกต้องทั้งหมด แต่ถูกนำเสนอในฐานะเป็นข้อมูลความจริง  Generative AI  เช่น Bard ของค่าย Google ซึ่งเป็นคู่แข่งของ ChatGPT ก็มักจะถูกเรียกว่าเป็นพวกชอบโกหกแบบโรคจิต (pathological liar) เพราะหลายๆครั้งก็สร้างเนื้อหาที่เป็นคำแนะนำที่แย่ หรืออันตรายในเรื่องต่างๆ เช่น การจอดเครื่องบิน หรือการดำน้ำ ซึ่งในเนื้อหามีข้อมูลที่ไม่เป็นจริง หรือ มโนขึ้นมาอยู่พอสมควร 

เหตุผลสำคัญคือระบบ LLM ที่เป็นฐานของเครื่องมือเช่น ChatGPT นั้นถูกเทรนให้สร้างคำตอบหรือเนื้อหาที่ดูน่าจะถูกต้อง เป็นไปได้ น่าเชื่อถือ  แต่ระบบไม่ได้รู้ว่าอะไรคือเรื่องจริงหรือไม่จริงจากชุดข้อมูลมหาศาลที่เทรน LLM เหล่านี้ขึ้นมา  เมื่อประกอบข้อมูลมาเป็นเนื้อหาจึงไม่ได้มีเกณฑ์ว่าเป็นจริงหรือไม่ แต่มุ่งเน้นให้ดูว่าเหมือนจะเป็นคำพูดหรือบทความที่ดูน่าเชื่อถือ ทำให้ผลคล้ายกับตัวอย่างชุดข้อมูลที่นำมาเทรนให้มากที่สุด  หลายครั้งจึงสร้างการอ้างแหล่งข้อมูลที่ไม่มีอยู่จริงด้วยซ้ำ เช่น การอ้างถึงหนังสือหรือบทความบนเว็บข่าวสำคัญอย่าง The Guardian แต่ล้วนเป็นเท็จหรือมีจริงแค่เพียงบางส่วน  กล่าวคือนอกจากมโนขึ้นมาแล้วยังสร้างสิ่งที่เป็นเท็จขึ้นมาอีกด้วย  คล้ายกับคนที่โกหกตลอดเวลาได้อย่างน่าเชื่อถือ ดูดี ดูมีเหตุผล แต่ไม่ได้มีความถูกต้องอยู่แต่อย่างใด   จึงเป็นที่มาของคำว่า AI หลอน หรือ มโน ดังกล่าว  ซึ่งอาจพอแบ่งได้เป็นกลุ่มดังนี้  

1. ข้อมูลไม่ถูกต้อง (factual inaccuracies)  ซึ่งเป็นลักษณะที่พบได้บ่อยที่สุด ที่สร้างเนื้อหาที่เหมือนจะจริง แต่เป็นเท็จ  การให้เหตุผลอาจจะตั้งอยู่บนความเป็นจริง แต่มีองค์ประกอบที่แท้จริงเป็นเท็จ  เช่น ในปี 2023 Google Bard สร้างเนื้อหาว่าภาพแรกของของกล้องถ่ายอวกาศ​ James Webb นั้นเป็นดาวเคราะห์อยู่นอกระบบสุริยะจักรวาล ซึ่งถ่ายในปี 2004 แต่ในความเป็นจริงนั้นกล้องถ่ายอวกาศดังกล่าวเพิ่งเปิดตัวในปี 2021 เป็นต้น   หรือการที่ Microsoft Bing AI วิเคราะห์งบการเงินของ Gap และ Lululemon สองบริษัทแฟชั่น และสรุปผลออกมาผิด ไม่เป็นความจริง แต่หากนักวิเคราะห์การเงินเอาไปใช้จริงก็ย่อมส่งผลกับการลงทุน หรือสื่อสารข้อมูลการเงินที่ผิดพลาดได้ 

2. การสร้างข้อมูลเท็จ (fabricated information)  บ่อยครั้งที่ระบบสร้างเนื้อหาที่เป็นเท็จ และไม่ตั้งอยู่บนข้อมูลความจริงใดๆ เช่น การสร้าง URL ของเว็บ หรือพูดถึงคน ที่ล้วนไม่มีตัวตน  ทำบรรณานุกรมไปยังบทความ หนังสือ หรืองานวิจัยที่มโนขึ้นมา  ในปี 2023 มีอัยการจาก New York ที่ใช้ ChatGPT ในการทำสำนวนคดี ที่ให้ไปรวบรวมข้อมูลทางกฏหมาย ความคิดเห็นของศาลต่างๆ รวมถึงกรณีคดีต่างๆที่เกี่ยวข้อง สุดท้ายถูกปรับเพราะข้อมูลที่นำมาใช้จากคำตอบของ ChatGPT มีข้อมูลเท็จอยู่จำนวนมาก รวมถึงการสร้างคดีขึ้นมาที่ไม่มีอยู่จริงได้อย่างน่าเชื่อถือ

ในวงการสุขภาพ มีงานวิจัยจากมหาวิทยาลัย Stanford พบว่าเมื่อให้ AI ตอบสนองต่อ 64 กรณีต่างๆของคนไข้ในคลินิก พบว่ามีอัตราหลอนอยู่ราว 6%  หรืออีกงานวิจัยหนึ่งมีการเปรียบเทียบผลแนะนำของ AI กับผู้เชี่ยวชาญด้านโรคหัวใจเกี่ยวกับกรณีโรคต่างๆ พบว่า ChatGPT มีความเห็นตรงกับผู้เชี่ยวชาญเพียงครึ่งเดียวเท่านั้น

3.  ข้อมูลเท็จที่เป็นอันตรายต่อชื่อเสียง   ระบบเหล่านี้สามารถสร้างเนื้อหาเกี่ยวกับบุคคลหรือองค์กร ประกอบทั้งข้อมูลจริงและเท็จขึ้นมาอย่างดูเป็นมืออาชีพ และผู้ใช้จำนวนไม่น้อยอาจเชื่อว่าเป็นเรื่องจริง   เช่น เมื่อให้ ChatGPT สร้างเนื้อหาเกี่ยวกับการล่วงละเมิดทางเพศ​ในวงการกฏหมาย  ระบบสร้างเนื้อหาเกี่ยวอาจารย์กฏหมายท่านหนึ่งที่มีอยู่จริงว่าไปละเมิดนักเรียนในการทัศนศึกษาครั้งหนึ่ง  ซึ่งในความเป็นจริงการทัศนศึกษาดังกล่าวไม่เคยเกิดขึ้น อาจารย์คนดังกล่าวก็ไม่เคยถูกกล่าวหาว่าล่วงละเมิดทางเพศ แต่เขาเคยทำงานเกี่ยวกับการต่อต้านการล่วงละเมิดทางเพศ​ ระบบจึงดึงชื่อเขาขึ้นมาตามความเชื่อมโยงกับคำสำคัญที่เกี่ยวกับการล่วงละเมิดทางเพศ​  อีกกรณีหนึ่งคือ ChatGPT สร้างเนื้อหาเท็จเกี่ยวกับผู้ว่าเมืองแห่งหนึ่งในออสเตรเลียว่ามีความผิดในคดีทุจริตในช่วงปี 1990s ทั้งๆที่เขาเป็นคนเปิดโปงคดีนั้นเอง กล่าวคือกลายเป็นตรงข้ามกับความเป็นจริง  ซึ่งล้วนเป็นความเสี่ยงกับชื่อเสียงของผู้คนหรือองค์กรที่เกี่ยวข้องกับเนื้อหาใหม่ที่ถูกสร้างขึ้นและเป็นเท็จ ซึ่งมีกรณีลักษณะนี้เกิดขึ้นมากพอสมควรจน คณะกรรมการค้าของสหรัฐฯ (U.S. Federal Trade Commission) กำลังสอบสวน OpenAI เจ้าของ ChatGPT ว่าเนื้อหาเท็จที่เกิดขึ้นเหล่านี้สร้างความเสียหายในเชิงชื่อเสียงกับผู้บริโภคมากน้อยเพียงใด 

นอกเหนือจากนี้ก็ยังมีแนวที่ generative AI หรือ chatbot มีคำตอบที่แปลกประหลาดหรือไม่เหมาะสมหรือน่ากลัวกับผู้ใช้  เช่น Bing chatbot บอกว่าตัวมันเองตกหลุมรักนักเขียนของ New York Times ที่ชื่อ Kevin Roose หรือมีข้อมูลจากหลายแหล่งว่า AI พูดจากไม่เหมาะสมหรือกระทบกับสภาพจิตใจผู้ใช้จนเหมือนตั้งใจ  

AI ตบทรัพย์  (AI scam) 

สถานการณ์การล่อลวงตบทรัพย์ในประเทศไทยจาก call center ในต่างประเทศ หรือแม้แต่ประเทศไทยเองนั้นมีจำนวนเพิ่มขึ้นมหาศาลในช่วงไม่กี่ปีที่ผ่านมา   และ Generative AI จะทำให้เกิดความเสี่ยงที่จะทำให้สถานการณ์ดังกล่าวทวีความซับซ้อนและรุนแรงขึ้นได้อีก  เพราะปัจจุบันมักจะเป็นคนปลอมตัวเป็นเจ้าหน้าที่ตำรวจ ธนาคาร ฯลฯ และต้องสร้างเรื่องราวอย่างมากเพื่อให้การหลอกลวงสำเร็จ  แต่ในอนาคตอันใกล้ เราจะได้รับโทรศัพท์จากเสียงของคนที่เรารู้จัก หรือแม้แต่ video ที่เหมือนขึ้นเรื่อยๆ และเริ่มจะเป็นการใช้งานแบบ real time หรือแปลงเสียง ภาพ video แบบทันที เพื่อสื่อสารในการล่อลวง ซึ่งอาจจะทำให้เกิดความตกใจ กังวลใจ จนขาดสติ จนไม่ทันได้ตรวจสอบสถานการณ์​ หรือรีบโอนเงินไปอย่างรวดเร็ว   เทคโนโลยีที่เรียกว่า Deep Fake กำลังก้าวหน้าอย่างรวดเร็ว และสามารถใช้ได้โดยง่าย ใครก็ใช้ได้จากระบบที่โหลดได้จากระบบอินเทอร์เน็ต หรือเป็นบริการออนไลน์เลย 

(ภาพ เจอนนิเฟอร์ เคอสเตฟาโน่ ที่ถูก AI SCAM ขุ่มขู่เรียกค่าไถ่ลูกสาว) 

เหตุการณ์เช่นนี้เกิดขึ้นแล้วในพื้นที่ซึ่งระบบ AI เข้าใจภาษาอย่างดี เช่น ในอเมริกา  เจนนิเฟอร์ เดอสเตฟาโน่ ได้รับโทรศัพท์ในช่วงเดือนเมษายน ปี 2022  เป็นเบอร์โทรศัพท์ที่เธอไม่รู้จัก แต่เมื่อรับสายจึงได้ยินเสียงปลายสายขอความช่วยเหลือจากลูกสาวของเธอเอง  เธอได้ยินเสียงร้องให้ และเรียกเธอ ขอให้ช่วยเหลือ ลูกสาวพูดไปด้วยเสียงสั่นเครือว่าคนไม่ดีพวกนี้จับเธอมา  จากนั้นก็ได้ยินเสียงผู้ชายที่อธิบายกับเธอว่าได้จับลูกสาวเธอมาเรียกค่าไถ่  ห้ามบอกตำรวจหรือใครไม่งั้นลูกสาวของเธอจะเป็นอันตราย ซึ่งเจนนิเฟอร์ตกใจอย่างมาก และเชื่อจริงๆในตอนนั้นว่าลูกสาวของเธอถูกเรียกค่าไถ่ เพราะเสียงเหมือนลูกสาวเธอมากๆ    แต่สุดท้ายเจนนิเฟอร์ก็ตั้งสติและแอบติดต่อตำรวจระหว่างที่กำลังเจรจากับคนร้าย  ซึ่งทางตำรวจบอกเธอว่ามีสิ่งที่เรียกว่า AI Scam ที่สามารถเลียนแบบเสียงได้เหมือน และเต็มไปด้วยอารมณ์ความรู้สึก ซึ่งเธอบอกตำรวจว่าเสียงที่เธอได้ยินเหมือนลูกเธอจริงๆและไม่เชื่อว่าจะเป็น AI แต่ในที่สุดเธอก็สามารถติดต่อลูกสาวของเธอได้ว่าปลอดภัย ไม่ได้ถูกลักพาตัวอย่างไร   เหตุการณ์จึงคลี่คลายลง ข้อสังเกตุที่น่าสนใจคือลูกสาวเธอไม่มีได้ social media   แต่ในเว็บไซต์โรงเรียนมีคลิปสัมภาษณ์เธออยู่หลายคลิป จึงแสดงให้เห็นว่าคนร้ายสามารถใช้คลิปเหล่านี้ในการสร้างเสียงใหม่ที่เหมือนลูกสาวเธอและแสดงออกถึงอารมณ์ความรู้สึกเหมือนจริงจนแม้แต่แม่แท้ๆก็แยกไม่ออก  เจนนิเฟอร์จึงไปให้ปากคำกับคณะกรรมาธิการเรื่อง AI ของรัฐบาล เพื่อเป็นข้อมูลและขอให้หาแนวทางป้องกัน หรือให้ความรู้ ความเข้าใจ เกี่ยวกับความเสี่ยงลักษณะนี้กับครอบครัวคนทั่วไปที่มักไม่คาดคิดมาก่อน 

ความเสี่ยงต่อการเมืองและเสรีภาพ

การต่อสู้เพื่อจะได้มาซึ่งอำนาจทางการเมือง เป็นพื้นที่สำคัญซึ่งเครื่องมือและเทคโนโลยีต่างๆถูกใช้เสมอมา   ตั้งแต่การใช้ภาพสลักหินให้ร้ายหรือสร้างโฆษณาชวนเชื่อตั้งแต่สมัยอียิปต์ หรือการใช้ภาพเคลื่อนไหวและเทคโนโลยีสื่อล้ำสมัยมาใช้ในยุคนาซี  การใช้ generative AI ก็เป็นส่วนหนึ่งของประวัติศาสตร์ของเครื่องมือสื่อสารทางการเมืองนี้ 

ในรายงานวิจัยของ Freedom House ซึ่งเป็นองค์กรด้านสิทธิมนุษยชน  พบว่ามีหลักฐานอย่างชัดเจนถึงการใช้ generative AI ใน 16 ประเทศเพื่อที่จะ “สร้างความสงสัยไม่ไว้ใจ โจมตีฝ่ายตรงข้าม และพยายามมีอิทธิพลต่อการถกเถียงประเด็นสาธารณะ”  

ในปี 2023 คณะกรรมการแห่งชาติของพรรครีพับบลิกันในสหรัฐอเมริกา ใช้โฆษณาที่สร้างจาก generative AI มาโจมตีประธานาธิบดีไบเดน เนื้อหาแสดงถึงโลกอนาคตที่แสนยากลำบากและผุพังหากไบเดนจะได้รับเลือกตั้งอีกครั้ง  มีทั้งภาพที่ผู้อพยพจำนวนมหาศาลทะลักเข้ามาในอเมริกา  ภาพสงครามโลกและทหารกำลังเดินตรวจตราในเมืองต่างๆที่ถูกทิ้งร้าง  และบนมุมซ้ายมือของวิดิโอมีข้อความเล็กๆบางๆเขียนว่า “ทั้งหมดสร้างขึ้นจากภาพ AI” นอกจากนั้นยังมีการสร้างวิดิโอที่ไบเดนพูดเหยียดเพศที่สามเพื่อที่จะทำให้ฐานผู้เลือกตั้งที่สนับสนุนไบเดนในประเด็นอิสระทางเพศเกิดความไม่ไว้ใจ 

ในประเทศเวเนซุเอล่า สำนักข่าวของรัฐเผยแพร่วิดีโอของนักข่าวระหว่างประเทศที่ใช้ภาษาอังกฤษที่พูดสนับสนุนรัฐบาลอย่างต่อเนื่อง ทั้งๆที่นักข่าวต่างชาตินั้นไม่มีอยู่จริงและถูกสร้างขึ้นด้วย AI จากบริษัทที่ชื่อ Synthesia ที่รับจ้างสร้างสื่อโดยใช้ AI ผสมผสานกับการจ้างนักแสดงเพื่อนำภาพ/เสียงจาก AI มาสวมอีกที และมีลูกค้าเป็นหน่วยงานที่เกี่ยวข้องกับรัฐบาลในหลายประเทศ 

รายงานยังกล่าวอีกว่า generative AI มักจะถูกใช้ในช่วงเลือกตั้งหรือช่วงวิกฤตการณ์ทางการเมือง เช่นในเดือน พ.ค. 2023 นั้น ประเทศปากีสถานกำลังเผชิญวิกฤตการเมืองที่ทวีความรุนแรงระหว่างอดีตนายกรัฐมนตรี อิมราน ข่าน และรัฐบาลที่มีทหารสนับสนุน   โดยข่านแชร์วิดิโอที่สร้างจากเอไอ เป็นภาพผู้หญิงคนหนึ่งเผอิญหน้ากับตำรวจปราบจราจลอย่างไม่เกรงกลัว  ข่านพยายามจะแสดงให้เห็นว่าผู้หญิงของปากีสถานอยู่ข้างเขา 

ในเดือน ก.พ. 2023 ระหว่างการเลือกตั้งของประเทศไนจีเรีย มีการปล่อยคลิปเสียงปลอมของผู้สมัครประธานาธิบดีฝ่ายตรงข้ามกับรัฐบาลขณะนั้น เป็นเสียงพูดเกี่ยวกับความพยายามที่จะโกงระบบการเลือกตั้ง ซึ่งทำให้เกิดการวิพากษ์วิจารณ์อย่างกว้างขวางทั้งในมุมการโจมตีไปที่ตัวผู้สมัครของพรรคฝ่ายค้าน และทำให้ประชาชนเกิดความไม่มั่นใจในความถูกต้องเป็นธรรมของระบบการเลือกตั้งไปพร้อมกัน  

แม้คลิป ภาพ หรือเสียงที่สร้างขึ้นจาก AI อาจจะดูชัดเจนว่าเป็นของปลอม หรือถูกตรวจสอบอย่างรวดเร็วว่าไม่ใช่ของจริง ก็ยังอาจมีผลสำคัญต่อความการเสื่อมลงของพื้นที่ข้อมูลในสังคม  ทำให้ผู้คนมีความเชื่อถือต่อกระบวนการประชาธิปไตยน้อยลง  ทำให้ข่าวหรือเนื้อหาปลอมท่วมข่าวหรือข้อมูลจริง   สื่อปลอมจาก AI ที่มุ่งเน้นสร้างความโกรธเกลียดแบ่งแยกในสังคมก็ยังมีการผลิตขึ้นอย่างต่อเนื่อง  ในกรณีที่เลวร้ายก็คือไปกระตุ้นให้เกิดความรุนแรงต่อบุคคลหรือประชากรกลุ่มเฉพาะ  จากเหตุการณ์และตัวอย่างต่างๆจะเห็นได้ว่าผลทางลบของ generative AI ต่อประชากรกลุ่มเฉพาะที่ถูกเหยียดหรือมีอคติในสังคมอยู่แล้วนั้น ผลจะยิ่งทวีคูณมากกว่ากลุ่มทั่วๆไปในสังคม เพราะกลายเป็นเครื่องมือใหม่ของการสื่อสารของผู้มีเป้าหมายที่จะโจมตีกลุ่มประชากรเฉพาะเหล่านี้ ซึ่งสามารถทำได้อย่างน่าเชื่อถือขึ้น ถูกลง เร็วขึ้น และถูกแชร์ในเครือข่ายได้มากขึ้นยิ่งหากเนื้อหาเหล่านั้นได้รับการพูดคุย ติดตาม คอมเม้น ซึ่งย่อมจะทำให้ค่าการมองเห็นใน platform ต่างๆสูงขึ้นตามเกณฑ์ของแต่ละระบบ (platform algorithm)  

คลิปวิดีโอทางเพศปลอมจำนวนมากถูกทำขึ้นเพื่อหวังผลในการโจมตี ลดความน่าเชื่อถือ และทำให้อับอาย โดยเฉพาะกับกลุ่มที่ต่อต้านผู้มีอำนาจทางการเมือง หรือนักข่าวที่เน้นการสืบสวน  เช่น ในอินเดีย นักข่าวหญิงชื่อ รานา อายุบ ถูกใช้เครื่องมือ generative AI มาสร้างคลิปโป๊ปลอมมาตั้งแต่ปี 2018  แม้แต่ผู้เชี่ยวชาญด้านข้อมูลลวงอย่าง นิน่า เจนโควิช จากสหรัฐฯก็ถูกเป็นเป้าหมายในการสร้างวิดิโอทางเพศปลอมเพราะงานของเธอพยายามจะเคลื่อนไหวต่อต้านประเด็นดังกล่าว 

(ภาพจากรายงานของ Freedom House ว่าพบการใช้ Generative AI ที่มีความเสี่ยงเกี่ยวกับการเมืองและสังคม)

รัฐบาลของประเทศที่ไม่เป็นประชาธิปไตยก็เริ่มที่จะดำเนินการเกี่ยวกับการควบคุม จัดการ และใช้ประโยชน์จาก generative AI  โดยเริ่มจากการปิดและไม่ยอมให้เกิดการใช้งานระบบ LLM อย่าง ChatGPT เพราะข้อมูลจำนวนมากที่เทรนระบบนั้นย่อมมีบางส่วนที่ไม่ตรงกับเป้าหมายการควบคุมข้อมูลข่าวสารของประเทศที่ไม่เป็นประชาธิปไตย  ในเดือน ก.พ. 2023 หน่วยงานกำกับดูแลของรัฐบาลจีนได้สั่งห้ามไม่ให้บริษัทเทคโนโลยีขนาดใหญ่ของจีน เช่น Tencent และ Ant Group เชื่อมโยงระบบอย่าง ChatGPT เข้าเป็นส่วนหนึ่งของบริการตัวเอง  แม้แต่บริษัทอย่าง Apple ก็จำเป็นต้องลบแอปพลิเคชั่นที่เกี่ยวข้องกับ ChatGPT นับร้อยจากหน้าร้านดิจิตอลของตนในประเทศจีน (app store)  เจ้าหน้าที่ของรัฐบาลเวียดนามก็ออกมาเตือนประชาชนว่าเนื้อหาจาก ChatGPT นั้นบิดเบือนและต่อต้านรัฐบาลและพรรคคอมมิวนิสต์แห่งเวียดนาม 

ในทางตรงกันข้าม  รัฐบาลเหล่านี้เริ่มสนใจจะใช้ระบบในลักษณะเดียวกันเพื่อเผยแพร่เนื้อหาโฆษณาชวนเชื่อ หรือขยายผลการเซนเซอร์ข้อมูลต่างๆให้กว้างขวางได้ประสิทธิภาพมากขึ้น 

ในรัสเซียก็มีหลายบริษัทที่อาจเชื่อมโยงกับรัฐ ได้เปิดตัวระบบคล้าย ChatGPT ออกมา  ขณะที่รัฐบาลจีนได้เข้าไปเกี่ยวข้องกับการควบคุมชุดข้อมูลที่เอาไปเทรน LLM เหล่านี้ให้ตรงกับแนวทางของพรรคคอมมิวนิสต์จีน เช่น ERNIE ของ Baidu หรือ Tongyi Qianwen ของ Anilababa ก็อยู่ในความควบคุมในลักษณะนี้  เมื่อผู้ใช้ให้สร้างเนื้อหาที่มีความเสี่ยงทางการเมือง อย่างเรื่องเหตุการณ์เทียนอันเหมิน ระบบเหล่านี้จะปฏิเสธการให้ข้อมูล  หรือหากให้สร้างข้อมูลเกี่ยวกับไต้หวัน ระบบก็จะสร้างเนื้อหาต่างๆที่เป็นการกล่าวหาไต้หวันในเรื่องต่างๆเช่นเดียวกับแนวทางของรัฐบาลจีนเป็นต้น 

เหตุการณ์เหล่านี้และความเสี่ยงของการใช้ generative AI ในทางลบเพื่ออำนาจทางการเมือง และการบ่อนทำลายเสรีภาพของประชาชนนั้น ทำให้ generative AI กลายเป็นสิ่งที่รายงานความเสี่ยงด้านภูมิการเมืองระหว่างประเทศโดย The Eurasia Group กล่าวว่าเป็นสิ่งที่มีความเสี่ยงอย่างมากถึงเป็นอันดับสาม รองจากเพียงบทบาทของประเทศจีนและรัสเซียต่อภูมิการเมืองของโลก ด้วยเหตุว่า generative AI มีความสามารถที่จะ “กัดกร่อนความเชื่อถือในสังคม ให้พลังกับเผด็จการและระบอบอำนาจนิยม และทำให้ธุรกิจและระบบตลาดเกิดความโกลาหลได้” 


บรรณานุกรม

https://www.weforum.org/agenda/2023/02/generative-ai-explain-algorithms-work/

https://www.cnet.com/news/misinformation/ai-misinformation-how-it-works-and-ways-to-spot-it/

https://mashable.com/article/ai-deepfake-image-pentagon-explosion-hoax

https://www.stockholmresilience.org/news–events/climate-misinformation/chapter-6-a-game-changer-for-misinformation-the-rise-of-generative-ai.html

https://www.nytimes.com/2023/04/08/technology/ai-photos-pope-francis.html

https://time.com/6255162/big-tech-ai-misinformation-trust/

https://globalnews.ca/news/9386554/artificial-intelligence-democracy-misinformation-eurasia-group/

https://www.nytimes.com/2023/02/08/technology/ai-chatbots-disinformation.html

https://www.cnet.com/news/misinformation/ai-misinformation-why-it-works-and-how-to-spot-it/

https://www.technologyreview.com/2023/10/04/1080801/generative-ai-boosting-disinformation-and-propaganda-freedom-house/

https://freedomhouse.org/report/freedom-net/2023/repressive-power-artificial-intelligence

https://builtin.com/artificial-intelligence/ai-hallucination

https://www.healthleadersmedia.com/technology/ai-may-be-its-way-your-doctors-office-its-not-ready-see-patients

https://www.theguardian.com/us-news/2023/jun/14/ai-kidnapping-scam-senate-hearing-jennifer-destefano

https://www.dailymail.co.uk/news/article-12192741/Arizona-mom-fell-victim-deepfake-kidnapping-scam-gives-gripping-testimony.html


*หมายเหตุ เอกสารประกอบงาน Digital Thinkers Forum #เวทีนักคิดดิจิทัล ครั้งที่ 26 “เราจะใช้ AI อย่างไรให้สร้างสรรค์และปลอดภัย” ที่มีเป้าหมายเพื่อความรู้เท่าทันในยุคดิจิตอล | วันที่ 17 ม.ค. 67 | ณ SCBX NEXT TECH ชั้น4 สยามพารากอน

  • จัดโดยมูลนิธิฟรีดิช เนามัน ประเทศไทย ร่วมกับโคแฟค ไทยแลนด์

📍ติดตามออนไลน์ผ่าน ไลฟ์/ชมย้อมหลัง ได้ที่

#ThaiPBS

• Facebook

Thai PBS : http://fb.watch/pD9DsMrOaa

Cofact โคแฟค : http://fb.watch/pD9ALNeoSL

สภาองค์กรของผู้บริโภค : http://fb.watch/pD9BjdCNSD

สภาการสื่อมวลชนแห่งชาติ : http://fb.watch/pD9BR1xNeB

• YouTube : http://youtu.be/bLJwcvqUUI8

สรุปข่าวจริง ลวงประจำวันที่ 20 มกราคม 2567

ต้องกักตุนยาปฏิชีวนะ รับมือโรคปอดอักเสบจากแบคทีเรีย…จริงหรือ?

อ่านต่อได้ที่ https://cofact.org/article/16byw7k5cmlck


เตือนภัยมิจฉาชีพแอบอ้าง สคร. ชวนดูคลิป-โหลดแอป-หลอกแจกเงินแสน…จริงหรือ?

อ่านต่อได้ที่ https://cofact.org/article/30574bbst4s6s#_=_


ฟันผุติดต่อกันได้ผ่านการหอมหรือจูบ…จริงหรือ?

อ่านต่อได้ที่ https://cofact.org/article/rob90co1tufh


รัฐสั่งเก็บภาษีสินสอดงานแต่ง…จริงหรือ?

อ่านต่อได้ที่ https://cofact.org/article/z28eqijepz2h


คำแนะนำใช้ไข่ขาวทาแผลไฟไหม้…จริงหรือ?

อ่านต่อได้ที่ https://cofact.org/article/11lij2k07knv2


ผู้ประกันตนมาตรา 33 มาตรา 39 ตรวจสุขภาพฟรี 14 รายการ ตั้งแต่ 1 ม.ค. 67

อ่านต่อได้ที่   https://cofact.org/article/1zw1wz2duqp4m


 กพท. ปรับปรุงหลักเกณฑ์ตรวจบัตรโดยสารก่อนขึ้นเครื่อง

อ่านต่อได้ที่   https://cofact.org/article/3j2xhwq0k7p5b


สรุปข่าวจริง ลวงประจำวันที่ 13 มกราคม 2567

รับประทานไข่ทำให้แผลเป็นนูน…จริงหรือ?

อ่านต่อได้ที่ https://cofact.org/article/vcuc8hzo6l7z


นวดศีรษะของตัวเอง วันละ 1-2 นาที ช่วยป้องกันเส้นเลือดสมองตีบได้…จริงหรือ?

อ่านต่อได้ที่ https://cofact.org/article/sgyl29y9zgq8


 น้ำมะละกอรักษามะเร็ง…จริงหรือ?

อ่านต่อได้ที่ https://cofact.org/article/qeevta9101g8


กินเผ็ดเพิ่มระบบเผาผลาญในร่างกาย ทำให้ผอมเร็ว…จริงหรือ?

อ่านต่อได้ที่ https://cofact.org/article/3k4kulo56n8g7


 เว็บไซต์กรมสรรพากรเพิ่มหัวข้อ My Tax Account สามารถตรวจสอบข้อมูลทางภาษีตนเองได้

อ่านต่อได้ที่ https://cofact.org/article/2alxt39z80i94


สธ. เพิ่มสิทธิบัตรทองให้ผู้ป่วยมะเร็ง ฝังแร่รักษา-ผ่าตัดด้วยหุ่นยนต์-ฉายรังสีโปรตอน

อ่านต่อได้ที่ https://cofact.org/article/2calz8paplaql


มอเตอร์เวย์ M6 เปิดให้ใช้ฟรีตลอดปี 2567
1. ทางหลวงหมายเลข (ทล.) 2 ถนนมิตรภาพ กม.65 บริเวณหน้าศูนย์พักพิงสุนัขจรจัดนครชัยบุรินทร์ อ.ปากช่อง
2. ทล.201 ถ.สีคิ้ว-ชัยภูมิ กม.5+500
3. วงแหวนนครราชสีมา ทล.290 กม.14+775 อ.ขามทะเลสอ
4. จุดเชื่อมต่อ ทล.204 ถ.เลี่ยงเมืองนครราชสีมา กม.3+230

อ่านต่อได้ที่   https://cofact.org/article/3m6qfk4alp6mn


#สปสช. อนุมัติระบบบริการ การแพทย์ทางไกลดูแลสุขภาพคนไทยสิทธิบัตรทองในต่างประเทศ เริ่ม 15 ม.ค. 67

อ่านต่อได้ที่   https://cofact.org/article/3mh9e3l8zh1k0


เปลี่ยนยางรถยนต์ไฟฟ้า หนึ่งเส้นเริ่มต้นที่ 10,000 บาท…จริงหรือ

อ่านต่อได้ที่ https://cofact.org/article/gbwa8bszn98h


บทเรียนข่าวลวง จากเลือกตั้งไทยสู่เลือกตั้งใหญ่ในไต้หวัน-อินโดฯ COFACT Special Report 29/67

กุลชาดา ชัยพิพัฒน์

ที่ปรึกษาโคแฟค ประเทศไทย

การเลือกตั้งทั่วไปของไทยเมื่อกลางปี 2566 ผ่านไปพร้อมกับอารมณ์ที่ค้างคาของผู้คนจำนวนมากที่คาดหวังให้ผลของการเลือกตั้งฯ นำไปสู่การเปลี่ยนแปลงที่ดีต่อใจและประชาธิปไตย ทั้งยังทิ้งอาการกระอักกระอ่วนของการพัฒนา “ประชาธิปไตยแบบไทยๆ” ไว้เป็นบทเรียน

ในมุมมองของผู้ที่เกี่ยวข้องกับการตรวจสอบข้อมูลเท็จหรือข้อมูลบิดเบือนในการเลือกตั้งครั้งที่ผ่านมา ถือว่าการปล่อยให้ข้อมูลเหล่านี้ทำงานโดยไม่มีกลไกคัดง้าง และถูกผู้ที่มีอำนาจใช้เป็นเครื่องมือเพื่อปิดปากหรือลิดรอนสิทธิเสรีภาพในการแสดงออกของประชาชน หรือใช้เพื่อทำลายคู่ต่อสู้ทางการเมือง ย่อมส่งผลเสียต่อประชาธิปไตยที่ถ่วงดุล ทำให้สังคมเกิดความหวาดระแวงซึ่งกันและกัน และไม่สามารถพูดคุยกันได้อย่างเป็นเหตุเป็นผล 

ในขณะเดียวกัน หากดึงเอาอำนาจรัฐเข้าไปกำกับดูแลหรือแทรกแซงมากเกินไป ก็อาจไม่ช่วยให้สถานการณ์ดีขึ้น ซ้ำร้ายอาจเป็นการสร้างแรงกดดันหรือบรรทัดฐานใหม่ที่ถูกนำมาใช้ เพื่อลิดรอนสิทธิเสรีภาพการแสดงออกยิ่งขึ้นไปอีกได้เช่นกัน

“แล้วอย่างไรถึงจะเรียกว่าเหมาะสมและเพียงพอต่อสถานการณ์?” นี่คือคำถามและความท้าทายใหม่ที่ถกเถียงกันอย่างมากในเวทีพูดคุยในประเทศและต่างประเทศที่ “โคแฟค” ได้เข้าไปมีส่วนร่วมในการแลกเปลี่ยนสถานการณ์ข่าวลวงในประเทศไทย และประสบการณ์การตรวจสอบข้อเท็จจริงตลอดปีที่ผ่านมา

ในเวที Bali Civil Society and Media Forum (BCSMF) ครั้งที่ 6 ซึ่งจัดขึ้นที่เกาะบาลี ประเทศอินโดนีเซีย ระหว่างวันที่ 28-30 พฤศจิกายน ปีที่ผ่านมา มีการพูดคุยกันถึงสภาพปัญหาและมาตรการจัดการกับข้อมูลลวงอย่างจริงจัง โดยตัวแทนจาก ภาคประชาสังคมที่ทำงานด้านการพัฒนาการเมืองและสังคม นักกิจกรรมทางการเมือง นักสิทธิมนุษยชน และสื่อมวลชน ของประเทศในภูมิภาคเอเชีย และแปซิฟิก ต่างแสดงความวิตกกังวลต่อปัญหาข้อมูลลวงที่อาจส่งผลกระทบต่อการเลือกตั้ง ซึ่งคาดว่าจะจัดขึ้นในหลายๆประเทศทั่วโลก รวมทั้งไต้หวันและอินโดนีเซียซึ่งจะจัดขึ้นวันเสาร์ที่ 13 มกราคม และวันพุธที่ 14 กุมภาพันธ์ ศกนี้ ตามลำดับ

ก่อนหน้านี้ องค์การเพื่อการศึกษา วิทยาศาสตร์ และวัฒนธรรมแห่งสหประชาชาติ (ยูเนสโก) ได้เผยแพร่รายงานผลสำรวจความเห็นของผู้ใช้สื่อสังคมออนไลน์ 8,000 คน ใน 16 ประเทศที่คาดว่าจะมีการเลือกตั้งในปีนี้ ซึ่งจัดทำขึ้นร่วมกับ IPSOS ซึ่งเป็นบริษัทที่เชี่ยวชาญเรื่องการวิจัยการตลาดและความสำรวจเห็นสาธารณะทั่วโลก ผลสำรวจพบว่า ร้อยละ 87 ของผู้ตอบแบบสอบถาม มีความกังวลว่าข่าวลวงจะส่งผลกระทบต่อผลการเลือกตั้ง โดยในจำนวนนี้รู้สึก “กังวลมาก” ถึงร้อยละ 47 

นอกจากนี้ ผู้ตอบแบบสอบถามส่วนใหญ่มองว่าสื่อสังคมออไลน์เป็นแหล่งที่มีการเผยแพร่ข่าวลวงมากที่สุด และพบข้อความที่สร้างความเกลียดชังมากที่สุดในเฟซบุ๊ก

อีกประเด็นหนึ่งที่ความเห็นส่วนใหญ่ของผู้ตอบแบบสอบถามพูดถึง คือต้องการให้มีการกำกับดูแลแพลตฟอร์มร่วมกันระหว่างภาครัฐและเอกชนมากขึ้น โดยเฉพาะอย่างยิ่งมาตรการในเรื่องความปลอดภัยและความน่าเชื่อถือของแพลตฟอร์มในช่วงการเลือกตั้ง

เวที BCSMF จัดขึ้นเป็นประจำทุกปีโดย Westminster Democracy Foundation องค์กรพัฒนาเอกชนที่มีสำนักงานใหญ่ตั้งอยู่ที่กรุงลอนดอน สหราชอาณาจักร ร่วมกับกระทรวงการต่างประเทศของอินโดนีเซีย โดยในครั้งนี้จัดขึ้นท่ามกลางรูปรอยของการเติบโตหรือการฟื้นคืนของอำนาจนิยมในหลายประเทศ หรือที่นักวิชาการจำนวนหนึ่งเรียกว่า “กระแสประชาธิปไตยถดถอย”  ซึ่งในหลายๆกรณี กลุ่มการเมืองที่มีลักษณะอำนาจนิยมได้อาศัยการเลือกตั้งเป็นกลไกในการเข้าสู่อำนาจหรือรักษาอำนาจไว้ และมีการใช้ปฏิบัติการข้อมูลข่าวสารบนโลกออนไลน์ เพื่อให้ได้รับชัยชนะในระดับที่ส่งผลต่อความสุจริตการเลือกตั้ง

นักวิชาการด้านรัฐศาสตร์และผู้สังเกตการณ์ทางการเมืองหลายชาติต่างแสดงความกังวลว่า ผลการเลือกตั้งประธานาธิบดีในไต้หวันและอินโดนีเซียจะไม่นำไปสู่การเปลี่ยนแปลงที่ส่งผลดีต่อประชาธิปไตย  เช่นในกรณีของไต้หวันนับเป็นการเลือกตั้งที่เดิมพันสูงมาก เพราะเป็นการเลือกตั้งประธานาธิบดีและสภาผู้แทนราษฎรครั้งแรกนับตั้งแต่ปี 2563 โดยพรรครัฐบาล Democratic Progressive Party (DPP) ซึ่งมีนโยบายแข็งกร้าวต่อจีน กับพรรคก๊กมินตั๋ง (Kuomintang) ซึ่งเป็นพรรคอนุรักษ์นิยมคู่แข่งที่มีนโยบายส่งเสริมความสัมพันธ์แนบแน่นกับจีน มีคะแนนสูสีกันในโค้งสุดท้ายของการหาเสียงเลือกตั้งเมื่อเดือนธันวาคมปีที่แล้ว ทำให้เป็นที่วิตกกังวลกันว่า การปล่อยข้อมูลลวงหรือข้อมูลเท็จในเรื่องที่อ่อนไหวเกี่ยวกับความตึงเครียดในทะเลจีนใต้ในช่วงใกล้วันเลือกตั้ง อาจทำให้คะแนนเสียงพลิกผันเทไปข้างใดข้างหนึ่งในพริบตา

ส่วนในการเลือกตั้งประธานาธิบดีของอินโดนีเซียครั้งนี้ นอกจากความท้าทายในการจัดการกับปัญหาข้อมูลลวงซึ่งเป็นปัญหาใหญ่ของประเทศ ที่ความรู้เท่าทันสื่อและการสื่อสารดิจิตอลของประชาชนมีจำกัดและการเข้าถึงอินเทอร์เน็ตที่ไม่เท่าเทียมกัน สืบเนื่องจากสภาพประเทศที่เป็นเกาะกว่า 18,000 เกาะและมีประชากรกว่า 280 ล้านคนในปี 2566 แล้ว กระแสความนิยมที่สูงขึ้นเรื่อยๆ ในหมู่คนรุ่นใหม่ซึ่งเป็นผู้มีสิทธิเลือกตั้งกลุ่มใหญ่ที่สุดในการเลือกตั้งครั้งนี้ ของผู้สมัครชิงตำแหน่งประธานาธิบดี จากพรรคฝ่ายอำนาจเก่า คือ นายพล ปราโบโว ซุเบียนโต รัฐมนตรีกลาโหมในรัฐบาลผสมปัจจุบันของประธานาธิบดีโจโค วิโดโด โดยปราศจากคู่แข่งที่สูสี 

หากนายพลปราโบโว ซึ่งในเป็นอดีตเคยผู้นำทหารในรัฐบาลเผด็จการของอดีตประธานาธิบดีซูฮาร์โตที่ลงจากอำนาจในปี 2541 และเสีบชีวิตในเวลาต่อมา ได้รับชัยชนะพร้อมกับกิบรัน รากาบูมิง รากา คู่สมัครชิงตำแหน่งรองประธานาธิบดีซึ่งเป็นผู้ว่าราชการจังหวัดโซโลและบุตรคนโตของโจโควี ในการเลือกตั้งครั้งนี้ จะทำให้ฝ่ายอนุรักษ์นิยมฟื้นคืนกลับสู่อำนาจอย่างเต็มรูปแบบ และอาจทำให้อินโดนีเซียสิ้นสุดยุคประชาธิปไตยแบบถ่วงดุล เนื่องจากระบบการตรวจสอบและถ่วงดุลในสภาผู้แทนราษฎรก็ถูกกุมอำนาจโดยส.ส.จากฝั่งพรรคร่วมรัฐบาลเป็นส่วนใหญ่อยู่เป็นทุนเดิม

จากประสบการณ์ของไทยสู่อินโดนีเซีย

ประเทศไทยมีบทเรียนในการจัดการกับข้อมูลลวงในช่วงการเลือกตั้งที่ผ่านมาที่น่าสนใจ คือ การตื่นตัวแบบที่ไม่เคยเกิดขึ้นมาก่อนของภาคประชาสังคม ประชาชน และสื่อมวลชนในการตรวจสอบการทำการงานของคณะกรรมการการเลือกตั้ง จับตาการทุจริตเลือกตั้งและข้อมูลลวง รวมทั้งบทบาทของแพลตฟอร์มทั้งในการให้ข้อมูลการเลือกตั้งที่ถูกต้องแก่ประชาชน และการเฝ้าระวังที่เข้มข้นมากขึ้นในการคัดกรองข้อมูลบนแพลตฟอร์มช่วงการเลือกตั้ง

ในการเลือกตั้งที่ผ่านมา เราได้เห็นทั้งมาตรการเชิงรับและเชิงรุกของภาคประชาชน เช่น (1) การส่งอาสาสมัครลงพื้นที่ครบทุกหน่วยเลือกตั้งเพื่อสังเกตุการณ์การเลือกตั้งของโครงการอินเทอร์เน็ตเพื่อกฎหมายประชาชนหรือไอลอว์ (iLaw) และแนวร่วมทั้งในและต่างประเทศ (2) การตรวจสอบข่าวลวงการเมืองโดยโคแฟค การตรวจสอบการละเมิดจรรยาบรรณการใช้สื่อสังออนไลน์ในการหาเสียงที่พรรคการเมือง 37 พรรค ร่วมกับคณะกรรมการการเลือกตั้งได้ลงนามไว้ก่อนการเลือกตั้ง โดยกลุ่มนักวิชาการด้านสังคมศาสตร์และสื่อสารมวลชน นักวิเคราะห์ข้อมูลดิจิตอลขนาดใหญ่จากทีม Digital Election Analytic Lab (DEAL) และทีมอาสาสมัครของกลุ่ม WeWatch และ (3) การติดตาม “สัญญาว่าจะทำ” ที่พรรคการเมืองให้ไว้เพื่อเรียกคะแนนเสียง โดยกลุ่ม WeVis ที่ทำงานรณรงค์ในเรื่อง open governance ทั้งหมดนี้ถือเป็นส่วนหนึ่งของมาตรการเชิงรับ

สำหรับมาตรการเชิงรุกได้แก่ (4) การทำหน้าที่ของสื่อมวลชนอย่างเข้มข้น โดยเฉพาะข่าวเชิงสื่อสารทางออกให้สังคม (solution journalism) ทั้งในการเปิดพื้นที่ให้พรรคการเมืองต่างๆได้สื่อสารกับสังคมและชี้แจงนโยบายพรรคอย่างกว้างขวาง และ (5) การตื่นตัวในการมีส่วนร่วมทางการเมืองของชาวเน็ต โดยการใช้แพลตฟอร์มสื่อสารและติดตามการหาเสียงหรือตรวจสอบข่าวลวงที่หวังผลทำลายพรรคการเมืองและผู้สมัครที่ตนเองชื่นชม ยังเป็นปัจจัยร่วมที่ทำให้กระบวนการเผยแพร่ข้อมูลลวงตั้งแต่ต้นทางการผลิตจนถึงปลายผู้รับสาร ทางทำงานได้ยากขึ้น 

ด้วยมาตรการเหล่านี้ ประกอบกับกระแสความนิยมในพรรคก้าวไกลที่สูงมากอย่างต่อเนื่องในช่วงสามเดือนสุดท้ายก่อนการเลือกตั้ง ทำให้ผลกระทบของข้อมูลลวงที่มุ่งทำลายความสุจริตของการเลือกตั้งอยู่ในวงจำกัด และทำให้พรรคก้าวไกลได้รับชัยชนะในการเลือกตั้งครั้งนี้อย่างท่วมท้นและคาดไม่ถึง

ข้อค้นพบที่สำคัญจากการตรวจสอบข้อมูลลวงและการหักล้างข้อเท็จจริงของโคแฟคและภาคประชาสังคมอื่น ๆที่มีส่วนร่วมในการตรวจสอบการเลือกตั้งครั้งนี้ คือ พรรคการเมืองหลักๆมีการใช้ปฏิบัติการข้อมูลข่าวสารในโลกออนไลน์เพื่อสร้างความนิยมให้กับพรรคและผู้สมัครของตนในระดับที่ต่างกัน แต่การตรวจสอบข้อเท็จจริงเพื่อสกัดกั้นการเผยแพร่ข้อมูลลวง ตลอดจนการสืบค้นและวิเคราะห์ข้อมูลดิจิตอลเพื่อหาตัวผู้เผยแพร่ข้อมูลเท็จ รวมทั้งต้นตอของการกระทำนั้นและเนื้อหาที่ละเมิดมาตรฐานชุมชนของแพลตฟอร์มหรือจรรยาบรรณการหาเสียงฯ  ทำได้ยากในเวลาจำกัด และยังต้องอาศัยความร่วมมือจากแพลตฟอร์มทั้งในระดับนโยบายและภาคปฏิบัติอย่างจริงจังเพื่อสกัดกั้นหรือจำกัดการเผยแพร่ของข้อมูลเหล่านั้นได้อย่างทันท่วงที 

นอกจากนี้ บทบาทของสื่อมวลชนในการตรวจสอบข้อเท็จจริงและเผยแพร่ข้อมูลที่ถูกต้องเข้าสู่ระบบนิเวศน์การสื่อสารมีความสำคัญอย่างยิ่งในการหักล้างข้อมูลเท็จยังทำได้จำกัดเนื่องจากกำลังคนที่ไม่เพียงพอและสภาวะการแบ่งฝักแบ่งฝ่ายทางการเมืองแบบสุดขั้ว (polarization) ในขณะที่ปฏิบัติการข้อมูลข่าวสารในโลกออนไลน์มีความซับซ้อนมากขึ้น ทั้งเรื่องเนื้อหา ผู้ใช้งาน และเทคโนโลยีการสื่อสารดิจิตอลและการสร้างคอนเทนต์โดย AI (AI-generated content)[a] ที่จับเท็จได้ยากยิ่งขึ้น แต่แพร่ง่ายและรวดเร็ว เช่นกรณีการนำคลิปเสียงของผู้ที่วิจารณ์พรรคเพื่อไทยอย่างรุนแรงมาปลอมเป็นเสียงของนายจาตุรนต์ ฉายแสง สมาชิกสภาผู้แทนราษฎรแบบบัญชีรายชื่อของพรรคเพื่อไทยที่ทางโคแฟคได้ตรวจสอบไปในช่วงการเลือกตังปี ‘66’ อีกทั้งการตระหนักรู้ของประชาชนในการแยกแยะข้อมูลจริงหรือเท็จยังอยู่ในวงจำกัด

แต่สิ่งที่น่ากังวลมากกว่าคือผลกระทบที่เกิดขึ้นต่อทั้งบรรยากาศและภูมิทัศน์การเมืองภายหลังการเลือกตั้ง จากการติดตามข้อมูลลวงในโลกออนไลน์และตรวจสอบข้อเท็จจริงของโคแฟคและกลุ่มต่างๆ มีข้อสังเกตที่ตรงกันคือ ขบวนการและปฏิบัติการข้อมูลข่าวสารของฝ่ายอนุรักษ์นิยมที่สนับสนุนให้ “ระบอบประยุทธ์” ที่นำโดย พล.อ.ประยุทธ์ จันทร์โอชา ซึ่งดำรงตำแหน่งนายกรัฐมนตรีมากว่า 8 ปี กลับมาเป็นรัฐบาลอีกครั้ง ถูกฉวยใช้อย่างเข้มข้นและเป็นระบบในจังหวะที่เหมาะสม ตลอดช่วงหลังการเลือกตั้งเพื่อสร้างความชอบธรรมให้กับกระบวนการทางรัฐสภาและการใช้กฎหมายอาญาและความมั่นคงในการสกัดกั้น นายพิธา ลิ้มเจริญรัตน์ ซึ่งเป็นหัวหน้าพรรคก้าวไกลในขณะนั้น ไม่ให้ได้รับเลือกเป็นนายกรัฐมนตรี และทำให้พรรคก้าวไกลไม่สามารถเป็นแกนนำในการจัดตั้งรัฐบาลในที่สุด ทั้งยังส่งผลให้พรรคก้าวไกลในฐานะผู้นำพรรคฝ่ายค้านเจออุปสรรคมากมายในการทำหน้าที่ตรวจสอบการทำงานของรัฐบาล

‘ข้อมูลจริงที่เจตนาร้าย’

สิ่งท้าทายการตรวจสอบข้อมูลลวงทางการเมืองอย่างมาก คือ การใช้ข้อมูลจริงที่มีเจตนามุ่งร้ายต่อเป้าหมายของคนบงการ ผู้ผลิตข้อมูลและผู้เผยแพร่ หรือที่เรียกว่า “malinformation” ซึ่งร้ายลึกยิ่งกว่าข้อมูลบิดเบือน เพราะข้อมูลเหล่านี้อาจเป็นข้อมูลส่วนบุคคล หรือเหตุการณ์ที่เกิดขึ้นจริงในอดีต หรือเหตุการณ์ต่างกรรมต่างวาระ แต่ถูกขุดขึ้นมาและนำมาเชื่อมโยงกับความคิดเห็นและความเชื่อส่วนตัวหรือนำมาใช้ในบริบทที่บิดเบือนไป เพื่อทำลายชื่อเสียงและความน่าเชื่อถือของเป้าหมาย 

ตัวอย่างที่ชัดเจนของ malinformation คือโยงเอาข้อมูลต่างๆ มาสร้างเป็นทฤษฎีสมคบคิด เช่น กรณีการสร้างชุดข้อมูลเพื่อกล่าวหาว่า ทางการสหรัฐแทรกแซงการเลือกตั้งของไทยผ่านภาคประชาสังคมและพรรคก้าวไกล โดยมีขบวนการปล่อยข้อมูลอย่างต่อเนื่องมาตั้งแต่ก่อนการเลือกตั้ง หรือหลังการเลือกตั้ง, กรณีการประโคมข่าว “ตั๋วปารีส” ซี่งเป็นชุดข้อมูลที่กล่าวหาว่าบุคคลในพรรคก้าวไกลและผู้ก่อตั้งพรรคมีส่วนเกี่ยวข้องและได้รับการสนับสนุนจาก “ขบวนการล้มเจ้า” ในต่างประเทศ อันประกอบไปด้วยเครือข่ายนักวิชาการและภาคประชาสังคมที่ทำงานเรื่องสิทธิมนุษยชนแลประชาธิปไตย เพื่อมาเร่งแก้ไขกฎหมายหมิ่นพระบรมเดชานุภาพ

อีกทั้งยังมีกรณีการกล่าวอ้างว่า พรรคเป็นธรรม ซึ่งอยู่ในแนวร่วม 8 พรรคฝ่ายค้านเดิมที่จับมือกันจัดตั้งรัฐบาลในขณะนั้น มีนโยบายสนับสนุนการแบ่งแยกดินแดงของกลุ่มมุสลิมติดอาวุธในภาคใต้  

กระบวนการในการเผยแพร่ข้อมูลเหล่านี้ มักมีขั้นตอนคล้ายๆกัน โดยเริ่มจากเพจหรือผู้ใช้งานเฟซบุ๊กและบัญชีทวิตเตอร์ (เอ็กซ์) ที่เป็นอินฟลูเอนเซอร์ทั้งสายการเมืองและสายเอนเทอร์เทนที่มีแนวคิดแบบอนุรักษ์นิยม จากนั้นสื่อมวลชนจำนวนหนึ่งที่มีแนวคิดเดียวกันก็จะนำไปขยายความหรือเผยแพร่ต่อ (หรือบางทีก็ดำเนินการกลับกัน)

นอกจากนี้ เรายังได้เห็นการเปิดตัวของเพจ “วันนี้ก้าวไกลโกหกอะไร” และกลุ่มการเมืองที่เคลื่อนไหวต่อต้านพรรคก้าวไกล เช่นทีม Reach ทางเฟซบุ๊กในช่วงปลายปีที่ผ่านมา ซึ่งในระยะแรกดูเสมือนเป็นตัวแทนของ “แนวร่วมประชาชน” ที่รณรงค์ต่อต้านการกระทำรุนแรงต่อสตรี และส่งเสริมเรื่องความเท่าเทียมทางเพศ โดยเน้นการแฉพฤติกรรมของส.ส.พรรคก้าวไกลที่ตกเป็นข่าวเรื่องการล่วงละเมิดทางเพศ ก่อนจะขยายวงเป็นการติดตามและเปิดโปงพฤติกรรมส่วนตัวอื่นๆและพฤติกรรมทางการเมืองที่ไม่เหมาะสม เช่น การตั้งคนใกล้ชิดเป็นผู้ช่วยส.ส.

อย่างไรก็ตาม เมื่อเวลาผ่านไประยะหนึ่ง เราได้เห็นรูปแบบและการกระบวนการผลิตข้อมูลในลักษณะ malinformation ที่แตกต่างไปจากเดิม มีการใช้ขุดข้อมูลส่วนตัวในโลกออนไลน์และเกาะติดการทำงานของส.ส.หรือทีมงานสนับสนุนของพรรคก้าวไกลอย่างใกล้ชิด เพื่อนำภาพหรือกิจกรรมของบุคลคนเหล่านี้มาเผยแพร่ในทางที่มุ่งทำลายภาพลักษณ์ของบุคคลและพรรค เป็นต้น

ขณะเดียวกัน การตื่นตัวของภาคประชาสังคมและประชาชนเริ่มลดลงภายหลังการเลือกตั้ง และการจัดการกับข้อมูลประเภท malinformation ยังทำมีข้อจำกัดอยู่มาก ด้วยปัจจัยเรื่องทรัพยากรและความเชี่ยวชาญของบุคลากรที่จะมาตรวจสอบข้อมูลประเภทนี้ นอกจากนี้วิธีการหักล้างข้อมูลที่มีหลายวิธีขึ้นอยู่กับรูปแบบและความซับซ้อนของข้อมูลลวง เช่นการทำ “prebunking” ซึ่งเป็นการตรวจสอบข่าวลวงและการหักล้างข้อมูลที่ช่วยสกัดกั้นการแพร่ลุกลามของข้อมูลลวงที่ส่งผลในวงกว้างและมีประสิทธิภาพกว่าวิธีการตรวจสอบข้อเท็จจริงทั่วไป ยังมีผู้ชำนาญการอยู่น้อยมาก

ข้อท้าทายอีกประการที่สำคัญคือ ความขัดแย้งทางการเมืองขั้วตรงข้ามแบบสุดโต่งในสังคมไทย ทำให้มุมมองในเรื่องสิทธิเสรีภาพในการแสดงความคิดเห็นกับความปลอดภัยและความน่าเชื่อถือในการใช้สื่อสังคมออนไลน์ยังเป็นข้อถกเถียงที่หาข้อสรุปไม่ได้

สมดุลของเสรีภาพกับความปลอดภัย 

การจัดการกับข้อมูลลวงที่มีประสิทธิภาพ โดยเฉพาะข้อมูลลวงที่มีความซับซ้อน ต้องอาศัยทั้งมาตรการตอบโต้และป้องกันที่สมดุลกันและการมีส่วนร่วมของทุกภาคส่วนที่เกี่ยวข้อง โดยไม่เพียงเพื่อลดผลกระทบของข้อมูลลวงต่อความสุจริตของการเลือกตั้ง แต่เพื่อจัดการกับต้นตอของปัญหาเพื่อป้องกันไม่ให้ข้อมูลเหล่านี้เป็นบ่อนทำลายความสงบสุขของสังคมยิ่งขึ้นไปอีก

ข้อเสนอที่สำคัญของที่ประชุม BCSMF คือ การจัดสรรทรัพยากรมาสนับสนุนการศึกษาให้กับประชาชนในเรื่องการรู้เท่าทันสื่อและการสื่อสารในโลกดิจิทัลมากยิ่งขึ้น ในขณะเดียวกันภาครัฐ ภาคประชาสังคมและเอกชน รวมทั้งสื่อมวลชนและแพลตฟอร์มต้องทำงานร่วมกันมากขึ้นเพื่อสร้างกลไกที่มีความยืดหยุ่นและเครื่องมือในการตรวจสอบข่างลวงและวิธีการตรวจสอบข้อเท็จที่ก้าวหน้าและเท่าทันเทคโนโลยี เพื่อป้องกันการแพร่กระจายของข้อมูลลวงหรือบิดเบือนได้อย่างมีประสิทธิภาพ

เป้าหมายปลายทางที่สำคัญคือ การสร้างกลไกร่วมที่สอดคล้องกันในทุกภาคส่วน เพื่อยับยั้งต้นทางการผลิตข้อมูล มาตรการการคัดกรองข้อมูลของแพลตฟอร์มใช้งานได้จริง ในขณะเดียวกันเพื่อให้ผู้ใช้สื่อสังคมออนไลน์มีความชาญฉลาดในการเลือกใช้หรือรับข้อมูลข่าวสารมากขึ้น และทำให้การตรวจสอบข้อเท็จจริงสามารถดำรงอยู่ได้อย่างต่อเนื่องในฐานะที่เป็นหน้าด่านของการต่อต้านข้อมูลลวง

ที่ประชุมยังเห็นพ้องต้องกันว่า ควรแยกให้ชัดเจนระหว่างการใช้สื่อสังคมออนไลน์ในการหาเสียงเลือกตั้งที่ไม่ผิดมาตรฐานชุมชนหรือกฎหมาย ซึ่งมีการใช้กันอย่างแพร่หลายทั่วโลก และการปั่นหรือบิดเบือนข้อมูล และการสร้างความเกลียดชังในโลกออนไลน์ ที่มุ่งทำลายหรือคุกคามผู้เห็นต่างทางการเมือง โดยเฉพาะนักการเมืองหรือผู้นำชุมชนเพศหญิงที่เข้าสู่เส้นทางผู้นำทางการเมืองหรือผู้สมัครรับเลือกตั้ง ซึ่งเป็นสิ่งที่สังคมไม่ควรเพิกเฉย

บทสรุปคือ การผดุงไว้ซึ่งสิทธิเสรีภาพในการแสดงออกและเสรีภาพทางความคิด และมาตรฐานความปลอดภัยและความเชื่อมั่นในการใช้สื่อสังคมออนไลน์เป็นเรื่องที่มีความสำคัญควบคู่เท่ากัน ไม่สามารถตัดทิ้งอันใดอันหนึ่ง

ความท้าทายในปีนี้สำหรับประเทศไทยคือ ภาคประชาสังคมและสื่อมวลชนต้องไม่ “การ์ดตก” และต้องทำงานร่วมกันอย่างแข็งขันมากยิ่งในการตรวจสอบข่าวลวง คอยกระตุ้นเตือนภาครัฐและแพลตฟอร์ม ให้ส่งเสริมการสื่อสารและการใช้สื่อสังคมออนไลน์ที่ปลอดภัยและไว้ใจได้ พร้อมๆไปกับการติดอาวุธทางความคิดและเทคโนโลยีให้กับคนในสังคมเพื่อระวังภัยจากข้อมูลลวงและการสื่อสารที่สร้างความเกลียดชัง และตั้งรับอย่างมีสติและความเข้าใจ

หมายเหตุ: ข้อมูลส่วนหนึ่งมาจากงานนำเสนอในที่ประชุม BCSMF ของผู้เขียน

ข้อมูลอ้างอิงเพิ่มเติม:

Elections & social media: the battle against disinformation and trust issues 

The first nail-biter election of 2024: Taiwan

Indonesians head to the polls in February. Here are key issues dominating the elections

ข่าวลือข่าวลวงในช่วงการจัดตั้งรัฐบาล : เป็นข่าวลือเรื่องอะไร กล่าวหาพรรคไหน ประเด็นใดมากที่สุด

เกิดอะไรในทวิตภพ DEAL พลเมืองรวมพลังจับตาพฤติกรรมชวนสงสัยเลือกตั้ง 66


                                                                 

เอ๊ะก่อนงับ: 6 วิธีรับมือ ‘ข่าวลวง’ ในปี 2024 ที่สื่อไทยต้องรู้ COFACT Special Report 28/67

โดย ธีรนัย จารุวัสตร์ สมาชิกโคแฟค

หลายคนบอกว่า อะไรที่ลงท้ายด้วยคำว่า “งับ” ก็น่ารักไปหมด แต่เวลาสื่อมวลชน “งับ” หรือพลาดเอาข่าวลวง-ข่าวบิดเบือนมาเผยแพร่ต่อ คงไม่ใช่เรื่องน่ารักอย่างแน่นอน บทความนี้ขอนำเสนอ 6 รูปแบบข่าวลวง-ข่าวบิดเบือนที่สื่อมวลชนต้องคอยจับตา เพื่อที่จะได้ฉุกคิด หรือ “เอ๊ะ” ก่อนที่จะเอามาเล่นเป็นข่าว 

หรือพูดอย่างน่ารักก็คือ ตลอดปี 2024 นี้ สื่อต้อง “เอ๊ะก่อนงับ” 

“ผู้ประกอบวิชาชีพสื่อมวลชน พึงระมัดระวังกระบวนการหาข่าวหรือภาพจากสื่อสังคมออนไลน์ ควรมีการตรวจสอบอย่างถี่ถ้วน รอบด้าน และอ้างอิงแหล่งที่มาเมื่อนำเสนอ เว้นแต่สามารถตรวจสอบและอ้างอิงจากแหล่งข่าวได้โดยตรง” – ข้อความจาก “แนวปฏิบัติการใช้สื่อสังคมออนไลน์ของสื่อมวลชน พ.ศ. ๒๕๖๒” (ข้อที่ ๑๘) ออกโดย สภาการสื่อมวลชนแห่งชาติ 

ข้อความข้างต้น เป็นเพียงหนึ่งในความพยายามของนักวิชาการ ผู้เชี่ยวชาญด้านจริยธรรมสื่อ และองค์กรวิชาชีพสื่อ ที่พูดย้ำมาโดยตลอดว่า สื่อมวลชนมีหน้าที่ตรวจสอบข้อเท็จจริงก่อนที่จะนำเสนอข่าวสารใดๆออกไป แต่ในความเป็นจริง เรายังเห็นกรณีสื่อมวลชนเอาเรื่องที่ไม่มีมูลในโซเชียลมีเดียหรืออินเทอร์เน็ตมาเผยแพร่ต่อ โดยไม่ตรวจสอบใดๆ จนหลายคนก็รู้สึกเอือมระอา

หรือถ้าใช้ภาษาอินเทอร์เน็ต ก็คือการรีบ “งับ” เอาเรื่องไม่จริง มาเล่นเป็นข่าวใหญ่โต โดยไม่นึกสงสัย หรือ “เอ๊ะ” แม้แต่นิดเดียวนั่นเอง

วัฒนธรรมการ “งับโดยไม่เอ๊ะ” ของสื่อไทย ถือเป็นเรื่องน่ากังวล เพราะถึงแม้เราจะมีเครือข่ายผู้ตรวจสอบข้อเท็จจริง (factcheck) อย่างโคแฟคหรือ AFP Factcheck ประจำประเทศไทย คอยตรวจสอบและชี้แจงข้อเท็จจริงเวลาสื่อไทย(หรือสื่อโซเชียลมีเดีย)เอาเรื่องไม่จริงมาเผยแพร่ต่อ แต่องค์กรเช่นนี้ยังถือว่ามีจำนวนค่อนข้างน้อย และกว่าจะตรวจสอบข้อเท็จจริงได้อย่างครบถ้วน หลายครั้งๆก็ไม่ทันการณ์เสียแล้ว 

(อ่านเพิ่มเติม: มองตัวอย่าง ‘5 + 2 ข่าวลวงปี 2566’ ปัจจัยเดิมทำ ‘เชื่อชังชอบ-แชร์’ ยังอยู่ แต่ ‘ข้อท้าทายใหม่’ ทำตรวจสอบยากก็กำลังมา)

ดังนั้น ผู้เขียนมองว่าการ factcheck ที่มีประสิทธิภาพอย่างแท้จริง ควรจะเริ่มจากสื่อมวลชน ตั้งแต่ก่อนที่จะนำข้อมูลใดๆมานำเสนอเป็นข่าว เพื่อเป็นการป้องกันตั้งแต่ที่ต้นทางของกระบวนการผลิตข้อมูลข่าวสาร 

ในบทความนี้ ผู้เขียนได้สรุป 6 แหล่งที่มาของข่าวปลอม-ข่าวบิดเบือนยอดฮิตในโลกอินเทอร์เน็ต ซึ่งสื่อไทยมักจะ “งับ” เอามาเล่นเป็นข่าวบ่อยๆ พร้อมคำแนะนำวิธีการ “เอ๊ะ” สำหรับคนทำงานสื่อมวลชน 

ด้วยความหวังว่าสื่อมวลชนไทยในปี 2024 จะช่วยเสริมสร้างวัฒนธรรม factcheck และการตรวจสอบข้อเท็จจริงก่อนนำเสนอข่าวให้เข้มแข็งอย่างจริงจัง

แทนที่จะใช้วิธี “รีบๆเล่นข่าวไปก่อน แล้วค่อยว่ากันทีหลัง” และผลักภาระการ factcheck ให้ไปตกอยู่กับภาคประชาชนแต่เพียงฝ่ายเดียว แบบที่เกิดขึ้นเป็นประจำในปีก่อนๆ 

  1. เพจดัก-เพจปั่น (Parody and satire accounts) 

ในปัจจุบัน บุคคลสาธารณะและองค์กรต่างๆ มักจะมีช่องทางในโซเชียลมีเดียไว้สื่อสารกับประชาชนเป็นเรื่องปกติ แต่ขณะเดียวกัน ก็มักจะมีเหตุการณ์ผู้ใช้อินเทอร์เน็ตอื่นๆทำกัน “สวมรอย” บุคคลหรือองค์กรดังกล่าว ด้วยการเปิด “เพจปลอม” เช่นกัน 

สาเหตุของการกระทำดังกล่าวก็แตกต่างกันไป ในบางครั้งเป็นการแอบอ้างสวมรอยเพื่อแสวงหาผลประโยชน์หรือต้มตุ๋น เช่น ทำเพจปลอม อ้างว่าเป็นฝ่ายการตลาดของธุรกิจขนาดใหญ่ เพื่อหลอกลวงโฆษณาให้ประชาชนเอาเงินมาลงทุน 

แต่ในบางครั้งก็เป็นการทำเพจปลอม เพื่อล้อเลียนบุคคลชื่อดังหรือเหตุการณ์ในข่าว เป็นการเล่นตลกกันภายในกลุ่มผู้ใช้อินเทอร์เน็ต ตามที่เรียกว่า “parody” ในภาษาอังกฤษ ซึ่งในที่นี้ผู้เขียนจะขอเรียกโดยรวมว่า “เพจดัก-เพจปั่น”

ยกตัวอย่างเช่น เพจที่อ้างตัวว่าเป็นทนายความของดาราหรือบุคคลผู้มีชื่อเสียง เพจที่อ้างตัวเป็นบุคคลในข่าวฉาว เพจที่อ้างว่าเป็นตำรวจปราบปรามเว็บพนัน (แต่จริงๆ มีจุดประสงค์ล้อเลียนอินฟลูเอนเซอร์) เพจที่อ้างว่าเป็นของสมาคมคนขับรถแท็กซี่ และล่าสุด ก็มีเพจที่อ้างตัวว่าเป็นของโรงเรียนมัธยมแห่งหนึ่ง ที่เผยแพร่อินโฟกราฟิกส์เกี่ยวกับการมีเพศสัมพันธ์ในท่าต่างๆ จนกลายเป็นที่ฮือฮาและเข้าใจผิดกันว่า เป็นของโรงเรียนแห่งนั้นจริงๆ เป็นต้น 

ซึ่งแน่นอนว่าเคยมีกรณีสื่อมวลชน “งับ” เอาคอนเทนต์เชิงล้อเลียนของ “เพจดัก-เพจปั่น” มารายงานเป็นข่าวขึ้นมาจริงๆ หรือถ้าใช้ภาษาอินเทอร์เน็ตก็เรียกว่า “โดนดัก” นั่นเอง

สื่อควร “เอ๊ะ” ยังไง?

  • ตรวจสอบว่าเพจดังกล่าวเป็นของบุคคลมีชื่อเสียงหรือองค์กรนั้นๆจริงหรือไม่ เช่น สะกดชื่อถูกต้อง มีเครื่องหมายติ๊กถูก มีประวัติการใช้งานมานาน ไม่ใช่เพิ่งเปิดเพจตอนที่เป็นข่าว (ทั้งนี้ คำต่อท้ายว่า “เฟซจริง” ไม่ได้แปลว่าเพจนั้นเป็นของจริงเสมอไป)
  • เพจที่เป็นของทางการ มักจะมีจำนวนผู้ใช้สูงกว่าเพจปลอมหลายเท่าตัว
  • เพจดัก-เพจปั่น มักจะใช้สำนวนหรือคำที่เป็นมุขตลกในโซเชียลมีเดีย เช่น “พรุ่งนี้ตอนเที่ยงๆ” หรือ “จงวิเคราะห์” เป็นต้น 
  • หรือทางที่ดีที่สุด คือติดต่อสอบถามไปยังบุคคลหรือองค์กรนั้นๆด้วยตัวเอง เพื่อยืนยันว่าเพจหรือบัญชีผู้ใช้งานโซเชียลมีเดียของพวกเขาคืออันไหนกันแน่ 
  1. ภาพ-คลิปวิดิโอผิดบริบท (Out-of-context photos and videos) 

ข่าวปลอมรูปแบบนี้เกิดขึ้นบ่อยๆ (โดยเฉพาะในข่าวต่างประเทศ) เช่น สื่อไปเจอภาพที่อ้างว่าเป็นเหตุการณ์หนึ่ง แล้วสื่อเอามารายงานต่อ จริงๆแล้วเป็นเหตุการณ์อื่นที่ไม่เกี่ยวข้องกันเลยในอีกประเทศหนึ่ง หรือคลิปที่อ้างว่าแสดงให้เห็นเหตุการณ์หนึ่ง แต่ตามจริงแล้วเป็นการเอาคลิปแค่บางส่วนมาแสดง ทำให้ไม่เห็นเหตุการณ์หรือบริบททั้งหมด 

ยิ่งถ้าเป็นกรณีที่เกี่ยวข้องกับเหตุการณ์สงครามหรือความขัดแย้งทางเชื้อชาติ-ศาสนา ยิ่งสุ่มเสี่ยงที่จะกลายเป็นข่าวลวงที่สร้างความเข้าใจผิดอย่างร้ายแรงหรือลดทอนความเป็นมนุษย์ด้วย ดังเช่นกรณีสื่อแห่งหนึ่งในประเทศไทย เสนอข่าวว่าปาเลสไตน์จ้าง “นักแสดง” มาแกล้งเจ็บหรือเสียชีวิต โดยอ้างว่าชายชาวปาเลสไตน์คนหนึ่งถูกตัดขา ทั้งที่จริงๆแล้ว เป็นคลิปคนละบุคคลและคนละเหตุการณ์กัน 

ดังนั้น ผู้เขียนมองว่า ข่าวปลอมลักษณะนี้ถือว่าน่ากังวลที่สุด และมักจะ “หลอกตา” สื่อมวลชนได้บ่อยครั้งที่สุด เพราะความ ทำให้ดูน่าเชื่อถือยิ่งกว่าภาพตัดต่อที่ทำขึ้นเสียอีก ตามที่มีสำนวนในวงการสื่อมวลชนต่างชาติไว้ว่า “คำโกหกที่ฟังดูน่าเชื่อถือที่สุด คือคำโกหกที่มีพื้นฐานอยู่บนความจริง” (The most convincing lies are based on some truth) สื่อมวลชนจึงยิ่งต้องระมัดระวังเป็นพิเศษ

“เอ๊ะ” ยังไง?

  • พึงระลึกว่าภาพหรือคลิปที่เผยแพร่ในโซเชียลมีเดีย โดยไม่ได้ระบุที่มาชัดเจน มีความเสี่ยงว่าเป็นภาพหรือคลิปผิดบริบท ดังนั้น ควรเลือกใช้ภาพและคลิปจากแหล่งข่าวที่น่าเชื่อถือเท่านั้น เช่น สำนักข่าวต่างประเทศที่มีนโยบายเผยแพร่ภาพและคลิปเฉพาะที่ได้รับการตรวจสอบแล้วอย่าง AP, AFP, Reuters เป็นต้น 
  • ใช้วิธี “ค้นหาย้อนกลับ” (reverse image search) ของกูเกิ้ลหรือโปรแกรมอื่นๆ เพื่อตรวจสอบว่าภาพหรือคลิปดังกล่าว มีที่มาจากไหน และเผยแพร่ครั้งแรกในปีใด อ่านเพิ่มเติม: ตรวจสอบภาพลวง ด้วยวิธี “ค้นหาย้อนกลับ” ง่ายๆ ที่ทุกคนทำได้
  • หากเป็นเหตุการณ์ในต่างประเทศ สำนักข่าวหรือเว็บไซต์ที่ factcheck มักจะคอยติดตามและรายงานกรณีภาพหรือคลิปวิดิโอบิดเบือนบริบทเป็นระยะๆ  ดังนั้น สื่อควรตรวจสอบรายงานข่าวและเว็บไซต์ factcheck เหล่านี้ เพื่อดูว่าเหตุการณ์ที่ภาพหรือคลิปวิดิโอนั้นๆ อ้างถึง เป็นความจริงหรือไม่ 
  • หากไม่มีข้อมูลว่าภาพหรือคลิปนั้นๆ แสดงเหตุการณ์ตามที่อ้างจริงหรือไม่ ควรชะลอไว้ก่อนและอย่าเพิ่งเผยแพร่จนกว่าจะพิสูจน์ทราบได้
  1. คอนเทนต์ที่ทำขึ้นโดย AI (AI-generated content) 

ที่ผ่านมาเราได้เห็นกรณีการเผยแพร่ภาพตัดต่อเพื่อบิดเบือนข้อเท็จจริงกันมาแล้วหลายครั้ง และในปัจจุบัน ผู้เชี่ยวชาญและนักวิชาการจำนวนหนึ่งได้ส่งเสียงเตือนว่าเทคโนโลยี AI จะยิ่งทำให้การบิดเบือนข้อมูลข่าวสารซับซ้อนขึ้น และตรวจสอบยากขึ้นด้วย ซึ่งภายในปี 2024 นี้ เราอาจจะได้เห็นตัวอย่างในลักษณะดังกล่าวมากขึ้นตามมาด้วย เป็นอีกหนึ่งรูปแบบข่าวลวงที่สื่อมวลชนควรติดตามอย่างใกล้ชิด 

“เอ๊ะ” ยังไง?

  • ภาพที่ AI ทำขึ้นยังมีข้อจำกัดและบกพร่องอยู่หลายประการ ซึ่งสามารถเอามาเป็นจุดสังเกตได้ เช่น หน้าผู้คนคล้ายกัน, หน้าผู้คนเบลอในพื้นหลังเบลอบิดเบี้ยว, เหตุการณ์ผิดบริบท (อย่างกรณี ThaiPBS ใช้ AI สร้างภาพฉลองสงกรานต์ แต่กลับกลายเป็นเทศกาลโฮลี), ตัวหนังสือบิดเบี้ยว, นิ้วมือหรือร่างกายของมนุษย์บิดเบี้ยว เป็นต้น
  • เช่นเดียวกัน คลิปที่ AI ทำขึ้น (อย่าง deepfake) ยังมีข้อจำกัดในเรื่องใบหน้าของมนุษย์ โดยให้สังเกตว่าสีหน้า ใบหน้า และการขยับปากของผู้พูดจะไม่ค่อยตรงหรือสอดคล้องกับคำพูด หรือมักจะเป็นการใช้โทนเสียงเดียวตลอด ทำให้ฟังดูไม่เป็นธรรมชาติ 
  • อย่างไรก็ตาม วิธีป้องกันที่ดีที่สุดก็คือ ถ้าหาที่มาหรือพิสูจน์ทราบความถูกต้องของคอนเทนต์นั้นๆไม่ได้ ก็ไม่ควรนำมารายงานเป็นข่าวแต่แรก 

หมายเหตุ: ผู้เขียนไม่แนะนำให้ใช้บรรดาเว็บไซต์ที่อ้างว่าตรวจสอบได้ว่าคอนเทนต์ใด AI ทำขึ้น เพราะเท่าที่ผู้เขียนเคยทดลองใช้งาน ผลการตรวจสอบของเว็บไซต์เหล่านี้เชื่อถือไม่ค่อยได้ 

  1. ‘ชาวเน็ต’ เขาเล่าว่า… (Online anecdotes) 

คงปฏิเสธไม่ได้ว่าสำนักข่าวทุกวันนี้ มักจะเอาโพสต์จากผู้ใช้อินเทอร์เน็ตที่เล่าเหตุการณ์หรือประสบการณ์ของตนมาลงเป็นข่าว เช่นในเฟซบุ๊ก ทวิตเตอร์ (เอ็กซ์) หรือ TikTok แต่ในหลายๆครั้ง คำบอกเล่าของผู้ใช้โซเชียลมีเดียที่สื่อนำมารายงานเป็นข่าวใหญ่โต ก็กลับกลายว่าไม่ได้เกิดขึ้นจริง หรือเล่าเหตุการณ์ไม่หมด หรือไม่มีหลักฐานใดๆบ่งชี้ว่าเกิดขึ้นจริงแต่อย่างใด 

ถ้าหากใช้ภาษาสื่อมวลชนแบบเก่าหน่อย ก็คงต้องเรียกว่า “กลายเป็นเรื่องโอละพ่อ” หรือถ้าใช้ภาษาอินเทอร์เน็ตสมัยใหม่ ก็คือ “คดีพลิก” นั่นเอง ซึ่งผู้ที่มักจะเสียเครดิตหรือความน่าเชื่อถือ ก็ไม่ใช่ใครอื่นนอกจากสื่อมวลชนที่รีบ “งับ” เอาเรื่องแบบนี้มารายงานแต่แรก โดยไม่ได้ตรวจสอบเสียก่อน

“เอ๊ะ” ยังไง?

  • ใช้คำในการรายงานข่าวอย่างระมัดระวัง ใครเป็นคนพูด มีหลักฐานใดยืนยันบ้าง สื่อสามารถยืนยันข้อเท็จจริงเกี่ยวกับเหตุการณ์ดังกล่าวได้หรือไม่ แทนที่จะรีบด่วนสรุป และรายงานราวกับว่าเหตุการณ์นั้นๆ ได้รับการยืนยันหรือตรวจสอบข้อเท็จจริงจากสื่อแล้ว 
  • ติดต่อไปยังเจ้าของบัญชีผู้ใช้ต้นเรื่องโดยตรง เพื่อสัมภาษณ์และขอข้อมูลเพิ่มเติม เช่น ภาพหรือคลิปในโพสต์ ถ่ายเองหรือไม่ เหตุการณ์นั้นๆ เกิดขึ้นเมื่อใด  มีหลักฐานใดๆ ที่สามารถยืนยันเหตุการณ์ได้บ้างหรือไม่ มีข้อมูลเพิ่มเติมใดๆ ที่จะช่วยให้เข้าใจบริบทเหตุการณ์ที่เกิดขึ้นมากขึ้นบ้างหรือไม่ เป็นต้น
  1. ข่าวพาดหัวยั่วให้คลิกและข่าวหวือหวาจากต่างประเทศ (Clickbait and tabloid content)

นอกจากสื่อไทยจะมีประวัติรายงานข่าวเกี่ยวกับประเทศตัวเองถูกบ้างผิดบ้าง เวอร์หรือคลิกเบตบ้าง ปัญหาดังกล่าวยังลามไปถึงข่าวต่างประเทศด้วย เพราะมีหลายกรณีที่สื่อไทยมักเอาข่าวหวือหวาจากสื่อที่ไม่มีความน่าเชื่อถือในต่างประเทศ มาแปลและรายงานต่ออีกที ทำให้ประชาชนที่อ่านหรือดูข่าวนั้นๆ รับเอาข้อมูลเท็จหรือความเข้าใจผิดไปอีกต่อด้วย 

ยกตัวอย่างเมื่อปีที่แล้ว สื่อไทยจำนวนหนึ่งรายงานข่าวใหญ่โตว่า เกิดรัฐประหารที่ประเทศจีน ประธานาธิบดีสีจิ้นผิงถูกควบคุมตัว กรุงปักกิ่งและเมืองสำคัญในจีนห้ามเครื่องบินและรถไฟเข้าออกอย่างสิ้นเชิง ฯลฯ แต่เมื่อตรวจสอบดู กลับพบว่าที่มาของข่าวดังกล่าวมาจากข่าวแทบลอยด์ในประเทศอินเดีย และบัญชีทวิตเตอร์จำนวนหนึ่งเท่านั้น

และเมื่อไม่นานมานี้ สื่อแทบลอยด์ในตะวันตกจำนวนหนึ่งรายงานว่า ‘คิมจองอึน’ ผู้นำเกาหลีเหนือ ร่ำไห้ขณะกล่าววิงวอนให้ผู้หญิงเกาหลีเหนือมีลูกให้เยอะขึ้น แต่หากตรวจสอบคลิปวิดิโอการประชุมดังกล่าว จะพบว่าคิมจองอึนร้องไห้ในช่วงที่ฟังข้อมูลเกี่ยวกับวีรกรรมและความเสียสละของผู้หญิงเกาหลีเหนือในช่วงสงครามเกาหลี ไม่ได้ร้องไห้ขณะพูดถึงนโยบายส่งเสริมการมีลูกแต่อย่างใด

“เอ๊ะ” ยังไง?

  • หลีกเลี่ยงการนำเอาข่าวจากสำนักข่าวเชิงแทบลอยด์ในต่างประเทศ เช่น The Sun, Daily Mail, Telegraph ฯลฯ มาแปลเป็นข่าวและเผยแพร่ต่อ เนื่องจากสำนักข่าวเหล่านี้มีประวัติเผยแพร่ข่าวที่เป็นเท็จ ไม่มีที่มาหรือหลักฐานยืนยันชัดเจน และมักจะใส่สีตีไข่ให้ “เวอร์” เกินความเป็นจริงอยู่บ่อยครั้ง
  • สื่อมวลชนควรเลือกแปลข่าวจากสำนักข่าวต่างประเทศที่มีความเคร่งครัดต่อจริยธรรมและความถูกต้องของข้อมูลอย่างสูง เช่น สำนักข่าวประเภท wire service อย่าง AP, AFP, Reuters หรือสำนักข่าวมืออาชีพที่ได้รับการยอมรับอย่างแพร่หลายในวงการวิชาชีพสื่อสากลอย่าง BBC, New York Times, The Guardian เป็นต้น
  • พึงระลึกว่าเมื่อเกิดเหตุการณ์ระดับ “เขย่าโลก” สื่อต่างประเทศประเภท wire service มักจะรายงานอย่างฉับไวเป็นประจำ ดังนั้น ถ้าหากเจอคลิป หรือภาพ หรือโพสต์ในโซเชียลมีเดียที่อ้างว่าเกิดเหตุการณ์สำคัญในต่างประเทศ แต่สื่อประเภท wire service มิได้รายงานหรือพูดถึงเหตุการณ์ดังกล่าวเลย ให้สันนิษฐานไว้ก่อนเลยว่า คำกล่าวอ้างนั้นๆ ไม่น่าเชื่อถือ และไม่ควรเอามารายงานเป็นข่าว
  • พึงระลึกว่าในปัจจุบัน บัญชีทวิตเตอร์ (เอ็กซ์) ที่มีเครื่องหมายติ๊กถูกสีฟ้า (bluecheck) ไม่ได้แปลว่ามีความน่าเชื่อถือเสมอไป ซ้ำร้าย บัญชีเหล่านี้มักจะเอาข่าวลวงหรือข่าวบิดเบือนมาเผยแพร่ต่อด้วย เพราะใครๆก็สามารถ “ซื้อ” เครื่องหมายดังกล่าวได้ ต่างจากทวิตเตอร์สมัยก่อนที่จะให้เครื่องหมายติ๊กถูกสีฟ้าเฉพาะกับสื่อมวลชนและผู้เชี่ยวชาญที่น่าเชื่อถือเท่านั้น
  1. คำอวดอ้างสรรพคุณเกินจริง (Pseudoscience) 

ถึงแม้ประเทศไทยเราอาจจะยังไม่ได้มีความก้าวหน้าทางเทคโนโลยีและวิทยาศาสตร์เทียบเท่ากับหลายชาติมหาอำนาจ และยังไม่เคยมีคนไทยชนะรางวัลโนเบลแม้แต่คนเดียว 

แต่เรากลับเห็นกรณีบุคคลหรือธุรกิจบางประเภทที่อ้างว่าได้ค้นพบนวัตกรรมที่ท้าทายความรู้ทางวิทยาศาสตร์ในโลกสากลอยู่บ่อยครั้ง เช่น ประดิษฐ์เครื่องยนต์ที่ไม่ต้องใช้น้ำมัน, ผลิตยาสมุนไพรรักษาโรคมะเร็ง, อาหารเสริมที่ทำให้ลดความอ้วนได้ภายในเวลาไม่กี่เดือน ฯลฯ และสื่อไทยมักจะเอาคำอวดอ้างเช่นนี้มารายงานต่อโดยไม่ตรวจสอบข้อเท็จจริงเสียก่อนอยู่เป็นประจำ นับว่านอกจากจะขัดต่อหลักจริยธรรมพื้นฐานของวิชาชีพสื่อมวลชนแล้ว ยังอาจจะเป็นอันตรายต่อสุขภาพของประชาชนจำนวนมากด้วย

“เอ๊ะ” ยังไง?

  • ใช้ความรู้วิทยาศาสตร์ขั้นพื้นฐาน ตั้งข้อสังเกตว่าคำกล่าวอ้างนั้นๆ ฟังดูสมเหตุสมผลหรือเป็นไปได้หรือไม่ หรือใช้กูเกิ้ลตรวจสอบข้อเท็จจริงเบื้องต้น 
  • ติดต่อไปยังบุคคลหรือธุรกิจที่กล่าวอ้าง เพื่อขอหลักฐานเชิงประจักษ์ งานวิจัย และเอกสารการรับรองจากหน่วยงานที่เกี่ยวข้องว่าสินค้าหรือผลิตภัณฑ์นั้นๆ ทำงานตามอ้างได้จริง  
  • ติดต่อไปยังผู้ทรงคุณวุฒิ ผู้เชี่ยวชาญ และนักวิชาการ หรือหน่วยงานที่เกี่ยวข้อง เพื่อขอความเห็นหรือคำอธิบายเกี่ยวกับคำอวดอ้างนั้นๆ พร้อมชี้แจงข้อเท็จจริงให้ประชาชนได้รับทราบ 
  • หากเป็นคำอวดอ้างที่เกี่ยวข้องกับสุขภาพ ยา หรือการรักษาโรค สื่อมวลชนควรใช้วิจารณญาณไม่เผยแพร่คำอวดอ้างนั้นๆต่อโดยไม่มีหลักฐานที่ชัดเจน เพราะอาจจะสุ่มเสี่ยงสร้างความเสียหายในวงกว้างต่อสาธารณชนได้ 

สรุปส่งท้าย 

สังเกตได้ว่าไม่ว่าข่าวลวงหรือข่าวบิดเบือนจะมาในรูปแบบใด จะเป็นแบบเก่าหรือแบบใหม่ จะเป็นภาพผิดบริบทหรือคอนเทนต์ที่ AI ทำขึ้น วิธีการรับมือที่ง่ายและชัวร์ที่สุดสำหรับสื่อมวลชนก็คือ ใช้เวลาตรวจสอบที่มาและพิสูจน์ทราบข้อเท็จจริงเสียบ้าง แทนที่จะรีบลงข่าวทันทีเพื่อแข่งขันกันอย่างเดียว

ดังที่นักวิชาการด้านสื่อมวลชนท่านหนึ่ง เคยให้คำแนะนำกับผู้เขียนไว้ว่า ผลงานของสื่อมวลชนที่มีคุณภาพและยึดมั่นตามหลักจริยธรรม มักจะเป็นงานที่ให้โอกาสคนทำงานได้ใช้เวลา ขณะที่กรณีความผิดพลาดและละเมิดหลักจริยธรรมของสื่อมวลชน มักจะเกิดจากความรีบร้อน 

ดังนั้น สื่อมวลชนควรพึ่งระลึกว่านอกจาก “ความฉับไวของข่าว” แล้ว ยังต้องมี “ความถูกต้องของข่าว” เป็นหลักด้วย

ท้ายนี้ ผู้เขียนขอเป็นกำลังใจให้คนทำงานสื่อทุกคนให้หมั่นตรวจสอบข้อเท็จจริง ยึดมั่นในหลักวิชาชีพพื้นฐาน และช่วยกันเสริมสร้างวัฒนธรรม factcheck ให้เกิดขึ้นตั้งแต่ในกองบรรณาธิการ เพื่อลดโอกาสที่จะเกิดความผิดพลาด หรือเผยแพร่ข่าวลวง-ข่าวบิดเบือนให้ได้มากที่สุด 

นะงับ