รายงานพิเศษ ‘Prophetic Manga’ Predicts a Great Cataclysm Will Hit Japan in July 2025 ที่เผยแพร่บนเว็บไซต์นิตยสาร Tokyo Weekender ของญี่ปุ่น เมื่อวันที่ 8 พ.ค. 2568 ระบุว่า เรียว ทัตสึกิ อ้างว่าเธอฝันเห็นนิมิตมาเกือบ 50 ปีแล้ว โดยในช่วงต้นของทศวรรษ 1980 (ปี 2523 – 2532) เธอเริ่มบันทึกนิมิตและวันที่ฝันไว้ในสมุดบันทึก จากนั้นในปี2542 จึงได้หยิบบางส่วนจากบันทึกมาวาดเผยแพร่เป็นผลงานมังงะเรื่อง The Future I Saw หรือในชื่อภาษาญี่ปุ่นคือ Watashi ga Mita Mirai
(ภาพ 02 ความเสียหายในภูมิภาคโทโฮคุของญี่ปุ่น จากเหตุแผ่นดินไหวและสึนามิในปี 2554) ที่มา : Tokyo Weekender
แม้จะกลายเป็นเรื่องร่ำลือกันอย่างกว้างขวาง แต่รายงานของ Tokyo Weekender ตั้งข้อสังเกตว่า ตลอดทั้งฉบับสมบูรณ์ของ Watashi ga Mita Mirai หรือ The Future I Saw ทัตสึกิพยายามหลีกเลี่ยงคำทำนายของเธอโดยบอกว่าความฝันของเธอหลายเรื่องเป็นสัญลักษณ์ เช่น ความฝันที่บอกว่าเธอเองจะตายในปี 2543 หรือความฝันเกี่ยวกับการปะทุของภูเขาไฟฟูจิ แต่ดูเหมือนว่าเธอจะแยกไม่ออกว่านิมิตไหนเป็นเรื่องจริงและนิมิตไหนไม่ใช่ คำถามแล้วเราจะรู้ได้อย่างไรว่ามหันตภัยเดือนกรกฎาคมจะไม่ใช่อย่างหลัง?
ในปี 2557 ยังเป็นปีแรกที่เริ่มใช้กฎ Must Have และรายการที่มีปัญหาคือการถ่ายทอดสดการแข่งขันฟุตบอลโลกรอบสุดท้าย ซึ่งทาง RS ได้ซื้อลิขสิทธิ์การถ่ายทอดสดไว้เมื่อหลายปีก่อนหน้าจะมีกฎ Must Have เกิดขึ้น แต่ กสทช. บอกว่าต้องถ่ายทอดให้ครบทุกนัดตามกฎ Must Have เรื่องนี้เป็นคดีความฟ้องร้องในศาลและ RS เป็นฝ่ายชนะ และเกิดบรรทัดฐานใหม่ คือ กฎ Must Have ของ กสทช. สามารถบังคับใช้ได้ แต่การบังคับใช้ต้องไม่มีผลย้อนหลัง
**ข้อมูลชุดแรกเป็นส่วนหนึ่งของการเก็บข้อมูลในสื่อสังคมออนไลน์เพื่อการศึกษาและวิเคราะห์เนื้อหา อารมณ์และพฤติกรรมของผู้ใช้งานในห้วงความตึงเครียดขัดแย้งตามแนวชายแดนและข้อพิพาทเขตแดนไทย-กัมพูชาที่ปะทุขึ้นมายับตั้งแต่เดือน พ.ค. 2568 ภายใต้โครงการวิจัย ชื่อ Why is there so much anger?: Exploring emotional landscapes and online narratives amid Thai-Cambodian tensions
10 มิ.ย. 2568 ภาคีโคแฟค (ประเทศไทย) ร่วมกับ Westminster Foundation for Democracy (WFD) , Decode.plus , และ คณะกรรมการนักนิติศาสตร์สากล (ICJ) จัดงานเสวนา “Digital Duty: Tech vs Online Violence Against Women in Politics ความรับผิดชอบบนโลกดิจิทัลและความรุนแรงต่อผู้หญิงในพื้นที่การเมือง” ณ สถานีโทรทัศน์ไทยพีบีเอส อาคาร A ชั้น 1
แต่อีกด้านหนึ่ง AI ก็มีผลกระทบเชิงลบ เช่น การละเมิดลิขสิทธิ์ (Copyright) การนำ AI ไปใช้ในทางที่ผิด อาทิ Deepfake (ปลอมใบหน้า – แปลงเสียง ซึ่งเชื่อมโยงกับการหลอกลวง) AI ทำงานผิดพลาด (Mistake) ซึ่งเป็นความผิดพลาดโดยไม่มีเจตนาโดยเฉพาะหน่วยงานภาครัฐจะกลัวมากเรื่องความไม่สมบูรณ์ของ AI แล้วไปให้ข้อมูลผิดๆ กับประชาชน รวมถึงการที่ AI จะมาแย่งงานของมนุษย์ (Job Replacement) อย่างที่พูดถึงกันมากคือคนที่ใช้ AI เป็นจะมาแทนคนที่ใช้ไม่เป็น
การทำหน้าจอแนวตั้งเพื่ออำนวยความสะดวกสำหรับผู้ที่รับชมผ่านโทรศัพท์มือถือ การทดลองทำผู้ประกาศแบบ Virtual เพื่อให้สื่อสารได้หลายภาษาเป็นต้น กระทั่งการเกิดขึ้นของเครื่องมืออย่าง ChatGPT เมื่อประมาณ 2 ปีก่อน ก็เริ่มคิดกันว่าหากในอนาคตจำเป็นต้องใช้ AI ในห้องข่าว (Newsroom) จะทำอย่างไรได้บ้าง ซึ่งก็เป็นช่วงที่สภาการสื่อมวลชนแห่งชาติก็มีแนวปฏิบัติเรื่องการใช้ AI ออกมา ถือว่ามีประโยชน์มากและ ThaiPBS อาจต้องนำมาใช้เขียนแนวปฏิบัติของตนเอง
แต่ด้วยความที่ AI มีพลวัติและการขับเคลื่อนอย่างรวดเร็ว จึงนำ AI มาใช้ใน 2 ส่วน คือ 1.งาน Production เช่น สร้าง Storyboard ช่วยหาแนวคิด พบว่าเกิดประสิทธิภาพในการทำงานมากขึ้น กับ 2.ใช้สนับสนุนการแปลภาษา อย่างไรก็ตาม ต้องย้ำว่า “ไม่ได้ใช้ AI ให้มีบทบาทกับห้องข่าวทั้งหมด แต่ใช้เพื่อสนับสนุนการทำงานข่าว” แต่การใช้ AI ก็อาจมีข้อผิดพลาดเกิดขึ้นจึงจำเป็นต้องมีมนุษย์ช่วยดูแล หรืออย่างการให้ AI ช่วยสร้างกราฟิกเพื่ออธิบายข้อมูล หากทักษะไม่เพียงพอ สิ่งที่ AI สร้างขึ้นก็อาจผิดเพี้ยนได้ เป็นเรื่องที่ต้องระวังอย่างสูงมาก
“รอยเตอร์เพิ่งเผยแพร่รายงาน ประเทศไทยเป็นประเทศแรกๆ ของโลกที่รู้สึกสะดวกสบายกับการใช้ AI แล้วก็ไม่รู้สึกว่า AI เป็นความเสี่ยงในการใช้ พอเรามานั่งดูการใช้งานในชีวิตประจำวันจริงๆ เราก็พบว่าเป็นอย่างนั้น แต่จากการสำรวจก็พบว่าผู้ชมของเราเขาจะรู้สึกว่าถ้าเอา AI มาใช้เป็นหลักแล้วมนุษย์แค่ Approve (รับรอง) ให้ถูกสร้างออกมาจาก AI คนที่เป็นผู้ชมอาจรู้สึกไม่ค่อยเชื่อถือเท่าไร ในทางกลับกันถ้ามนุษย์เป็นคนนำแล้วเอา AI มาช่วยสนับสนุน ผู้ชมของเราจะรู้สึก Comfortable (สะดวกสบาย) หรือปลอดภัยมากกว่าใช้ AI เป็นตัวนำ ตรงนี้น่าสนใจว่าแล้วจริงๆ การใช้ AI ในห้องข่าวหรือในมุมมองของสื่อมวลชนเอง ผู้ชม – ผู้อ่านเขารู้สึกอย่างไร” น.ส.ชุตินธรา กล่าว
นายจีรพงษ์ ประเสริฐพลกรัง เลขาธิการสมาคมนักข่าวนักหนังสือพิมพ์แห่งประเทศไทย กล่าวว่า การมาของ AI ทำให้คนทำงานคุณภาพออกจากอุตสาหกรรมสื่อไปเป็นจำนวนมากเพราะปรับตัวไม่ทัน ถ่ายรูป – ถ่ายวิดีโอด้วยโทรศัพท์มือถือไม่เป็นบ้าง ใช้สื่อสังคมออนไลน์ไม่เป็นบ้าง หรือชอบที่จะฟังคลิปเสียงสัมภาษณ์แล้วแกะถอดความด้วยตนเองมากกว่าจะใช้ AI ช่วยถอดเสียงเป็นตัวหนังสือ จะทำอย่างไรที่จะเข็นให้คนกลุ่มนี้อยู่ในอุตสาหกรรมต่อไปได้ ซึ่งระยะหลังๆ ก็มีเสียงสะท้อนจากผู้บริโภคสื่อว่าเหตุใดคุณภาพข่าวจึงลดลง
ซึ่งที่ผ่านมาก็เคยพบคนที่ออกจากอุตสาหกรรมสื่อแล้วไปเปิดช่องทางออนไลน์ของตนเอง แล้วบอกว่าสนุกมากกับการใช้ AI มาช่วยทำงานเพราะแทบไม่มีต้นทุน มีข่าวจากสำนักข่าวต่างๆ ให้นำไปใช้โดยไม่เสียค่าใช้จ่าย เพียงใส่คำสั่งให้ AI เรียบเรียงเนื้อหาขึ้นมาใหม่ (Rewrite) เท่านั้น ได้เนื้อหาไปนำเสนอในช่องทางออนไลน์ เท่านี้ก็มีรายได้แล้ว หรือการแปลข่าวต่างประเทศก็แปลไปโดยที่ไม่รู้บริบทหรือความสะเอียดของภาษา ก็ไม่รู้ว่าที่แปลมานั้นถูก – ผิดอย่างไร
อย่างในงานวันเสรีภาพสื่อมวลชนโลก สื่อถูกตั้งคำถามว่าเหคุใดคุณภาพงานลดลง ที่ลดก็เพราะองค์กรปรับคนทำงานคุณภาพออกไปแล้วแทนที่ด้วย AI มองว่าจ่ายค่าบริการรายปีดีกว่าจ่ายเงินเดือนพนักงาน ส่วนคนที่ยังอยู่ในองค์กรก็จะเหมือนเป็ดที่ทำได้ทุกอย่างแต่ไม่เก่งสักอย่าง หรือมีกรณีไปฟังแถลงข่าว นักข่าวพูดใส่โทรศัพท์มือถือตามที่แหล่งข่าวให้สัมภาษณ์โดยที่อาจไม่เข้าใจสิ่งที่แหล่งข่าวนำเสนอ ความลึกและความแม่นของข่าวจึงหายไป มีแต่ข่าวฉาบฉวย เน้นความง่ายและความเร็วหรือใช้ AI ถอดข้อความจากเอกสารเข้ามาอยู่ในโทรศัพท์มือถือ หากไม่ตรวจก่อนก็จะไม่รู้ว่า AI อาจถอดให้มาแบบผิดๆ ก็ได้
นายระวี ตะวันธรงค์ กรรมการจริยธรรม สภาการสื่อมวลชนแห่งชาติ กล่าวว่า ตนเพิ่งได้เป็นสมาชิกของ World Association of Newspapers and News Publishers มีการแชร์ข้อมูลกัน ซึ่งมีข้อมูลที่พบว่าประเทศไทยเป็นดาวเด่นในการเชื่อและตื่นเต้นกับการใช้ AI เป็นลำดับแรกๆ ของโลก ในขณะที่อีกหลายประเทศไม่ได้ตื่นเต้น เพราะรู้ว่าการใช้ต้องมีจริยธรรมและการรู้เท่าทัน (Ethics & Literacy) คนไทยพร้อมจะเชื่อโดยไม่รู้ว่าข้อมูลที่ AI ใช้นั้นมาจากสำนักข่าวหรือไม่
รวมถึงการมาของ AI จึงถูกมุ่งไปที่การหาข่าวหรือการพาดหัวที่สร้าง Engagement ดังนั้นหากจะทำให้สื่ออยู่ได้ก็ต้องมีเรื่องลิขสิทธิ์เข้ามา เพราะหากเนื้อหาต้นฉบับ (Original Content) ที่สร้างไว้มีมูลค่า และที่บอกว่าคนไทยเชื่อ AI เพราะทุกคนเอาข้อมูลไปเล่าเนื่องจากได้เงินง่าย และการใช้ AI ก็ไม่มีต้นทุน กวาดรวมข้อมูลหรือเนื้อหามาแล้วก็ได้เงิน แต่เงินนั้นมาจากเนื้อหาต้นฉบับที่คนอื่นสร้างไว้ ดังนั้นเรื่องลิขสิทธิ์ต้องมาก่อน คนทำแอปพลิเคชั่นใช้ AI กวาดข้อมูลต้องซื้อลิขสิทธิ์ เพื่อให้ผู้ผลิตเนื้อหาต้นฉบับอยู่ได้และ AI ก็ยังไปต่อได้
ในช่วงท้ายยังมีการยื่นข้อเสนอ ประกอบด้วย 1.ต่อรัฐบาล ดังนี้ 1.1 กำหนเกรอบนโยบายแห่งชาติว่าด้วย AI กับภาคส่วนต่างๆ 1.2 เตรียมความพร้อมต่อการกำกับดูแลโดยกฎหมาย 1.3 ให้ความสำคัญกับกฎหมายลิขสิทธิ์ที่จะช่วยสร้างมูลค่าให้กับเนื้อหาดั้งเดิม 1.4 สร้างการมีส่วนร่วมจากภาคผู้เชี่ยวชาญในการกำหนดความเสี่ยงจาก AI เพื่อนำไปสู่การกำกับดูแล 1.5 ส่งเสริมการร่วมมือระหว่างรัฐ มหาวิทยาลัยและองค์กรสื่อ ในการพัฒนา AI ที่รับผิดชอบและให้ความสำคัญต่อนโยบายพัฒนาการรู้เท่าทัน AI ต่อประชาชน
2.ต่อ Global Platform และผู้สนับสนุนรายได้ (ทั้งค่าย AI สื่อสังคมออนไลน์และเอเจนซี่โฆษณา)ดังนี้ 2.1 ให้ความสำคัญกับเนื้อหาคุณภาพ แหล่งข่าวที่น่าเชื่อถือ นอกเหนือจากความนิยมเพียงอย่างเดียว และ AI ควรเรียนรู้เรื่องจริยธรรมและสิ่งที่ควรระวังด้วย 2.2 ควรนำเข้าข้อมูลจากแหล่งข่าวที่น่าเชื่อถือเท่านั้นเข้าสู่ระบบ Machine Learning ไม่นำข้อมูลที่สร้างจาก AI มาเรียนรู้ซ้ำ
2.3 จัดให้มีระบบ Warning ที่จะป้องกันปัญหาจากข้อมูลบิดเบือน 2.4 ร่วมพัฒนาแนวทางการใช้ AI ตรวจสอบข่าวปลอมกับองค์กรสื่อ โดยยึดหลักโปร่งใส เปิดเผยโมเดล และไม่ลำเอียงต่อกลุ่มความเชื่อใดๆ 2.5 ให้ผู้ผลิตข่าวสามารถปิดกั้นการดัดแปลงโดย AI ได้ เช่น การห้าม Large Language Model (LLM) นำบทความไปฝึกโมเดลโดยไม่ได้รับอนุญาต หรือต้องมีการซื้อ – ขายข้อมูลให้ถูกต้องในเรื่องลิขสิทธิ์
3.ต่อองค์กรสื่อมวลชน ดังนี้ 3.1 สร้างแนวปฏิบัติและเครื่องมือการบังคับใช้แนวปฏิบัติการใช้ AI ในองค์กรข่าว ซึ่งถือเป็นระดับ Community Level ในการกำกับดูแลกันเองด้านการใช้ AI เช่น การตั้งคณะทำงานภายในองค์กร ตรวจสอบการใช้งาน AI อย่างสม่ำเสมอ 3.2 สร้างแนวปฏิบัติที่ดีของธรรมาภิบาล AI ในองค์กรสื่อ และแสวงหาแนวทางการรักษางานของมนุษย์ 3.3 อบรมสื่อมวลชนเรื่องการรู้เท่าทัน AI กำหนดนโยบายจริยธรรม AI เช่น การใช้ AI เรียบเรียงข่าว ตรวจคำผิด สร้างภาพ ควรเปิดเผยต่อสาธารณะ
ให้ความรู้เรื่องข้อจำกัดของ AI ความลำเอียงของโมเดล และการตรวจสอบข้อมูลจาก AI 3.4 ยึดถึงในคุณค่าของวารสารศาสตร์ รวมถึงระมัดระวังไม่ใช้ AI แทนมนุษย์ในกระบวนการตัดสินใจเชิงจริยธรรม เช่น การพิจารณาเผยแพร่ข่าว่อ่อนไหวภาพรุนแรง หรือข้อมูลส่วนบุคคล 3.5 รณรงค์ให้สื่อมวลชนรักษาคุณภาพของเนื้อหา โดยระมัดระวังเรื่องการใช้ AI อย่างขาดการกำกับดูแลที่ดี เพื่อสร้างความน่าเชื่อถือและความไว้วางใจของสื่อ
และ 4.ต่อผู้บริโภคสื่อและภารวิชาการ ดังนี้ 4.1 พัฒนาทักษะของตนเองในการใช้และอยู่กับ AI 4.2 สร้างองค์ความรู้และพัฒนาความฉลาดทางดิจิทัล และการรู้เท่าทัน AI แก่สื่อมวลชนและประชาชนที่เป็นทั้งผู้บริโภคสื่อและผู้สร้างเนื้อหาบนสื่อออนไลน์ได้ด้วยในเวลาเดียวกัน 4.3 ภาคประชาชนต้องรวมพลังกันเพื่อส่งเสริมสิทธิผู้บริโภคในการรับรู้ว่าเนื้อหานั้นมาจาก AI หรือมนุษย์ 4.4 เสริสร้างทักษะการรู้เท่าทัน AI แก่สาธารณะ ให้รู้เท่าทันการดัดแปลงเนื้อหา เช่น Deepfake , Chatbot , Voice clone 4.5 เรียกร้องให้ผู้เกี่ยวข้องเปิดช่องทางร้องเรียนหรือรายงานเนื้อหา AI ที่ผิดจริยธรรม และให้แพลตฟอร์มหรือสื่อดำเนินการแก้ไขอย่างโปร่งใส.