ถึงเวลาไทยต้องมีแนวปฏิบัติกำกับดูแล‘AI’เครื่องมือเอื้อ‘ง่าย-เร็ว’ยิ่งต้องสร้างความรู้เท่าทัน

เมื่อวันที่ 24 มิ.ย. 2568 สภาการสื่อมวลชนแห่งชาติ ร่วมกับ สมาคมนักข่าวนักหนังสือพิมพ์แห่งประเทศไทย สมาคมผู้ผลิตข่าวออนไลน์ คณะนิเทศศาสตร์ จุฬาลงกรณ์มหาวิทยาลัย ภาคีโคแฟค (ประเทศไทย) และ ThaiPBS จัดเสวนา Side-Event “UNESCO Global Forum on the Ethics of AI 2025” ที่ห้องประชุม ดร.เทียม โชควัฒนา อาคารมงกุฎสมมุติวงศ์ คณะนิเทศศาสตร์ จุฬาลงกรณ์มหาวิทยาลัย
รศ.ดร.ปรีดา อัครจันทโชติ คณบดีคณะนิเทศศาสตร์ จุฬาลงกรณ์มหาวิทยาลัย กล่าวว่า ในยุคที่บอท (Bot) กระจายข่าวได้เร็วกว่านักข่าว และปัญญาประดิษฐ์ (AI) ลอกเลียนเสียงมนุษย์ได้แม่นยำ บทบาทของนักข่าว ผู้ตรวจสอบข้อเท็จจริงและผู้ใช้สื่อไม่ได้ลดน้อยลงไป แต่ถูกนิยามด้วยอะไรบางอย่าง ส่วนการตรวจสอบข้อเท็จจริงก็ใช่เพียงการลบล้างข่าวปลอม แต่เป็นการสร้างภูมิคุ้มกันแห่งความเชื่อมั่น และสร้างพลังให้กับประชาชนคิดอย่างมีวิจารณญาณ ท่ามกลางโลกที่เต็มไปด้วยความแน่นอนจำลอง
“AI เองก็มีศักยภาพ ขณะเดียวกันก็มีความเสี่ยง ถ้าใช้อย่างรับผิดชอบก็จะช่วยยืนยันแหล่งข้อมูล ช่วยวิเคราะห์รูปแบบ และคุ้มครองนักข่าวจากอันตรายที่เกิดจากดิจิทัล แต่ถ้าเกิดปล่อยให้เป็นไปโดยไร้การควบคุมก็อาจบิดเบือนความจริงได้ เวทีในวันนี้จึงสะท้อนพันธะร่วมกันของเราทุกคนในการปกป้องสิทธิของสาธารณชน ซึ่งไม่ใช่เรื่องความเร็วเท่านั้น แต่ยังต้องทำงานอย่างลึกซึ้ง ซื่อสัตย์และรอบด้านด้วย”รศ.ดร.ปรีดา กล่าว
นายชวรงค์ ลิมป์ปัทมปาณี ประธานสภาการสื่อมวลชนแห่งชาติ กล่าวว่า สภาการสื่อมวลชนแห่งชาติ มีการออกแนวปฏิบัติเรื่องการใช้ปัญญาประดิษฐ์ (AI) อย่างมีจริยธรรม มาตั้งแต่เดือน พ.ย. 2567 ซึ่งเวลานั้นการใช้ AI ในงานสื่อมวลชนยังไม่แพร่หลายมากเท่าปัจจุบันที่ใช้กันในทุกมิติ เช่น จากที่ใช้เพียงการสร้างภาพสมมติเพื่อประกอบข่าว ก็ใช้ทั้งสรุปข่าว ย่อข่าว เขียนข่าว หาข้อมูล ทำกราฟิก ไปจนถึงสร้างเป็นผู้ประกาศมาอ่านข่าวแทนมนุษย์
ซึ่งสภาการสื่อมวลชนแห่งชาติก็เตรียมที่จะทบทวน เพราะตอนออกแนวปฏิบัติก็ทำใจแล้วว่าน่าจะมีการปรับปรุงบ่อยที่สุด เพราะ AI ทั้งตัวเทคโนโลยีและการใช้งานมีการเปลี่ยนแปลงและปรับตัวอย่างรวดเร็ว ดังนั้นช่วง 6 เดือน จึงเวลาเหมาะสมที่จะต้องมาทบทวนกันรอบหนึ่ง โดยมอบโจทย์ให้ทางคณะกรรมการจริยธรรมไปดู อย่างไรก็ตาม การจัดงานครั้งนี้ก็เป็นโอกาสอีกครั้งหนึ่งที่จะได้มาทบทวน
“ขณะเดียวกันเราพบว่าตัวแพลตฟอร์มซึ่งมีการใช้ AI อยู่แล้ว ก็จะมีผลต่อการทำงานของเรา ทำอย่างไรที่เขาจะเอาข่าวของเราที่มีการตรวจสอบเป็นข่าวจริงต่างๆ มานำเสนอ หรือเขาจะไปเลือกเอาข่าวที่อาจมีความจริงแฝงมาเสนอด้วย อันนี้ก็ขึ้นอยู่กับตัวแพลตฟอร์มว่าจะต้องมีความรับผิดชอบร่วมกันด้วย” ประธานสภาการสื่อมวลชนแห่งชาติ กล่าว
ดร.ชัย วุฒิวิวัฒน์ชัย ผู้อำนวยการศูนย์เทคโนโลยีอิเล็กทรอนิกส์และคอมพิวเตอร์แห่งชาติ (NECTEC) ปาฐกถา เรื่อง “AI กับจริยธรรมสื่อมวลชน : เมื่ออัลกอริทึมมีอิทธิพลต่อความจริง”กล่าวถึงประโยชน์ของ AI ในวงการสื่อ เช่น การผลิตหรือรวบรวมเนื้อหา (Content Creation/Curation) ทำวิดีโอ ตรวจจับข่าวปลอม (Detect Fake News) ทำระบบอัตโนมัติ (Automation) หลังบ้าน แปลภาษา วิเคราะห์ผู้รับสาร ฯลฯ
แต่อีกด้านหนึ่ง AI ก็มีผลกระทบเชิงลบ เช่น การละเมิดลิขสิทธิ์ (Copyright) การนำ AI ไปใช้ในทางที่ผิด อาทิ Deepfake (ปลอมใบหน้า – แปลงเสียง ซึ่งเชื่อมโยงกับการหลอกลวง) AI ทำงานผิดพลาด (Mistake) ซึ่งเป็นความผิดพลาดโดยไม่มีเจตนาโดยเฉพาะหน่วยงานภาครัฐจะกลัวมากเรื่องความไม่สมบูรณ์ของ AI แล้วไปให้ข้อมูลผิดๆ กับประชาชน รวมถึงการที่ AI จะมาแย่งงานของมนุษย์ (Job Replacement) อย่างที่พูดถึงกันมากคือคนที่ใช้ AI เป็นจะมาแทนคนที่ใช้ไม่เป็น
ทั้งนี้ ในมุมมองของตน ประเด็นปัญญาประดิษฐ์กับจริยธรรมและธรรมาภิบาล (AI Ethics & Governance) แบ่งได้เป็น 3 ระดับ คือ 1.ประเทศ ซึ่งมีการถกเถียงกันว่าจะไปทางใดระหว่างจริยธรรมกับกฎหมาย จึงมีการพูดถึงจุดกึ่งกลางของทั้ง 2 ด้าน คือ มาตรฐาน (Standard) หมายถึงหากผุ้ใช้งานเลือกใช้เครื่องมือ AI ที่มีมาตรฐาน ก็ทำให้แน่ใจได้ว่า AI จะไม่ผลิตเนื้อหาที่ผิดจริยธรรม
โดยมาตรฐานแบ่งได้ 3 ด้านหลักๆ คือ 1.ความมั่นคงปลอดภัย (Safety & Security) ผู้ใช้งานใส่ข้อมูลลงไปในเครื่องมือ AI แล้วจะไม่หลุดออกไปที่อื่น 2.ความแม่นยำ (Precision) ไม่ใช่สร้างเนื้อหาผิดเพี้ยน (Hallucinate) และ 3.การใช้ข้อมูล (Data) เครื่องมือ AI นั้นฝึกโดยใช้ข้อมูลจากแหล่งใด เป็นข้อมูลที่มีอคติ (Bias) มาก – น้อยเพียงใด ละเมิดความเป็นส่วนตัว/ละเมิดลิขสิทธิ์หรือไม่
หรือหากสุดท้ายจำเป็นต้องไปที่กฎหมาย มีตัวอย่างกฎหมายของสหภาพยุโรป (EU) ที่แบ่งการควบคุมการพัฒนาและการใช้งาน AI ไว้ 4 ระดับ คือ 1.ไม่อาจยอมรับได้ ห้ามทำเด็ดขาด เช่น การให้คะแนนทางสังคม (Social Scoring) 2.ความเสี่ยงสูง ต้องประเมินให้ผ่านมาตรฐานตามที่กำหนดจึงจะอนุญาตให้ผลิตหรือใช้งานได้ 3.ความเสี่ยงปานกลาง ต้องแจ้งผู้ใช้งานว่าเครื่องมือ AI ปฏิบัติตามข้อกำหนดจริยธรรมอย่างไร มีข้อมูลกำกับ และ 4.เสี่ยงน้อย ก็ไม่ต้องมีข้อกำหนดใดๆ เหมือนกับ 3 ระดับข้างต้น
2.ประชาคม เช่น แนวปฏิบัติของสภาการสื่อมวลชนแห่งชาติ ในหมวด 3 ว่าด้วยการใช้ AI ในระดับองค์กร และหมวด 4 ว่าด้วยการใช้ AI ในระดับบุคคลที่ประกอบอาชีพ ซึ่งสิ่งที่ต้องดำเนินการต่อไปคือองค์กรสื่อแต่ละแห่ง หากเป็นองค์กรที่ดีมีจริยธรรมก็จะต้องนำไปออกแนวปฏิบัติภายในของตนเอง และ 3.ปัจเจกบุคคล ก็ต้องเข้าใจและระมัดระวังกฎหมายที่เกี่ยวข้อง เช่น กฎหมายข้อมูลส่วนบุคคล กฎหมายความมั่นคงปลอดภัยไซเบอร์ กฎหมายลิขสิทธิ์ เป็นต้น
แต่โดยสรุปแล้วหากเป็นไปได้ก็ไม่อยากให้ออกกฎหมายพิเศษเพิ่มเติม โดยยกตัวอย่างกฎหมายดั้งเดิมที่มีอยู่แล้ว เช่น ด้านการแพทย์ – สาธารณสุข สำนักงานคณะกรรมการอาหารและยา (อย.) มีหลักเกณฑ์ตรวจสอบเครื่องมือแพทย์ที่เข้มงวดมาก ซึ่งรวมถึงเครื่องมือแพทย์ที่ใช้เทคโนโลยี AI ด้วย หากไม่ผ่านเกณฑ์ก็ไม่อนุญาตให้นำมาใช้ หรืออย่างเรื่องลิขสิทธิ์ก็มีกฎหมายอยู่ คำถามคือแล้ววงการสื่อเป็นอย่างไร มีกฎหมายคุ้มครองอยู่แล้วหรือไม่ เพียงขยายให้ครอบคลุมสิ่งที่ AI จะมีขึ้นก็น่าจะเพียงพอ ไม่ต้องออกกฎหมายพิเศษ
“สิ่งที่ควรจะเป็นทางออกในวันนี้ก็คือนโยบาย แนวปฏิบัติ ข้อกำหนดระดับประชาคม อย่างน้อยที่สุดสมาคมหรือสภาของทางสื่อมวลชนเอง กำกับดูแลตัวเองเช่นเดียวกับหลายๆ ภาคส่วน ภาคเอกชนหลายภาคส่วนก็ทำอย่างเดียวกัน ผมคิดว่าที่ดีมากๆ คือการสร้าง Best Practice (แนวปฏิบัติที่ดี) ผมยกตัวอย่าง ThaiPBS ใช้ AI เยอะมาก แล้วมีวิธีทำ AI Governance (ธรรมาภิบาล AI) อย่างไร ควบคุมได้จริงหรือไม่ ถ้าควบคุมได้จริงเอาขึ้นมาเป็น Best Practice ให้กับหน่วยงานอื่นๆ พิจารณาต่อ อันนี้ผมคิดว่าเป็นทางที่ดีมากๆ” ผอ. NECTEC กล่าว
จากนั้นเป็นการเสวนาหัวข้อ “ข้อเสนอเชิงนโยบายสาธารณะ ในประเด็นเรื่องสื่อและจริยธรรม AI” โดย น.ส.ชุตินธรา วัฒนกุล บรรณาธิการบริหารข่าวออนไลน์ ThaiPBS เปิดเผยว่า ที่ผ่านมา ThaiPBS ใช้เทคโนโลยีปัญญาประดิษฐ์ (AI)สนับสนุนงานข่าวในหลายเรื่อง เช่น แปลงเนื้อหาตัวอักษรเป็นเสียงบรรยาย (Text to Speech) เพื่อช่วยอำนวยความสะดวกให้กับผู้พิการทางสายตา หรือผู้ติดตามข่าวสารแต่ไม่สะดวกที่จะอ่าน
การทำหน้าจอแนวตั้งเพื่ออำนวยความสะดวกสำหรับผู้ที่รับชมผ่านโทรศัพท์มือถือ การทดลองทำผู้ประกาศแบบ Virtual เพื่อให้สื่อสารได้หลายภาษาเป็นต้น กระทั่งการเกิดขึ้นของเครื่องมืออย่าง ChatGPT เมื่อประมาณ 2 ปีก่อน ก็เริ่มคิดกันว่าหากในอนาคตจำเป็นต้องใช้ AI ในห้องข่าว (Newsroom) จะทำอย่างไรได้บ้าง ซึ่งก็เป็นช่วงที่สภาการสื่อมวลชนแห่งชาติก็มีแนวปฏิบัติเรื่องการใช้ AI ออกมา ถือว่ามีประโยชน์มากและ ThaiPBS อาจต้องนำมาใช้เขียนแนวปฏิบัติของตนเอง
แต่ด้วยความที่ AI มีพลวัติและการขับเคลื่อนอย่างรวดเร็ว จึงนำ AI มาใช้ใน 2 ส่วน คือ 1.งาน Production เช่น สร้าง Storyboard ช่วยหาแนวคิด พบว่าเกิดประสิทธิภาพในการทำงานมากขึ้น กับ 2.ใช้สนับสนุนการแปลภาษา อย่างไรก็ตาม ต้องย้ำว่า “ไม่ได้ใช้ AI ให้มีบทบาทกับห้องข่าวทั้งหมด แต่ใช้เพื่อสนับสนุนการทำงานข่าว” แต่การใช้ AI ก็อาจมีข้อผิดพลาดเกิดขึ้นจึงจำเป็นต้องมีมนุษย์ช่วยดูแล หรืออย่างการให้ AI ช่วยสร้างกราฟิกเพื่ออธิบายข้อมูล หากทักษะไม่เพียงพอ สิ่งที่ AI สร้างขึ้นก็อาจผิดเพี้ยนได้ เป็นเรื่องที่ต้องระวังอย่างสูงมาก
“รอยเตอร์เพิ่งเผยแพร่รายงาน ประเทศไทยเป็นประเทศแรกๆ ของโลกที่รู้สึกสะดวกสบายกับการใช้ AI แล้วก็ไม่รู้สึกว่า AI เป็นความเสี่ยงในการใช้ พอเรามานั่งดูการใช้งานในชีวิตประจำวันจริงๆ เราก็พบว่าเป็นอย่างนั้น แต่จากการสำรวจก็พบว่าผู้ชมของเราเขาจะรู้สึกว่าถ้าเอา AI มาใช้เป็นหลักแล้วมนุษย์แค่ Approve (รับรอง) ให้ถูกสร้างออกมาจาก AI คนที่เป็นผู้ชมอาจรู้สึกไม่ค่อยเชื่อถือเท่าไร ในทางกลับกันถ้ามนุษย์เป็นคนนำแล้วเอา AI มาช่วยสนับสนุน ผู้ชมของเราจะรู้สึก Comfortable (สะดวกสบาย) หรือปลอดภัยมากกว่าใช้ AI เป็นตัวนำ ตรงนี้น่าสนใจว่าแล้วจริงๆ การใช้ AI ในห้องข่าวหรือในมุมมองของสื่อมวลชนเอง ผู้ชม – ผู้อ่านเขารู้สึกอย่างไร” น.ส.ชุตินธรา กล่าว
นายจีรพงษ์ ประเสริฐพลกรัง เลขาธิการสมาคมนักข่าวนักหนังสือพิมพ์แห่งประเทศไทย กล่าวว่า การมาของ AI ทำให้คนทำงานคุณภาพออกจากอุตสาหกรรมสื่อไปเป็นจำนวนมากเพราะปรับตัวไม่ทัน ถ่ายรูป – ถ่ายวิดีโอด้วยโทรศัพท์มือถือไม่เป็นบ้าง ใช้สื่อสังคมออนไลน์ไม่เป็นบ้าง หรือชอบที่จะฟังคลิปเสียงสัมภาษณ์แล้วแกะถอดความด้วยตนเองมากกว่าจะใช้ AI ช่วยถอดเสียงเป็นตัวหนังสือ จะทำอย่างไรที่จะเข็นให้คนกลุ่มนี้อยู่ในอุตสาหกรรมต่อไปได้ ซึ่งระยะหลังๆ ก็มีเสียงสะท้อนจากผู้บริโภคสื่อว่าเหตุใดคุณภาพข่าวจึงลดลง
ซึ่งที่ผ่านมาก็เคยพบคนที่ออกจากอุตสาหกรรมสื่อแล้วไปเปิดช่องทางออนไลน์ของตนเอง แล้วบอกว่าสนุกมากกับการใช้ AI มาช่วยทำงานเพราะแทบไม่มีต้นทุน มีข่าวจากสำนักข่าวต่างๆ ให้นำไปใช้โดยไม่เสียค่าใช้จ่าย เพียงใส่คำสั่งให้ AI เรียบเรียงเนื้อหาขึ้นมาใหม่ (Rewrite) เท่านั้น ได้เนื้อหาไปนำเสนอในช่องทางออนไลน์ เท่านี้ก็มีรายได้แล้ว หรือการแปลข่าวต่างประเทศก็แปลไปโดยที่ไม่รู้บริบทหรือความสะเอียดของภาษา ก็ไม่รู้ว่าที่แปลมานั้นถูก – ผิดอย่างไร
อย่างในงานวันเสรีภาพสื่อมวลชนโลก สื่อถูกตั้งคำถามว่าเหคุใดคุณภาพงานลดลง ที่ลดก็เพราะองค์กรปรับคนทำงานคุณภาพออกไปแล้วแทนที่ด้วย AI มองว่าจ่ายค่าบริการรายปีดีกว่าจ่ายเงินเดือนพนักงาน ส่วนคนที่ยังอยู่ในองค์กรก็จะเหมือนเป็ดที่ทำได้ทุกอย่างแต่ไม่เก่งสักอย่าง หรือมีกรณีไปฟังแถลงข่าว นักข่าวพูดใส่โทรศัพท์มือถือตามที่แหล่งข่าวให้สัมภาษณ์โดยที่อาจไม่เข้าใจสิ่งที่แหล่งข่าวนำเสนอ ความลึกและความแม่นของข่าวจึงหายไป มีแต่ข่าวฉาบฉวย เน้นความง่ายและความเร็วหรือใช้ AI ถอดข้อความจากเอกสารเข้ามาอยู่ในโทรศัพท์มือถือ หากไม่ตรวจก่อนก็จะไม่รู้ว่า AI อาจถอดให้มาแบบผิดๆ ก็ได้
“อีกมิติหนึ่งขอสะท้อน ในเชิงสมาคมนักข่าวฯ อบรมนักศึกษา คนที่จะเข้าสู่วิชาชีพนักข่าวทุกปีเลย สิ่งที่เราเจอเรื่องหนึ่งคือเหมือนคนใช้สมองคิดน้อยลง สมมติมีโจทย์ ผมว่าทั้งนักศึกษา ทั้งนักข่าวปัจจุบัน นักข่าวใหม่เอง ถ้าเขาอยากทำอะไรขาไม่ได้หาแหล่งข้อมูลเหมือนเราแล้ว ไม่มีความสามารถในการโทรเช็คกับแหล่งข่าว ไม่รู้ว่าต้นทางของข้อมูลฉบับนี้ต้องหาที่หน่วยงานไหน เขียนแค่ Prompt ว่าฉันต้องการสถิติใน AI มันเอามาจากไหนก็ไม่รู้ ถูก – ผิดก็ไม่รู้ ด้วยความง่าย สะดวก เร็ว ทำให้คุณภาพลดลง” นายจีรพงษ์ กล่าว
นายระวี ตะวันธรงค์ กรรมการจริยธรรม สภาการสื่อมวลชนแห่งชาติ กล่าวว่า ตนเพิ่งได้เป็นสมาชิกของ World Association of Newspapers and News Publishers มีการแชร์ข้อมูลกัน ซึ่งมีข้อมูลที่พบว่าประเทศไทยเป็นดาวเด่นในการเชื่อและตื่นเต้นกับการใช้ AI เป็นลำดับแรกๆ ของโลก ในขณะที่อีกหลายประเทศไม่ได้ตื่นเต้น เพราะรู้ว่าการใช้ต้องมีจริยธรรมและการรู้เท่าทัน (Ethics & Literacy) คนไทยพร้อมจะเชื่อโดยไม่รู้ว่าข้อมูลที่ AI ใช้นั้นมาจากสำนักข่าวหรือไม่
หรืออย่างที่รอยเตอร์สำรวจความเชื่อมั่นสำนักข่าวแล้วไปพบนักเล่าข่าวในแพลตฟอร์ม TikTok ซึ่งข้อมูลชี้ว่าคนไทยอยู่ในเกณฑ์ที่เชื่ออะไรก็ได้ ไม่ได้สนว่าจะเป็นสำนักข่าวหรือไม่ อินฟลูเอนเซอร์หยิบข่าวจากสำนักข่าวไปเล่าแล้วมียอดคนดูมากกว่าตัวสำนักข่าวเจ้าของชิ้นงาน คือเราไม่มีการคิดเชิงวิเคราะห์ (Critical Thinking) ซึ่งน่ากังวลและประเทศไทยยังขาดความฉลาดทางดิจิทัล (Digital Quotient หรือ DQ) ว่าควรรู้เท่าทันและระมัดระวังในการใช้เทคโนโลยีดิจิทัลอย่างไร
“ปัญหาอยู่ที่การศึกษาให้ข้อมูลความรู้ ถ้าภาษาเดิมเรียกว่ารู้เท่าทันสื่อ ประเด็นคือเรายังไม่รู้เท่าทันเทคโนโลยี เราใช้แต่ยังไม่รู้เท่าทันเนื้อหาของมันจริงๆ พอไม่รู้เท่าทันสุดท้ายพอเราได้รับเนื้อหาบางเนื้อหา มันจะไม่ได้ขึ้นอยู่กับว่าอันนั้นจริง – ปลอม มันขึ้นอยู่กับใครส่งให้ มันยังเป็นวัฒนธรรม มันไม่เป็นการไตร่ตรอง มันก็เหมือนย้อนกลับไปที่พูดเรื่องข่าวปลอมบ่อยๆ ทำไมข่าวปลอมยังวิ่งอยู่ ทุกวันนี้ AI ก็ข่าวปลอมเหมือนกัน ดังนั้นเรื่องไม่ได้อยู่ที่ผู้ผลิต ต้องไปเป็นระดับกระทรวงที่ต้องให้ความรู้ตั้งแต่เด็กจนไปถึงผู้ใหญ่เลย” นายระวี กล่าว
นายนันทสิทธิ์ นิตย์เมธา นายกสมาคมผู้ผลิตข่าวออนไลน์ กล่าวว่า ต้องเข้าใจก่อนว่าเรากำลังพูดถึงธุรกิจสื่อซึ่งมีเรื่องกำไร – ขาดทุน แต่ปัญหาของธุรกิจสื่อคือรายได้ไม่เพียงพอ ดังนั้นความจริงหนึ่งที่ค้นพบคือ สำนักข่าวผลิตเนื้อหาคุณภาพออกมานำเสนอ แต่มีอินฟลูเอนเซอร์หยิบเนื้อหานั้นไปเล่าในพื้นที่ออนไลน์แล้วได้ยอดการมีส่วนร่วม (Engagement) สูงกว่าสำนักข่าว บริษัทโฆษณา (เอเจนซี่) กลับเลือกจ่ายเงินโฆษณากับอินฟลูฯ เพราะดูที่ยอด Engagement ดังนั้นคนที่อยู่ในธุรกิจสื่อจึงเลือกทำข่าวที่ได้ Engagement ดีก็เพื่อให้องค์กรยังอยู่ต่อไปได้
รวมถึงการมาของ AI จึงถูกมุ่งไปที่การหาข่าวหรือการพาดหัวที่สร้าง Engagement ดังนั้นหากจะทำให้สื่ออยู่ได้ก็ต้องมีเรื่องลิขสิทธิ์เข้ามา เพราะหากเนื้อหาต้นฉบับ (Original Content) ที่สร้างไว้มีมูลค่า และที่บอกว่าคนไทยเชื่อ AI เพราะทุกคนเอาข้อมูลไปเล่าเนื่องจากได้เงินง่าย และการใช้ AI ก็ไม่มีต้นทุน กวาดรวมข้อมูลหรือเนื้อหามาแล้วก็ได้เงิน แต่เงินนั้นมาจากเนื้อหาต้นฉบับที่คนอื่นสร้างไว้ ดังนั้นเรื่องลิขสิทธิ์ต้องมาก่อน คนทำแอปพลิเคชั่นใช้ AI กวาดข้อมูลต้องซื้อลิขสิทธิ์ เพื่อให้ผู้ผลิตเนื้อหาต้นฉบับอยู่ได้และ AI ก็ยังไปต่อได้
“ภายใต้ธุรกิจสื่อ สิ่งสำคัญคือรายได้ต้องอยู่ได้ด้วย จึงจะสามารถผลักดันออกไปได้ต่อ ฉะนั้นถ้าเราได้รับการสนับสนุนจากเอเจนซี่ ไม่ได้ให้คะแนนหรือตั้ง Engagement กับคนที่ผลิตเนื้อหาจาก AI หรือใช้การเล่าจาก AI เพียงอย่างเดียว ผมว่าอันนี้น่าจะช่วยสนับสนุนได้ เพราะอย่างหนึ่งผมก็เชื่อว่าเนื้อหาหรือข่าวหลายๆ เนื้อหามันไม่ได้ต้องการ Engagement แต่ต้องการ Awareness (สร้างความตระหนักรู้) ให้คนตื่นตัว อย่างข่าวการศึกษา แต่จะไปทำอย่างไรให้มัน Impact (ส่งผล) มากกว่า ให้คนเข้าใจข้อมูลข่าวสารเพิ่มขึ้น” นายกสมาคมผู้ผลิตข่าวออนไลน์ กล่าว
รศ.ดร.อลงกรณ์ ปริวุฒิพงศ์ รองคณบดี คณะนิเทศศาสตร์ จุฬาลงกรณ์มหาวิทยาลัย กล่าวว่า AI ช่วยทำให้งานของนักข่าวรวดเร็วขึ้นจากการช่วยรวบรวมข้อมูล หรือประกอบสร้าง (Generated) จากข้อมูลพื้นฐานที่มีอยู่แล้ว แต่คำถามคือข้อมูลที่มีอยู่แล้วนั้นมาจากแหล่งใด ซึ่งการมาของ AI ก็เป็นการสอบทวนด้วยว่าเราได้ทำหน้าที่ตรวจสอบข้อเท็จจริง (Fact – Checking) ซึ่งเป็นหน้าที่พื้นฐานหรือไม่
แต่อีกด้านหนึ่ง ต่อให้คนทำข่าวตั้งใจตรวจสอบและทำอย่างมีจริยธรรม แต่ก็มีความท้าทายคือมักไปจบที่ความต้องการยอดการมีส่วนร่วม (Engagement) ซึ่ง AI ช่วยให้เกิด Engagement ได้ง่ายมาก ส่วนคำถามว่าเหตุใดคนจึงเชื่อ AI ได้ง่ายมาก อาจเป็นเพราะ AI เป็นสิ่งที่มองไม่เห็น – จับต้องไม่ได้ แต่ทุกอย่างที่ส่งมาดูน่าเชื่อถือ หรือบางทีผู้รับสารอาจต้องการเพียงข้อมูล (Informational) ไม่ได้ต้องการองค์ความรู้ (Knowledge) หรือข่าว (News) ดังนั้นจะทำอย่างไรให้ AI มาเป็นเครื่องมือช่วยให้ผู้รับสารตั้งคำถาม หรือทำให้ผู้รับสารฉลาดขึ้น
หรือสิ่งที่กังวลมากๆ คือการกระจายของข้อมูลที่ผิดพลาดคลาดเคลื่อน (Spread of Misinformation) หรือข่าวที่ไม่ได้ถูกคัดกรอง หรือการที่มนุษย์ใช้เหตุผล (Reasoning) คิดเชิงวิเคราะห์น้อยลง คำถามคือคนที่ใช้ AI รู้สึกตรงนี้ด้วยหรือไม่ จำเป็นต้องกลับไปหาจุดกำเนิดของข้อมูล (Originate) หรือไม่ เพราะเพราะข้อมูลทั้งหมดที่ได้จาก AI ที่ Generated ก็คือข้อมูลที่ถูกผลิตมาแล้ว แล้วก็รีไซเคิลซ้ำกัน
“อย่างถ้าวันนี้ผมบอกว่าสิ่งที่กำลังพูดมาจาก ChatGPT อาชีพผมจบเลย แต่บอกว่าคิดเอง คัดกรองเอง แต่ใช้ ChatGPT ในการ Generated เราจะไปถึงขั้นไหนการใช้ ผมคิดว่าคงปฏิเสธไม่ได้ เพราะ AI อยู่เป็นอวัยวะที่ 33 34 45 และอื่นๆของเรา คราวนี้การใช้อย่างมีจริยธรรม หรือแนวปฏิบัติ คงเป็นเรื่องที่ต้องคุยกัน เพราะเราก็กังวลกับการได้ข้อมูลที่ไม่ถูกต้อง ไม่โปรงใส” รศ.ดร.อลงกรณ์ กล่าว
ในช่วงท้ายยังมีการยื่นข้อเสนอ ประกอบด้วย 1.ต่อรัฐบาล ดังนี้ 1.1 กำหนเกรอบนโยบายแห่งชาติว่าด้วย AI กับภาคส่วนต่างๆ 1.2 เตรียมความพร้อมต่อการกำกับดูแลโดยกฎหมาย 1.3 ให้ความสำคัญกับกฎหมายลิขสิทธิ์ที่จะช่วยสร้างมูลค่าให้กับเนื้อหาดั้งเดิม 1.4 สร้างการมีส่วนร่วมจากภาคผู้เชี่ยวชาญในการกำหนดความเสี่ยงจาก AI เพื่อนำไปสู่การกำกับดูแล 1.5 ส่งเสริมการร่วมมือระหว่างรัฐ มหาวิทยาลัยและองค์กรสื่อ ในการพัฒนา AI ที่รับผิดชอบและให้ความสำคัญต่อนโยบายพัฒนาการรู้เท่าทัน AI ต่อประชาชน
2.ต่อ Global Platform และผู้สนับสนุนรายได้ (ทั้งค่าย AI สื่อสังคมออนไลน์และเอเจนซี่โฆษณา)ดังนี้ 2.1 ให้ความสำคัญกับเนื้อหาคุณภาพ แหล่งข่าวที่น่าเชื่อถือ นอกเหนือจากความนิยมเพียงอย่างเดียว และ AI ควรเรียนรู้เรื่องจริยธรรมและสิ่งที่ควรระวังด้วย 2.2 ควรนำเข้าข้อมูลจากแหล่งข่าวที่น่าเชื่อถือเท่านั้นเข้าสู่ระบบ Machine Learning ไม่นำข้อมูลที่สร้างจาก AI มาเรียนรู้ซ้ำ
2.3 จัดให้มีระบบ Warning ที่จะป้องกันปัญหาจากข้อมูลบิดเบือน 2.4 ร่วมพัฒนาแนวทางการใช้ AI ตรวจสอบข่าวปลอมกับองค์กรสื่อ โดยยึดหลักโปร่งใส เปิดเผยโมเดล และไม่ลำเอียงต่อกลุ่มความเชื่อใดๆ 2.5 ให้ผู้ผลิตข่าวสามารถปิดกั้นการดัดแปลงโดย AI ได้ เช่น การห้าม Large Language Model (LLM) นำบทความไปฝึกโมเดลโดยไม่ได้รับอนุญาต หรือต้องมีการซื้อ – ขายข้อมูลให้ถูกต้องในเรื่องลิขสิทธิ์
3.ต่อองค์กรสื่อมวลชน ดังนี้ 3.1 สร้างแนวปฏิบัติและเครื่องมือการบังคับใช้แนวปฏิบัติการใช้ AI ในองค์กรข่าว ซึ่งถือเป็นระดับ Community Level ในการกำกับดูแลกันเองด้านการใช้ AI เช่น การตั้งคณะทำงานภายในองค์กร ตรวจสอบการใช้งาน AI อย่างสม่ำเสมอ 3.2 สร้างแนวปฏิบัติที่ดีของธรรมาภิบาล AI ในองค์กรสื่อ และแสวงหาแนวทางการรักษางานของมนุษย์ 3.3 อบรมสื่อมวลชนเรื่องการรู้เท่าทัน AI กำหนดนโยบายจริยธรรม AI เช่น การใช้ AI เรียบเรียงข่าว ตรวจคำผิด สร้างภาพ ควรเปิดเผยต่อสาธารณะ
ให้ความรู้เรื่องข้อจำกัดของ AI ความลำเอียงของโมเดล และการตรวจสอบข้อมูลจาก AI 3.4 ยึดถึงในคุณค่าของวารสารศาสตร์ รวมถึงระมัดระวังไม่ใช้ AI แทนมนุษย์ในกระบวนการตัดสินใจเชิงจริยธรรม เช่น การพิจารณาเผยแพร่ข่าว่อ่อนไหวภาพรุนแรง หรือข้อมูลส่วนบุคคล 3.5 รณรงค์ให้สื่อมวลชนรักษาคุณภาพของเนื้อหา โดยระมัดระวังเรื่องการใช้ AI อย่างขาดการกำกับดูแลที่ดี เพื่อสร้างความน่าเชื่อถือและความไว้วางใจของสื่อ
และ 4.ต่อผู้บริโภคสื่อและภารวิชาการ ดังนี้ 4.1 พัฒนาทักษะของตนเองในการใช้และอยู่กับ AI 4.2 สร้างองค์ความรู้และพัฒนาความฉลาดทางดิจิทัล และการรู้เท่าทัน AI แก่สื่อมวลชนและประชาชนที่เป็นทั้งผู้บริโภคสื่อและผู้สร้างเนื้อหาบนสื่อออนไลน์ได้ด้วยในเวลาเดียวกัน 4.3 ภาคประชาชนต้องรวมพลังกันเพื่อส่งเสริมสิทธิผู้บริโภคในการรับรู้ว่าเนื้อหานั้นมาจาก AI หรือมนุษย์ 4.4 เสริสร้างทักษะการรู้เท่าทัน AI แก่สาธารณะ ให้รู้เท่าทันการดัดแปลงเนื้อหา เช่น Deepfake , Chatbot , Voice clone 4.5 เรียกร้องให้ผู้เกี่ยวข้องเปิดช่องทางร้องเรียนหรือรายงานเนื้อหา AI ที่ผิดจริยธรรม และให้แพลตฟอร์มหรือสื่อดำเนินการแก้ไขอย่างโปร่งใส.




