การที่ผู้ใช้เฟซบุ๊กในไทยนำข้อความนี้กลับมาโพสต์อีกครั้งอาจเกิดจากความกังวลเรื่องการนำข้อมูลส่วนบุคคลไปใช้พัฒนาเทคโนโลยีปัญญาประดิษฐ์ (AI) ซึ่งตัวแทน Meta ประเทศชี้แจงกับ Thai PBS Verify เมื่อวันที่ 9 เม.ย. 2569 ว่าข้อความที่ส่งต่อกันนี้เป็นข้อมูลเท็จ และอธิบายว่าการคุ้มครองข้อมูลส่วนบุคคลของผู้ใช้งานเป็นไปตามเงื่อนไขการให้บริการและนโยบายความเป็นส่วนตัวของ Meta ที่ผู้ใช้งานได้ให้ความยินยอมตั้งแต่การสร้างบัญชีเฟซบุ๊ก
ตามเงื่อนไขการให้บริการและนโยบายความเป็นส่วนตัว Meta จะจัดเก็บข้อมูลส่วนบุคคลของผู้ใช้งานจากกิจกรรมและข้อมูลที่ผู้ใช้ให้ไว้กับแพลตฟอร์มเพื่อนำไปพัฒนาและปรับปรุงบริการรวมถึงวิเคราะห์พฤติกรรมการใช้งานของผู้ใช้งาน
อย่างไรก็ตาม Meta ระบุว่าไม่มีการขายข้อมูลส่วนบุคคลของผู้ใช้งานให้บุคคลภายนอก และผู้ใช้งานสามารถจัดการสิทธิความเป็นส่วนตัวได้จากการตั้งค่าบัญชีเฟซบุ๊ก อินสตาแกรม และการตั้งค่าบนอุปกรณ์
สำหรับประเด็นที่ผู้ใช้เฟซบุ๊กกังวลว่าข้อมูลของตนจะถูกนำไปใช้ในการเทรน AI นั้น Meta ชี้แจงในหน้าศูนย์ความเป็นส่วนตัวว่าข้อมูลที่เป็นสาธารณะ เช่น ข้อความที่โพสต์ ความคิดเห็น รูปภาพและคำบรรยายจะถูกใช้ในการปรับปรุงโมเดล AI แต่ผู้ใช้งานสามารถคัดค้านการนำข้อมูลไปใช้ในระบบ AI ของ Meta ด้วยการส่งแบบฟอร์มคัดค้านไปที่ Meta
หากยังทำงานเป็นวิศวกรซอฟต์แวร์ผู้เชี่ยวชาญด้าน AI ที่บริษัทไมโครซอฟต์ในสหรัฐอเมริกา วันนี้อีธาน ตู คงมีตำแหน่งใหญ่โต ได้เงินเดือนสูงลิ่ว แต่เขาตัดสินใจลาออกกลับมาอยูไต้หวันบ้านเกิดเมื่อสิบปีก่อนและก่อตั้ง Taiwan AI Labs องค์กรไม่แสวงหากำไรที่ทำงานด้านการวิจัยและพัฒนา AI
กิจกรรมวันตรวจสอบข่าวลวงโลก (International Fact Checking Day) ในปีนี้จัดขึ้นภายใต้หัวข้อ “Lost in information: When Disinformation becomes a global risk” ร่วมจัดโดยโคแฟค ประเทศไทย สำนักงานกองทุนสนับสนุนการสร้างเสริมสุขภาพ (สสส.) มูลนิธิ ฟรีดิช เนามัน (ประเทศไทย) องค์การกระจายเสียงและแพร่ภาพสาธารณะแห่งประเทศไทย (ไทยพีบีเอส) และภาคีร่วมจัดอีก 11 องค์กร
เนื่องจากอิทธิพลของปัญญาประดิษฐ์หรือ AI ที่กำลังเพิ่มขึ้นในทุกมิติ รวมถึงถูกใช้เป็นเครื่องมือในการสร้างข่าวลวง-ข้อมูลเท็จ โคแฟคจึงเชิญอีธาน ผู้เชี่ยวชาญด้าน AI ผู้ก่อตั้ง Taiwan AI Labs มาให้มุมมองเกี่ยวกับ AI และถ่ายทอดเรื่องราวการพัฒนา AI โดยองค์กรภาคพลเมืองซึ่งทำให้หน่วยงานต่าง ๆ ในไต้หวันมี AI ที่ปลอดภัยใช้โดยไม่ต้องพึ่งพาบริษัทเทคโนโลยีจากต่างประเทศหรือเสี่ยงต่อการรั่วไหลของข้อมูล
“อย่าไว้ใจ AI”
อีธานก่อตั้ง Taiwan AI Labs ขึ้นเมื่อปี 2017 เพราะรู้ดีว่าในอนาคตอันใกล้ AI คือเทคโนโลยีแห่งอำนาจ และ AI ที่สร้างขึ้นในประเทศใดก็ย่อมถูกออกแบบวางระบบมาให้ปกป้องผลประโยชน์ของประเทศนั้น เขาหยิบยกงานวิจัยที่แสดงให้เห็นว่า ChatGPT ที่พัฒนาขึ้นโดยบริษัทในสหรัฐอเมริกาจะไม่ให้ข้อมูลที่ทำให้อเมริกาดูแย่ ขณะที่ DeepSeek ของจีนก็จะไม่เสนอข้อมูลในทางลบเกี่ยวกับจีนแถมยังสอดแทรกโฆษณาชวนเชื่อเพื่อยกย่องจีน ซึ่งน่าจะเป็นเพราะมันถูกสอนมาให้ประมวลผลจากเนื้อหาที่เผยแพร่โดยสื่อของรัฐบาลจีน
“เพราะฉะนั้นอย่าไว้ใจ AI ที่เราใช้งานอยู่ทุกวันนี้ เพราะมันถูกสอนโดยบริษัทที่พัฒนามันขึ้นมา และทำงานเพื่อแสวงหากำไรหรือไม่ก็เพื่อประโยชน์ของชาติใดชาติหนึ่ง ไม่ใช่การปกป้องประโยชน์ของมวลมนุษยชาติ”
นอกจากนี้บริษัทเทคโนโลยียักษ์ใหญ่ผู้ให้บริการ AI ยังสามารถเข้าถึงข้อมูลของผู้ใช้งานได้ทั้งในระดับบุคคลและองค์กร โดยที่เราไม่รู้เลยว่าข้อมูลของเราจะถูกนำไปใช้ทำอะไรบ้างหรืออาจรั่วไหลไปถึงมือมิจฉาชีพก็ได้
เมื่อมีข้อกังขาต่อ AI ของบริษัทต่างชาติเหล่านี้ Taiwan AI Labs จึงพัฒนา AI โมเดลที่ชื่อว่า “FedGPT” โดยมีเป้าหมายให้เป็น AI ที่ “ไว้ใจได้และมีความรับผิดชอบ” ที่หน่วยงานต่าง ๆ ทั้งภาครัฐและเอกชน รวมทั้งประชาชนไต้หวันสามารถใช้งานได้อย่างปลอดภัยและมีประสิทธิภาพ โดยไม่ต้องพึ่งพาบริษัทโทคโนโลยียักษ์ใหญ่
Fed มาจากคำว่า Federated approach ซึ่งเป็นแนวคิดการพัฒนา AI แบบกระจายศูนย์ ซึ่งต่างจากการพัฒนา AI แบบรวมศูนย์ที่ผู้ใช้งานต้องส่งข้อมูลมาที่เซิร์ฟเวอร์กลางเพื่อใช้ในการฝึกฝนโมเดล
อีธานอธิบายว่า FedGPT เปิดให้แต่ละองค์กรที่ใช้งานไม่ว่าจะเป็นโรงพยาบาล ธนาคาร สถาบันการเงิน สถาบันการศึกษาหรือบริษัทเอกชนฝึกโมเดล AI ด้วยชุดข้อมูลของตัวเองโดยไม่ต้องแชร์ข้อมูลนั้นเข้าเซิร์ฟเวอร์กลาง หลังจากนั้นจึงแชร์โมเดลที่ฝึกฝนเสร็จแล้วกลับมาเพื่ออัปเดตโมเดลกลาง เท่ากับว่าผู้ใช้งานแต่ละองค์กรร่วมกันเทรน AI โดยที่ไม่ต้องแชร์ข้อมูลขององค์กรกับใคร ทำให้มั่นใจได้ว่าจะไม่มีการรั่วไหลของข้อมูล
“เราไม่นำข้อมูลมารวมศูนย์ แต่ละองค์กรมีส่วนในการเทรนอัลกอรึทึมและพัฒนาโมเดลกลางโดยไม่ต้องแชร์ข้อมูลภายในที่แต่ละองค์กใช้ในการเทรน AI นี่คือหัวใจสำคัญ” อีธานกล่าว “ข้อมูลของผู้ป่วยในโรงพยาบาลหรือลูกค้าธนาคารยังคงถูกเก็บไว้อย่างปลอดภัยในฐานข้อมูลของโรงพยาบาลและธนาคารแต่ละแห่ง”
พัฒนาทักษะและศักยภาพการทำงานด้าน AI ของคนในองค์กร ลดการพึ่งพาบริษัทเทคโนโลยีภายนอก
องค์กรสามารถสร้างรายได้จาก AI โมเดลที่ฝึกฝนสมบูรณ์แล้ว เพราะผู้ประกอบการธุรกิจประเภทเดียวกันมักจะใช้งาน AI ในแบบที่คล้ายกัน
เกิดความร่วมมือกันในการปกป้องผลประโยชน์ของประชาชน/ผู้บริโภค เช่น ธนาคารเกือบ 40 แห่งในไต้หวันร่วมมือกันฝึกฝน AI โมเดลจนสามารถระบุพฤติกรรมการหลอกลวงทางการเงินได้ ทำให้ธนาคารสามารถยับยั้งธุรกรรมของมิจฉาชีพได้ก่อนที่การฉ้อโกงจะเกิดขึ้น
มีความหลากหลายของ AI โมเดลที่ตอบโจทย์งานด้านต่าง ๆ และลดความเสี่ยงจากการใช้โมเดลใดโมเดลหนึ่ง ปัจจุบันไต้หวันมี AI ที่ใช้ในภาคสาธารณสุขมากกว่า 400 โมเดล
การฝึก AI แบบกระจายศูนย์ทำให้ข้อมูลที่ AI เรียนรู้มีความหลากหลาย การประมวลผลจึงมีประสิทธิภาพ ครอบคลุม ผลลัพธ์ที่ได้มีความแม่นยำและมีอคติน้อยที่สุด
อีธานฉายภาพปัจจุบันและอนาคตของ AI ว่าเทคโนโลยีนี้กำลังเปลี่ยนผ่านจากยุคที่เน้นความรวดเร็วในการประมวลผลของ AI ไปสู่การพัฒนา AI ที่ไว้ใจได้และกำกับดูแลโดยองค์กรภายในประเทศ (trustworthy and locally-governed AI) เพื่อมุ่งสู่ “AI ที่มีอธิปไตยและธรรมาภิบาล” (Soveign AI and Governance)
ด้วยเทคโนโลยีการพัฒนา AI แบบกระจายศูนย์ที่ Taiwan AI Labs ริเริ่มขึ้นและได้รับการสนับสนุนทั้งจากองค์กรภาครัฐและเอกชน อีธานเชื่อมั่นว่าวันนี้ไต้หวันกำลังมุ่งสู่การมีอธิปไตยทาง AI กล่าวคือมีทั้งโครงสร้างพื้นฐานด้านเทคโนโลยี มีบุคลากรที่มีศักยภาพในการพัฒนา AI และองค์กรที่กำกับดูแลการใช้ AI ในไต้หวันให้สอดคล้องกับกฎหมายและระเบียบสากล โดยไม่ต้องพึ่งพาบริษัทเทคโนโลยียักษ์ใหญ่จากต่างชาติ
การต่อสู้ในสงครามข้อมูลข่าวสาร
ไต้หวันกับจีนมีปัญหากันมานาน โลกออนไลน์เป็นอีกหนึ่งสมรภูมิของความขัดแย้งนี้ Taiwan AI Labs เป็นองค์กรแรก ๆ ที่มองเห็นภัยคุกคามจากการครอบงำและแทรกแซงด้วยข้อมูลข่าวสารจากนอกประเทศ (Foreign Information Manipulation and Interference: FIMI) พวกเขาจึงพัฒนา AI โมเดลมาวิเคราะห์เนื้อหาและบัญชีผู้ใช้งานในโซเชียลมีเดียจนสามารถเปิดโปงขบวนการเผยแพร่ข้อมูลเท็จและบัญชีผู้ใช้โซเชียลมีเดียปลอมจำนวนมหาศาลที่ควบคุมโดยบอต
2 เม.ย. 2569 ที่หอศิลปวัฒนธรรมแห่งกรุงเทพมหานคร โคแฟค (ประเทศไทย) ร่วมกับสำนักงานกองทุนสนับสนุนการสร้างเสริมสุขภาพ (สสส.) มูลนิธิ ฟรีดิช เนามัน (ประเทศไทย) องค์การกระจายเสียงและแพร่ภาพสาธารณะแห่งประเทศไทย (ไทยพีบีเอส) และภาคีร่วมจัดอีก 11 องค์กร จับมือจัดงานสัมมนาวาระวันตรวจสอบข่าวลวงโลก 2569 International Fact Checking Day 2026 Lost in information: When Disinformation becomes a global risk. เมื่อข้อมูลลวงกลายเป็นความเสี่ยงโลก
สุภิญญา กลางณรงค์ ผู้ร่วมก่อตั้งภาคีโคแฟค (ประเทศไทย) กล่าวว่า งานวันตรวจสอบข่าวลวงโลกจัดขึ้นมาอย่างต่อเนื่องนับตั้งแต่สถานการณ์โรคระบาดโควิด – 19 และได้รับการสนับสนุนจากหลากหลายภาคส่วน และในปีนี้ World Economic Forum จัดให้ข้อมูลลวงเป็นความเสี่ยงระดับโลก อันดับ 2
“เราอยากให้ทุกคนตระหนักเรื่องข้อมูลลวงและตั้งสติเพื่อตรวจสอบข้อเท็จจริง (Keep Calm and Fact Check) ซึ่งเป็นแนวคิดของสสส. ด้วยที่ส่งเสริมเรื่องของระบบสื่อและสุขภาวะทางปัญญาที่ทำให้ทุกคนตั้งหลักรู้เท่าทันคู่ขนานไปกับความเปลี่ยนแปลง” สุภิญญา กล่าว
“ในยุคที่ปริมาณข้อมูลขยายตัวในอัตราเร่งจนนักตรวจสอบข้อเท็จจริง (Fact-checkers) ไม่สามารถไล่ตามได้ทันการเปลี่ยนบทบาทของปัจเจกให้กลายเป็น ‘เซนเซอร์ตรวจสอบ(Individual as a Sensor)’ คือยุทธศาสตร์ที่ทรงพลังที่สุดการมอบทักษะการตรวจสอบเชิงรุกช่วยเปลี่ยนผู้บริโภคที่อ่อนไหวให้กลายเป็นผู้พิทักษ์ความถูกต้องของข้อมูลด้วยตนเอง”
และแม้ชาวญี่ปุ่นยังคงเชื่อถือในสำนักข่าวหลักๆ ค่อนข้างสูง แต่ความไว้วางใจนี้อาจเป็นดาบสองคมหากสื่อหลักถูกแทรกซึมด้วยข้อมูลบิดเบือนที่ดูแนบเนียน ขณะที่พฤติกรรมของคนรุ่นใหม่ Gen Z และ Gen Alpha กำลังละทิ้งการค้นหาผ่าน Google Search แบบเดิมที่ต้องวิเคราะห์จากหลายแหล่งข้อมูล ไปสู่การยอมรับคำตอบสำเร็จรูปจาก AI ซึ่งความเสี่ยงคือ “AI มักจะประมวลผลโดยขาดบริบท” และหากข้อมูลต้นทางถูกบิดเบือน AI ก็จะกลายเป็นเครื่องมือขยายผลความเท็จที่มีประสิทธิภาพสูงสุด
“เทคโนโลยี AI ทำให้เกิด ‘ความเท่าเทียมในการสร้างความเท็จ (Democratization of Misinformation)’การสร้างเว็บไซต์ปลอมภาพ Deepfake หรือวิดีโอที่แนบเนียนสามารถทำได้ด้วย Prompt เดียวสิ่งนี้จะนำไปสู่การทลายกำแพงความน่าเชื่อถือของเนื้อหาคุณภาพสูงในอนาคตสังคมยุคใหม่จำเป็นต้องมีทักษะ Critical Promptingหรือการป้อนคำสั่งอย่างมีวิจารณญาณเพื่อให้มั่นใจว่าการใช้งาน AI จะไม่เป็นการเติมข้อมูลลวงเข้าระบบโดยไม่ตั้งใจและเป็นการเรียกร้องให้มี ‘ความรับผิดชอบของอัลกอริทึม (Algorithmic Accountability)’ จากผู้พัฒนาแพลตฟอร์ม”
ก่อนหน้านี้ ภาพเดียวกันนี้เคยถูกนำไปสร้างข่าวลวงในอินเดีย โดย The Times of India รายงานเมื่อ 23 พ.ค. 2018 ว่าขณะที่อินเดียกำลังประสบปัญหาน้ำมันเชื้อเพลิงขึ้นราคา พบว่ามีประชาชนแชร์ภาพรถติดอย่างหนักบนทางด่วนพร้อมคำบรรยายว่า “ชาวเยอรมันประท้วงรัฐบาลขึ้นราคาน้ำมันด้วยการจอดรถทิ้งไว้แล้วเดินกลับบ้าน ทำให้รัฐบาลต้องประกาศลดราคาน้ำมันทันที เมื่้อประชาชนฉลาด พวกคนทุจริตก็โกงไม่ได้” ซึ่งเป็นเนื้อหาเท็จเพราะภาพนี้เป็นเหตุการณ์ที่เกิดขึ้นในประเทศจีนเมื่อปี 2012 ไม่ใช่ในเยอรมนี