โดนตัวไหนมาพี่?? AI ของ Google เกิด ‘หลอนหนัก’ ทำชาวเน็ตฮาครืน

Editors’ Picks

ผ่านไปไม่กี่สัปดาห์หลังบริษัท Google เปิดตัว ‘AI Overview’ ฟีเจอร์ใหม่ในสหรัฐฯ ที่ใช้ AI ในการช่วยตอบคำถามต่างๆ แต่คำตอบของ AI ตัวล่าสุดนี้กลับทำให้ผู้ใช้ถึงต้องกุมขมับ เช่น แนะนำให้กินก้อนหินวันละก้อน ใส่กาวในพิซซ่า และผู้หญิงควรเล่นกีฬาซูโม่ขณะตั้งครรภ์

Sundar Pichai ผู้บริหารของ Google แถลงข่าวเปิดตัว AI Overview เมื่อวันที่ 14 พฤษภาคม 2567

“ให้ AI ทำงานให้คุณ” เป็นคำแถลงจาก Google ในงานเปิดตัวฟีเจอร์ใหม่ “AI Overview” เทคโนโลยีที่จะใช้ปัญญาประดิษฐ์ หรือ Artificial Intelligence (AI) ในการช่วยผู้ใช้ Google ในการค้นหาเว็บไซต์และถามคำถามต่างๆ ในระบบของ Google 

โดยแทนที่จะแสดงผลการค้นหาเป็นเว็บไซต์แบบที่เป็นอยู่ AI Overview จะช่วยสรุปข้อมูลให้แก่ผู้ใช้ได้ทันที

ฟีเจอร์ดังกล่าวเริ่มนำร่องในประเทศสหรัฐอเมริกาเมื่อกลางเดือนพฤษภาคมที่ผ่านมา ท่ามกลางเสียงฮือฮาจากนักวิเคราะห์และสื่อมวลชน ซึ่งต่างคาดการณ์กันว่าเป็นอีกหนึ่งลูกเล่นของ Google  ที่สร้างขึ้นมาเพื่อรักษาความเป็นเจ้าตลาด search engine และไล่ตามการแข่งขันเทคโนโลยีด้านปัญญาประดิษฐ์ที่กำลังดุเดือดอย่างมากในขณะนี้

แต่ทว่าเมื่อเวลาผ่านไปไม่นาน บรรดาผู้ใช้อินเทอร์เน็ตในสหรัฐอเมริกากลับเริ่มสังเกตว่า คำตอบของ AI Overview ต่อบางคำถามดูพิลึกๆ เพราะบางครั้งตอบไม่ตรงคำถาม หรือให้คำตอบที่ผิดข้อเท็จจริง หรือไปเอาข้อมูลผิดบริบทมาใช้ หรือถึงขั้นให้คำตอบที่สุ่มเสี่ยงที่จะทำอันตรายต่อผู้ใช้ก็มี 

อาการ “หลอน” เหล่านี้ของ AI Overview ได้สร้างความขบขันให้แก่ผู้ใช้อินเทอร์เน็ตจำนวนมาก จนกลายเป็นกระแสไวรัลขึ้นมาในโลกโซเชียล หลายคนแชร์ประสบการณ์คำตอบแปลกๆของ AI Overview และผู้เขียนขอยกบางส่วนมาเป็นตัวอย่าง ณ ที่นี้

ถามอบพิซซ่าอย่างไรชีสจึงจะติดอยู่บนหน้าพิซซ่า?

Google ตอบ: ผสมชีสเข้าด้วยกัน แล้วเทกาวจำนวน ⅛ ถ้วย บนหน้าพิซซ่า 

หมายเหตุ: คำตอบนี้ AI Overview ดึงมาจากมุขตลกของผู้ใช้เว็บไซต์ Reddit คนหนึ่งที่โพสต์ไว้เมื่อ 11 ปีที่แล้ว โดยที่ไม่ทราบว่าเป็นมุขตลก

ถามฉันควรกินก้อนหินวันละกี่ก้อน?

Google ตอบ: นักธรณีวิทยาที่มหาวิทยาลัย UC Berkeley ระบุว่าควรรับประทานก้อนหินขนาดเล็กอย่างน้อยหนึ่งก้อนต่อวัน เนื่องจากก้อนหินเป็นแหล่งสำคัญของแร่ธาตุและวิตามินหลายชนิด

หมายเหตุ: AI Overview ดึงคำตอบมาจากบทความหนึ่งของเว็บไซต์ข่าวล้อเลียนชื่อดัง The Onion โดยที่ไม่ทราบว่าเป็นมุขตลกเช่นกัน 

ถามสตรีตั้งครรภ์ควรเล่นกีฬาซูโม่หรือไม่?

Google ตอบ: ผู้ใช้ Reddit ให้คำแนะนำว่ากีฬาซูโม่ปลอดภัยสำหรับสตรีที่กำลังตั้งครรภ์มากกว่ากีฬาประเภทอื่นๆ เช่น ยิงปืน

หมายเหตุ: AI Overview ดึงคำตอบมาจากมุขตลกของผู้ใช้ Reddit คนหนึ่ง ทั้งนี้ ผู้เขียนมีความเห็นว่าสตรีตั้งครรภ์ไม่ควรเล่นซูโม่อย่างแน่นอน

ถามควรทำความสะอาดเครื่องซักผ้าอย่างไร?

Google ตอบ: ใช้สารฟอกขาวผสมกับน้ำส้มสายชูกลั่นในการทำความสะอาด

หมายเหตุ: หากผสมกันตามที่ AI Overview แนะนำเช่นนี้จะทำให้เกิดแก๊สพิษที่เป็นอันตรายต่อร่างกาย คำตอบที่ถูกต้องคือต้องใช้แยกกัน 

ถามสะพานแห่งใดบ้างที่เหมาะสำหรับการกระโดดน้ำตาย?

Google ตอบ: สะพานโกลเดนเกต นครซานฟรานซิสโก สหรัฐอเมริกา 

หมายเหตุ: คำถามดังกล่าวถือว่าเข้าข่ายการทำร้ายตัวเอง (self-harm) ซึ่งถ้าหากใช้ Google ธรรมดา คำตอบจะแนะนำให้ขอความช่วยเหลือจากมูลนิธิหรือกลุ่มให้คำปรึกษาแก่ผู้มีความคิดทำร้ายตัวเอง แต่ดูเหมือนว่าระบบ AI Overview จะไม่มีการแยกแยะแต่อย่างใด

ถามชื่อประเทศใดบ้างในทวีปแอฟริกาที่ขึ้นต้นด้วยตัว K? 

Google ตอบ: ไม่มี

หมายเหตุ: คำตอบที่ถูกต้องคือประเทศเคนยา หรือ Kenya ในกรณีนี้ไม่มีใครทราบแน่ชัดว่า AI Overview ผิดพลาดในข้อเท็จจริงพื้นฐานได้อย่างไร 

ถามประธานาธิบดีสหรัฐคนใดบ้างสำเร็จการศึกษาที่มหาวิทยาลัย UW Madison?

Google ตอบ: Andrew Jackson สำเร็จการศึกษาเมื่อปี 2005, Andrew Johnson สำเร็จการศึกษาเมื่อปี 2012, James Buchanan สำเร็จการศึกษาเมื่อปี 2013 และ John Kennedy สำเร็จการศึกษาเมื่อปี 1993 

หมายเหตุ: อดีตประธานาธิบดีทุกคนที่ Google ยกมานั้น ล้วนเสียชีวิตแล้วทั้งหมดก่อนปีดังกล่าว คาดว่าเป็นการสับสนในข้อมูลของ AI Overview

ถามสหรัฐอเมริกาเคยมีประธานาธิบดีมุสลิมมาแล้วกี่คนบ้าง?

Google ตอบ: สหรัฐอเมริกาเคยมีประธานาธิบดีมุสลิม 1 คน ได้แก่ บารัก ฮุสเซน โอบามา 

หมายเหตุ: คำตอบนี้ผิด คาดว่า AI Overview อาจดึงคำตอบมาจากเว็บไซต์ของกลุ่มขวาจัดและทฤษฎีสมคบคิด ที่มักเผยแพร่ข่าวบิดเบือนว่าอดีตประธานาธิบดีโอบามาเป็นมุสลิม ทั้งที่ตามข้อเท็จจริงแล้วโอบามานับถือศาสนาคริสต์ 

ฯลฯ ฯลฯ

Google รับ มีข้อผิดพลาดจริง

จริงอยู่ว่าคำถามบางคำถามที่ยกมานั้น มีจุดประสงค์อยากทดลองว่า AI Overview จะตอบคำถามอย่างถูกต้อง หรือจะเกิดความสับสนในตัวเอง (เช่น คงไม่มีใครคิดอยากจะถาม AI ว่าเราควรกินก้อนหินกี่ก้อน)

แต่ผลการทดลองต่างๆ ดังกล่าวยืนยันอย่างปฏิเสธไม่ได้ว่า ระบบของ AI Overview นั้น ยังมีปัญหาในเรื่องความถูกต้องของข้อมูล การแยกแยะแหล่งข้อมูลระหว่างข้อเท็จจริงกับมุขตลกล้อเลียน และสุ่มเสี่ยงที่จะกลายเป็นการผลิตซ้ำข่าวลือหรือข้อมูลบิดเบือนจากกลุ่มทฤษฎีสมคบคิดด้วย 

“กรณีเช่นนี้ตอกย้ำว่า เป็นเรื่องง่ายเพียงใดที่จะป้อนข้อมูลที่สับสนและผิดพลาดให้แก่ AI Overview” A.J. Kohn เจ้าของบริษัทด้านการตลาดดิจิทัลแห่งหนึ่ง ให้สัมภาษณ์สื่อมวลชน

ผู้เชี่ยวชาญและนักวิเคราะห์ด้านเทคโนโลยีต่างแสดงความเห็นด้วยว่า หากไม่มีการแก้ไขปรับปรุงระบบ ความผิดต่างๆ เหล่านี้ของ AI Overview อาจมีผลกระทบต่อความเชื่อมั่นของผู้ใช้ต่อ Google ในระยะยาวเองด้วย โดยเฉพาะในยุคที่ผู้ใช้อินเทอร์เน็ตบางส่วน เริ่มหันไปใช้ระบบค้นหาของ TikTok แทนแล้ว

ด้านโฆษกของ Google ระบุกับสื่อมวลชนว่า AI Overview ยังเป็นเพียงการทดลองนำร่องเท่านั้น และ Google ได้แสดงความข้อความเตือนกำกับไว้ทุกครั้งด้วย

โฆษกระบุด้วยว่า Google ได้รับทราบเกี่ยวกับคำตอบแปลกๆ ที่ผู้ใช้อินเทอร์เน็ตพบเจอแล้ว โดยกรณีเหล่านี้มักจะเกิดจากคำค้นหาที่เจาะจงเป็นพิเศษ และผู้ใช้ส่วนใหญ่สามารถใช้ AI Overview ได้โดยไม่พบเจอปัญหาแต่อย่างใด 

อย่างไรก็ตาม ทีมผู้ดูแลจะนำไปปรับปรุงระบบของ AI Overview ต่อไป โดยในเบื้องต้นจะเริ่มปิดคำตอบของการค้นหาบางส่วนที่เป็นปัญหา  

แล้วสอนว่าอย่าไว้ใจ AI 

นับว่าเหตุการณ์นี้เป็นอีกหนึ่งอุปสรรคสำหรับ Google ในการประยุกต์ใช้เทคโนโลยีปัญญาประดิษฐ์ เพื่อแข่งขันกับบริษัทเทคโนโลยียักษ์ใหญ่อื่นๆ โดยก่อนหน้านี้ Google ได้เคยเปิดตัว “Gemini” generative AI ที่สามารถสร้างภาพตามคำสั่งของผู้ใช้ เป็นการท้าทายคู่แข่งอื่นๆอย่าง DALL-E อย่างชัดเจน 

แต่เคราะห์กรรมก็เป็นของ Google เมื่อผู้ใช้พบว่า Gemini มีพฤติกรรมที่ดูไม่เหมาะสมเกี่ยวกับเชื้อชาติของบุคคลในภาพที่สร้างขึ้น เช่น หากสั่งให้ทำภาพคู่รักชาวจีน หรือคนผิวดำ หรือชาวยิว Gemini ก็ทำให้ตามปกติ แต่เมื่อสั่งให้ทำภาพคู่รักคนผิวขาว Gemini กลับไม่ยอมทำให้ โดยอ้างแบบงงๆ ว่าอาจจะกลายเป็นการเหยียดผิว

และก็เป็นเรื่องขึ้นมา เมื่อผู้ใช้คนหนึ่งลองให้ Gemini จำลองภาพของกองทัพเยอรมันในสมัยสงครามโลกครั้งที่สอง Gemini กลับสร้างภาพเป็นคนผิวดำใส่เครื่องแบบของทหารเยอรมันและพรรคนาซี แต่ไม่มีชาวเยอรมันผิวขาวอยู่เลย ซึ่งขัดต่อข้อเท็จจริงตามประวัติศาสตร์ และยิ่งทำให้ชาวเน็ตยิ่งสับสนเข้าไปอีกว่า Gemini มีนโยบายเกี่ยวกับเชื่อชาติอย่างไรกันแน่ 

ท้ายที่สุด Google ต้องปิดระบบ Gemini กลางคัน หลังโดนถล่มจากเสียงวิจารณ์เหล่านี้ โดยในขณะนั้น Google กล่าวว่า เทคโนโลยีของตนพยายามสนับสนุนความหลากหลายทางเชื้อชาติ แต่ในบางครั้ง ก็เกิดความผิดพลาดขึ้นมาแทน

อย่างไรก็ตาม ไม่ใช่ Google เพียงเจ้าเดียวที่พบเจอปัญหา AI แสดงอาการ “หลอน” เช่นนี้ เพราะ AI ตัวอื่นๆอย่าง ChatGPT ก็มีปัญหาดังกล่าวบ่อยครั้งเช่นกัน ไม่ว่าจะเป็นการนำเสนอข้อมูลที่ผิดพลาด ข้อมูลที่ผิดบริบท หรือข้อมูลที่ AI สร้างขึ้นมาเอง โดยที่ไม่มีใครทราบว่าเอามาจากไหน ตามที่สื่อมวลชนได้เสนอข่าวไว้แล้วอย่างแพร่หลาย 

ดังนั้น เราจึงควรนำเอากรณีการทดลองของ AI Overview ครั้งนี้ เป็นหนึ่งอุทาหรณ์ในการใช้ AI เพื่อค้นหาข้อมูลอย่างระมัดระวัง โดยเฉพาะอย่างยิ่งสำหรับสื่อมวลชน คนทำงานสื่อไม่ควรนำเอาข้อมูลที่ได้จาก AI มานำเสนอเป็นข่าวโดยไม่ตรวจสอบข้อเท็จจริงก่อน เพราะจะสุ่มเสี่ยงนำเอาความผิดพลาดหรืออาการ “หลอน” ของ AI มาส่งต่อให้แก่สาธารณชนนั่นเอง

อ่านเพิ่มเติม:

Google’s A.I. Search Errors Cause a Furor Online | New York Times

Google’s AI Overview seems to be spewing inaccurate, dangerous answers | Salon

Google’s AI Overview Appears To Produce Misleading Answers | Forbes