‘ปลอมเสียงคนรู้จัก’ เทคโนโลยี‘AI’ก้าวหน้า..เอื้อ ‘มิจฉาชีพ’ สวมรอยหลอกเหยื่อแนบเนียน

By : Zhang Taehun

“ฟังนะ! ฉันจับตัวลูกสาวของแกไว้ แล้วถ้าแกโทร.หาตำรวจหรือใครก็ตาม ฉันจะอัดยาให้หล่อนแบบจัดเต็มแล้วจะเอาหล่อนไปทิ้งไว้ที่เม็กซิโกแน่”

“แม่! ช่วยหนูด้วย..ช่วยด้วย”

เรื่องเล่าจาก เจนนิเฟอร์ เดสเตฟาโน (Jennifer DeStefano) คุณแม่ที่อาศัยอยู่ในมลรัฐแอริโซนา สหรัฐอเมริกา ออกมาเปิดเผยผ่านสื่อมวลชน โดยสถานีโทรทัศน์ WMTV Channel15 สื่อท้องถิ่นเมืองเมดิสัน มลรัฐวิสคอนซิน ได้รายงานข่าวนี้เมื่อวันที่ 11 เม.ย. 2566 เตือนสังคมไว้เป็นอุทาหรณ์ เมื่อจู่ๆ เดสเตฟาโน ก็ได้รับสายโทรศัพท์หมายเลขที่ไม่คุ้นเคย ปลายสายเป็นเสียงผู้ชายคนหนึ่งกำลังตะคอกใส่เด็กสาวที่มีน้ำเสียงหวาดกลัว

“ไสหัวแกไปนั่งข้างหลังเลย แล้วก้มหัวลงด้วย”

ด้วยความที่ลูกสาววัย 15 ปีเพิ่งออกไปเล่นสกี ผู้เป็นแม่อย่าง เดสเตฟาโน กลัวว่าลูกจะเกิดอุบัติเหตุ จึงรับสายนั้นและฟังสิ่งที่ปลายสายพูด ชายปริศนาบอกว่าได้จับตัวลูกสาวของเธอไว้พร้อมกับเรียกค่าไถ่ 1 ล้านเหรียญสหรัฐ เมื่อคุณแม่บอกว่าไม่มีเงิน คนร้ายก็ลดลงมาเหลือที่ 5 หมื่นเหรียญสหรัฐ โดยในเวลานั้น เดสเตฟาโน อยู่ในชั้นเรียนเต้นรำที่ลูกสาวอีกคนกำลังเรียนอยู่ 

และเมื่อคุณแม่ของนักเรียนคนอื่นๆ ได้ยิน ก็พยายามช่วยกันตรวจสอบ มีบางคนแจ้ง 911 (สายด่วนตำรวจของสหรัฐฯ เหมือนกับ 191 ของไทย) อีกหลายคนก็พยายามติดต่อสามีของเดสเตฟาโน จนสุดท้ายก็โล่งอกเพราะ การลักพาตัวเพื่อเรียกค่าไถ่ไม่ได้เกิดขึ้นจริง ลูกสาววัย 15 ของเธอยังปลอดภัยสบายดีในห้องพัก แต่สิ่งที่ยังค้างคาในใจของคุณแม่รายนี้คือ เสียงปลายสายที่ขอความช่วยเหลือนั่นเหมือนกับเสียงของลูกสาวมาก จนทำให้ไม่เอะใจใดๆ 

ก่อนหน้านั้นเพียง 1 เดือน ในวันที่ 5 มี.ค. 2566 หนังสือพิมพ์ The Washington Post หนึ่งในสื่อเก่าแก่และมีชื่อเสียงในสหรัฐฯ เผยแพร่เรื่องราวของ รูธ คาร์ด (Ruth Card) หญิงชราวัย 73 ปี ชาวเมืองเรจินา รัฐซัสแคตเชวัน ประเทศแคนาดา ที่วันหนึ่งได้รับโทรศัพท์ ปลายสายบอกว่าตนเองคือ แบรนดอน (Brandon) หลานชายของเธอ กำลังย่ำแย่เพราะถูกจับและถูกควบคุมตัวในห้องขัง และต้องการเงินมาใช้เป็นหลักทรัพย์ในการยื่นขอประกันตัว 

หญิงชราเดินทางไปถอนเงินจำนวน 3,000 เหรียญแคนาดา หรือ 2,207 เหรียญสหรัฐ ในสาขาแรกของธนาคาร จากนั้นพยายามไปสาขาที่สองเพื่อขอถอนเงินเพิ่ม แต่ผู้จัดการธนาคารได้เข้ามาขัดจังหวะ พร้อมกับเล่าว่า ก่อนหน้านี้เคยมีลูกค้ารายหนึ่งได้รับโทรศัพท์ลักษณะเดียวกัน แต่มั่นใจว่าเสียงนั้นน่าจะถูกปลอมแปลงขึ้น จากคำเตือนของผู้จัดการธนาคาร คาร์ดเริ่มเอะใจว่าบางทีคนที่โทรศัพท์หาตนเองอาจไม่ใช่หลานชายก็ได้ โชคยังดีที่ไม่เสียเงิน แต่ก็รู้สึกอับอาย กระทั่งตัดสินใจออกมาให้ข้อมูลกับสื่อเพื่อเตือนภัยกับคนอื่นๆ ในสังคม

ข้อมูลจาก คณะกรรมาธิการว่าด้วยการค้าแห่งสหพันธรัฐ  (FTC) ของสหรัฐฯ พบว่า ในปี 2565 ที่ผ่านมา การหลอกลวงโดยแอบอ้างเป็นคนใกล้ชิด ญาติสนิทมิตรสหายของเหยื่อ มีจำนวนมากเป็นอันดับ 2 ในสหรัฐฯ โดย FTC ได้รับรายงานมากถึง 36,000 ครั้ง ในจำนวนนี้ 5,100 ครั้งเป็นการก่อเหตุทางโทรศัพท์ มูลค่าความเสียหายโดยรวมสูงถึง 11 ล้านเหรียญสหรัฐ และที่น่าเป็นห่วงคือ เทคโนโลยีปัญญาประดิษฐ์ (AI) ก้าวหน้าขึ้นแต่มีราคาที่ถูกลง นั่นทำให้มิจฉาชีพสามารถนำมาใช้ปลอมเสียงได้อย่างแนบเนียน 

มิจฉาชีพค้นหาเสียงของเป้าหมายจากไหน? ผู้เชี่ยวชาญด้านนิติวิทยาศาสตร์ดิจิทัล ศาสตราจารย์ฮานี ฟาริด (Prof.Hany Farid) จากมหาวิทยาลัยแคลิฟอร์เนีย เบิร์กลีย์ (UC Berkeley) มลรัฐแคลิฟอร์เนีย อธิบายการทำงานของซอฟต์แวร์ AI สร้างเสียงเลียนแบบ ว่า AI จะวิเคราะห์สิ่งที่ทำให้เสียงของบุคคลนั้นมีเอกลักษณ์เฉพาะตัว ไม่ว่าจะเป็นอายุ เพศ สำเนียง และค้นหาฐานข้อมูลเสียงขนาดใหญ่เพื่อค้นหาเสียงที่คล้ายกันและทำนายรูปแบบต่างๆ จากนั้นจึงสามารถสร้างระดับเสียง เสียงต่ำ และเสียงเฉพาะบุคคลของเสียงคนคนหนึ่งเพื่อสร้างเอฟเฟกต์โดยรวมที่คล้ายคลึงกันตัวอย่างเสียงนั้นสามารถหาได้จากหลายๆ แหล่ง ไม่ว่าจะเป็นยูทูบ พอดแคสต์ โฆษณา ติ๊กต๊อก อินสตาแกรม เฟซบุ๊ก เมื่อ 2 ปีก่อน แม้กระทั่งปีที่แล้ว คุณยังต้องการตัวอย่างเสียงจำนวนมากเพื่อเลียนแบบ แต่ตอนนี้แค่คุณมีเพจเฟซบุ๊ก หรือหากคุณบันทึกวีดีโอในติ๊กต๊อก และเสียงของคุณอยู่ในนั้นเป็นเวลา 30 วินาที ผู้คนก็สามารถลอกเลียนแบบเสียงของคุณได้แล้วฟาริดระบุ

รายงานของ The Washington Post ยังได้กล่าวถึงกรณีของ เบนจามิน เพอร์กิน (Benjamin Perkin) ชายวัย 39 ปี ถูกมิจฉาชีพปลอมเสียงโทรศัพท์ไปหลอกพ่อแม่ อ้างว่าเป็นทนายความกำลังหาทางช่วยเขาที่เป็นผู้ต้องหาคดีอุบัติเหตุขับรถชนนักการทูตสหรัฐฯ เสียชีวิต โดยต้องการเงินจำนวน 21,000 เหรียญแคนาดา หรือ 15,449 เหรียญสหรัฐ เป็นค่าธรรมเนียมในกระบวนการยุติธรรม และแม้จะรู้สึกแปลกๆ แต่สุดท้ายก็ตัดสินใจโอนเงินไปตามที่ปลายสายกล่าวอ้าง ก่อนจะมารู้ในภายหลังว่าถูกหลอก เมื่อเพอร์กินโทรศัพท์ไปหาพ่อแม่ในคืนวันเดียวกัน

หลังทราบเรื่อง ครอบครัวได้เข้าแจ้งความกับสำนักงานตำรวจของรัฐบาลกลางแคนาดา แต่ก็ไม่ได้เงินคืน อย่างไรก็ตาม รายงานข่าวไม่ระบุชัดว่ามิจฉาชีพได้ตัวอย่างเสียงของเพอร์กินมาจากที่ใด แต่ก็พบว่า ชายหนุ่มเคยโพสต์คลิปวีดีโอบนเว็บไซต์ยูทูบ พูดถึงงานอดิเรกคือการขี่สโนว์โมบิล ขณะที่ วิล แม็กสัน (Will Maxson) ผู้ช่วยผู้อำนวยการแผนกการตลาดของ FTC กล่าวว่า การติดตามมิจฉาชีพหลอกลวงด้วยเสียงนั้น “ยากเป็นพิเศษ” เพราะคนเหล่านี้ใช้โทรศัพท์ทำปฏิบัติการจากที่ใดก็ได้ในโลก จึงยากที่จะระบุว่าหน่วยงานใดมีอำนาจหน้าที่รับผิดชอบ

หากคนที่คุณรักบอกคุณว่าพวกเขาต้องการเงิน ให้พักสายนั้นไว้และลองโทรหาสมาชิกในครอบครัวของคุณแยกกัน หากมีสายที่น่าสงสัยมาจากหมายเลขของสมาชิกในครอบครัว โปรดทราบว่าก็สามารถถูกปลอมแปลงได้เช่นกัน อย่าจ่ายเงินให้ผู้อื่นด้วยบัตรของขวัญ เพราะบัตรเหล่านั้นติดตามได้ยาก และระวังการขอเงินสด แม็กสัน กล่าวเตือน

เช่นเดียวกับรายงานข่าวของสถานีโทรทัศน์ Fox News สหรัฐฯ วันที่ 23 เม.ย. 2566 ที่อ้างความเห็นของ มอร์แกน ไรท์ (Morgan Wright) หัวหน้าที่ปรึกษาด้านความปลอดภัยของ SentinelOne บริษัทด้านการรักษาความปลอดภัยไซเบอร์ที่มีสำนักงานใหญ่ในสหรัฐฯ ซึ่งระบุว่า ความรวดเร็วของการหลอกลวง และความเหมือนของเสียงที่ถูกสร้างขึ้นโดยเทคโนโลยี AI ทำให้มิจฉาชีพได้เปรียบเหยื่อ โดยยกกรณีของ เจนนิเฟอร์ เดสเตฟาโน ที่ถูกหลอกว่าลูกสาวของเธอโดนคนร้ายจับตัวเรียกค่าไถ่ เป็นตัวอย่าง

มิจฉาชีพพบเสียงไม่ว่าจะเป็นบนติ๊กต๊อก เฟซบุ๊ก หรืออะไรก็ตาม เสียงที่มากพอจะสร้างเสียงของลูกสาวขึ้นมาใหม่ได้ แม้ว่านั่นไม่ใช่ลูกแต่มันเป็นสิ่งที่ผู้ปกครองเชื่อ พวกเขากันคุณออกไปและจะไม่ให้เวลาผู้ปกครองในการตอบสนอง คุณกำลังได้ยินเสียงที่คุณเชื่อว่าเป็นลูกของคุณ และตอนนี้พวกเขามีอำนาจแล้ว เพราะคุณไม่รู้ว่าลูกของคุณอยู่ที่ไหน ไรท์ กล่าว

ความอันตรายของเทคโนโลยี AI ปลอมแปลงเสียงบุคคล ไม่ได้หยุดอยู่แต่เพียงการหลอกลวงทรัพย์สินเงินทองจากปัจเจกเฉพาะราย แต่อาจก่อความปั่นป่วนโกลาหลได้อย่างกว้างขวางในสังคม รายงานจากสำนักข่าว Euronews เครือข่ายสถานีโทรทัศน์ของยุโรปที่มีสำนักงานใหญ่ในเมืองลียง ประเทศฝรั่งเศส เมื่อวันที่ 25 มี.ค. 2566 ยกตัวอย่างการทดลองใช้เทคโนโลยีนี้เลียนแบบเสียงของ เอ็มมา วัตสัน (Emma Watson) นักแสดงสาวชาวอังกฤษ ให้อ่านออกเสียงข้อความในหนังสือ “การต่อสู้ของข้าพเจ้า (Mein Kampf)” งานเขียนของ อดอล์ฟ ฮิตเลอร์ (Adolf Hitler) ผู้นำเผด็จการนาซีเยอรมัน ในยุคสงครามโลกครั้งที่ 2

บรรดาผู้เชี่ยวชาญเริ่มเป็นกังวลกับการนำเทคโนโลยีไปใช้ในทางที่ผิด เช่น การทำให้เชื่อว่านักการเมืองออกแถลงการณ์ที่น่าตกใจทั้งที่เจ้าตัวไม่รู้เรื่อง หรือเพื่อหลอกลวงผู้คนโดยเฉพาะผู้สูงอายุ ซึ่ง แมทธิว ไรท์ (Matthew Wright) ประธานสาขาวิทยาการคอมพิวเตอร์ สถาบันเทคโนโลยีโรเชสเตอร์ เมืองนิวยอร์ก สหรัฐฯ กล่าวว่า ที่น่าห่วงคือมิจฉาชีพไม่จำเป็นต้องเก็บตัวอย่างเสียงของเป้าหมายเป็นจำนวนมาก 

คุณลองจินตนาการดูว่าพวกเขาแค่โทรหา แสร้งทำเป็นเป็นพนักงานขาย และบันทึกเสียงให้เพียงพอเพื่อให้ใช้งานได้ และนั่นอาจเป็นเพียงทั้งหมดที่พวกเขาต้องการเพื่อหลอกใครสักคน แมทธิว กล่าว

สำหรับคำเตือนถึงประชาชนทั่วไป แมทธิว แนะนำว่า จงระมัดระวังสายโทรศัพท์ที่ไม่คาดคิดและพยายามเร่งเร้าเพื่อเพื่อให้โอนเงินเช่น อาจลองถามคำถามที่เป็นส่วนตัวเพื่อยืนยันตัวตน หรืออาจอ้างว่าเดี๋ยวขอติดต่อกลับเอง เพื่อเปิดช่องให้ได้ตรวจสอบกับแหล่งข้อมูลหรือช่องทางอื่นๆ อาทิ การโทรศัพท์ไปสอบถามบุคคลที่อ้างว่ามาขอให้โอนเงินว่าเป็นความจริงหรือไม่ โดยการใช้หมายเลขโทรศัพท์ที่เราทราบอยู่แล้วก่อนหน้านั้น

ทั้งนี้ เรื่องของมิจฉาชีพใช้เทคโนโลยี AI ปลอมเสียงหลอกเงินเหยื่อนั้นไม่ไกลตัวคนไทยอีกต่อไป โดยเริ่มมีการรายงานผ่านหน้าสื่อ อาทิ สถานีโทรทัศน์ช่อง 8 พาดหัวข่าว เตือนภัย! มิจฉาชีพคิดกลโกงใหม่ ใช้ AI ปลอมเสียงเป็นคนคุ้นเคยโทรหลอกยืมเงิน วันที่ 26 ก.ย. 2565 ว่าด้วยผู้ใช้เฟซบุ๊กรายหนึ่ง เล่าว่า มีคนอ้างเป็นเพื่อนโทรศัพท์มาขอยืมเงิน 15,000 บาท แถมยังขอให้บันทึกหมายเลขโทรศัพท์ที่ใช้โทร.มา และลบหมายเลขเดิมที่บันทึกไว้ออกด้วย โดยอ้างว่าเปลี่ยนหมายเลขแล้ว

ด้วยความที่ได้ฟังแล้วเชื่อว่าเป็นเสียงของเพื่อน ในตอนแรกผู้ใช้เฟซบุ๊กรายนี้ก็หลงเชื่อลบหมายเลขโทรศัพท์เก่าออก แต่ก็เริ่มเอะใจเมื่ออีกฝ่ายส่ง SMS มาเป็นบัญชีธนาคารชื่อบุคคลอื่น และเคราะห์ดีที่ยังมีไลน์ของเพื่อนคนดังกล่าวตัวจริง จึงโทรศัพท์ผ่านไลน์ไปสอบถาม จนรู้ว่าถูกหลอกแล้วเพราะเพื่อนคนที่ว่านอกจากจะไม่ได้ขอยืมเงินแล้วยังไม่ได้เปลี่ยนหมายเลขโทรศัพท์อีกต่างหาก ทำให้ไม่พลาดท่าเสียเงิน และเมื่อนำข้อมูลไปแจ้งความ ตำรวจก็บอกว่าในไทยมีเหยื่อโดนแบบนี้แล้วหลายราย 

เมื่อวันที่ 4 เม.ย. 2566 ในกิจกรรมอบรมเชิงปฏิบัติการ รับมือด้านมืดออนไลน์ในยุคห้าจี สำหรับผู้สูงอายุ ซึ่งเป็นส่วนหนึ่งของงานภาพยนตร์สนทนาและอบรมเชิงปฏิบัติการ รับมือด้านมืดออนไลน์ในยุคห้าจี โดย 2 นายตำรวจจากกลุ่มงานสนับสนุนทางไซเบอร์ กองบังคับการตรวจสอบและวิเคราะห์อาชญากรรมทางเทคโนโลยีสำนักงานตำรวจแห่งชาติ ที่มาเป็นวิทยากรในงานดังกล่าว คือ พ.ต.ท.ธนธัส กังรวมบุตร และ พ.ต.ท.วัชรินทร์ อ่วมฟุ้ง ได้ฝากแนวทางรับมือมิจฉาชีพที่แอบอ้างเป็นคนรู้จักหลอกยืมหรือขอเงิน ดังนี้

1.โทรศัพท์ไปถามเจ้าตัวก่อนโอน อาจจะเสียเวลา (หรืออาจเจออีกฝ่ายบ่นบ้าง) ก็ยังดีกว่าเสียเงินให้มิจฉาชีพ และย้ำว่า ให้โทรด้วยหมายเลขโทรศัพท์เดิมที่เคยจดไว้ก่อนหน้านี้เท่านั้น อย่าโทรไปหมายเลขใหม่ที่บัญชีนั้นเพิ่งให้มา หรืออย่าโทรโดยผ่านแอปพลิเคชันไลน์ เพราะยังเสี่ยงเจอมิจฉาชีพให้หมายเลขโทรศัพท์หรือบัญชีไลน์ปลอมอีก กับ 2.อย่าโอนเงินถ้าชื่อคนขอเงินกับชื่อบัญชีธนาคารไม่ตรงกัน เจอแบบนี้คิดไว้ก่อนได้เลยว่ามิจฉาชีพแน่นอน

ทุกวันนี้เรามีไลน์ ปัญหาที่ตามมาคือเราไม่ค่อยจะบันทึกเบอร์โทรศัพท์ของกันและกันแล้ว สมัยก่อนเราบอกเพื่อน เฮ้ย! ขอเมมเบอร์ไว้หน่อย ปีใหม่-สงกรานต์ก็ส่ง SMS ให้เพื่อน แต่ทุกวันนี้ส่งไลน์ ส่งให้เป็นกลุ่ม โดยที่เราไม่รู้ว่าเพื่อนเราเบอร์โทรอะไร ฉะนั้นกลับไปเมมเบอร์เพื่อน เมมเบอร์ลูกหลานไว้ เผื่อฉุกเฉินได้คุยกัน นายตำรวจวิทยากรทั้ง 2 ท่าน ฝากข้อคิด


อ้างอิง

https://www.nbc15.com/2023/04/10/ive-got-your-daughter-mom-warns-terrifying-ai-voice-cloning-scam-that-faked-kidnapping/ (‘I’ve got your daughter’: Mom warns of terrifying AI voice cloning scam that faked kidnapping : WMTV nbc15.com 11 เม.ย. 2566)

https://www.washingtonpost.com/technology/2023/03/05/ai-voice-scam/ (They thought loved ones were calling for help. It was an AI scam. : The Washington Post 5 มี.ค. 2566)

https://www.foxnews.com/tech/scammers-are-using-your-snapchat-and-tiktok-posts-in-their-ai-schemes (How scammers are using your Snapchat and TikTok posts in their AI schemes : Fox News 23 เม.ย. 2566)

https://www.euronews.com/next/2023/03/25/audio-deepfake-scams-criminals-are-using-ai-to-sound-like-family-and-people-are-falling-fo (Audio deepfake scams: Criminals are using AI to sound like family and people are falling for it : Euronews 25 มี.ค. 2566)

https://www.thaich8.com/news_detail/112669 (เตือนภัย! มิจฉาชีพคิดกลโกงใหม่ ใช้ AI ปลอมเสียงเป็นคนคุ้นเคยโทรหลอกยืมเงิน : ช่อง 8 26 ก.ย. 2565)

https://blog.cofact.org/forum6604042/ (ตำรวจไซเบอร์ เผยสารพัดกลโกงมิจฉาชีพออนไลน์ ยอมรับจับยากเพราะอยู่ต่างประเทศ-ป้องกันตัวเองดีที่สุด : เพจ ‘Cofact โคแฟค’ 14 เม.ย. 2566)