ล่าสุดมีเครื่องมือ AI ที่ถูกพัฒนาช่วยอำนวยความสะดวกแก่ผู้ใช้ได้หลากหลาย แต่ด้วยความสามารถที่มากล้น ก็ย่อมมีความกังวลว่าจะถูกนำไปใช้งานในทางผิดได้ แน่นอนว่าล่าสุดพบนักหลอกลวงออนไลน์ นำ AI มาปลอมแปลงเสียง เพื่อหลอกเหยื่อให้โอนเงินช่วยเหลือ
โดยเกิดขึ้นกับสามีภรรยาชาวแคนาดาวัย 70 ปีคู่หนึ่ง รับโทรศัพท์ที่คิดว่าเป็นหลายชายโทรมา โดยในสายเผยว่าตนเองกำลังติดคุก และต้องการเงินประกันตัวด่วน ด้วยความร้อนรน สามีภรรยาคู่นี้จึงถอนเงินถึง 3,000 ดอลลาร์ฯ หรือประมาณ 1 แสนบาทมารอไว้ แต่เคราะห์ดีที่ยังไม่ทันได้โอน
หลังกำลังจะถอนเงินจำนวนเดียวกันนี้ออกจากอีกธนาคารหนึ่ง ก็ได้ผู้จัดการของธนาคารเตือนก่อนว่า พวกเขากำลังถูกหลอกลวง แถมยังมีลูกค้ารายอื่น ๆ ได้รับสายที่คล้ายกันด้วย
ทว่าก็ยังมีผู้เคราะห์ร้าย เมื่อครอบครัวหนึ่งได้รับโทรศัพท์จากทนายความแจ้ง ลูกชายขับรถชนนักการทูตของสหรัฐฯ จนถึงแก่ความตาย เป็นเหตุให้ตัวเองกำลังติดคุก และต้องการค่าดำเนินการทางกฎหมายเป็นการด่วน
ร้ายไปกว่านั้น ตัวคนร้ายยังเลียนแบบเสียงลูกชาย โดยทำทีว่าให้ลูกชายมาพูดคุยด้วย แน่นอนว่าทางพ่อแม่ก็ได้ส่งเงินเป็นจำนวนมากถึง 15,449 ดอลลาร์ฯ หรือประมาณ 5 แสนบาท โดยไม่สามารถนำเงินกลับมาได้ และจับคนร้ายได้อีก
อย่างไรก็ดี เรื่องที่เกิดขึ้นในต่างประเทศนั้น เป็นเสียงสะท้อนให้คนไทยอาจจะต้องระมัดระวังยิ่งกว่าเดิม เพราะปัจจุบันสถานการณ์แก๊งคอลเซ็นเตอร์ออกอาละวาดหลอกลวงคนในประเทศไทย ก็มีคดีประเภทโทรมาตีเนียนว่าเป็นเพื่อนแล้วขอยืมเงินที่จับไม่ได้อีกเพียบ
ถึงแม้ทุกวันนี้ในประเทศไทยจะยังไม่มีคดีที่ใช้ AI ปลอมเสียง แต่เสียงที่หมือนคนคุ้น เคยที่รู้จัก อาจไม่ใช่คนที่คุณรู้จักจริงๆ แต่คุณอาจตกเป็นเหยื่อของเทคโนโลยีก็ได้
ข่าวจาก : ข่าวสด
- ไม่สามารถใส่ชื่อเว็บไซต์ใด ๆ ก็ตาม ลงในช่องแสดงความคิดเห็น
- ระบบสามารถรับข้อความ ได้สูงสุดเพียง 2,000 ตัวอักษร ต่อหนึ่งครั้ง
- ผู้ดูแลเว็บไซต์ จะลบข้อความที่ไม่เหมาะสม และข้อความโฆษณาสินค้า หรือบริการ