Gogolook ผู้พัฒนาแอปพลิเคชัน Whoscall และผู้ให้บริการทางด้านเทคโนโลยี เพื่อความเชื่อมั่น (TrustTech) เตือนภัยมิจฉาชีพในประเทศไทยเริ่มใช้วิธีหลอกลวงใหม่ด้วยเทคโนโลยี AI ปลอมเสียง

จำนวนเคสการหลอกลวงโดยใช้  AI ปลอมเสียง กำลังเพิ่มขึ้นทั่วโลก เนื่องจากมิจฉาชีพเริ่มใช้เทคโนโลยีปัญญาประดิษฐ์ (AI) เพื่อเลียนแบบเสียงคนคุ้นเคย เพื่อนหรือครอบครัว เพื่อทำให้เหยื่อเชื่อและหลงกลในที่สุด

มิจฉาชีพใช้เทคโนโลยีโคลนนิ่งเพื่อวิเคราะห์เสียงที่ถูกบันทึกไว้หรือเสียงที่ได้จากออนไลน์เพื่อสร้างเสียงสังเคราะห์ที่ใกล้เคียง กับเสียงบุคคลเป้าหมาย

เมื่อทำสำเร็จก็จะโทรหาเหยื่อเพื่อปลอมเป็นสมาชิกในครอบครัวหรือคนใกล้ตัว บ่อยครั้งที่ผู้โทรอ้างว่า อยู่ในสถานการณ์ฉุกเฉิน เช่น เกิดอุบัติเหตุ ต้องการให้โอนเงินช่วยเหลือโดยด่วน หรือมีปัญหาทางกฎหมาย เพื่อบีบคั้นและเร่ง ให้เหยื่อทำบางอย่างโดยไม่ทันตรวจสอบว่าผู้โทรเข้าเป็นคนที่คิดไว้จริงหรือไม่

ในประเทศไทยเทคโนโลยี  AI ปลอมเสียงเพื่อหลอกหลวงเริ่มคืบคลานเข้ามา หลายฝ่ายเริ่มส่งสัญญาณเตือน  เมื่อเร็วๆนี้ กระทรวงดิจิทัลเพื่อเศรษฐกิจและสังคม (DES) ได้เตือนว่าขณะนี้มิจฉาชีพเริ่มใช้ AI ปลอมเสียง สร้างแชทปลอม และ คลิปปลอม ด้านสำนักงานตำรวจแห่งชาติ แถลงข่าวเตือนมิจฉาชีพใช้วิธี“ปลอมเสียง”เป็นบุคคลอื่นเพื่อยืมเงิน  ซึ่งเป็นการพัฒนาวิธีการหลอกลวงของคนร้าย

นางสาวฐิตินันท์ สุทธินราพรรณ ผู้อำนวยการฝ่ายการตลาดประจำภูมิภาคเอเชียตะวันออกเฉียงใต้ บริษัท Gogolook ได้เน้นความสำคัญของการป้องกัน การฉ้อโกงและความมุ่งมั่นในการให้ความปลอดภัยแก่ผู้ใช้บริการ Whoscall ในประเทศไทย โดยกล่าวเสริมว่า "เมื่อเทคโนโลยีการฉ้อโกงพัฒนา อย่างต่อเนื่อง ทาง Gogolook มุ่งมั่นที่จะสร้างชุมชน ป้องกันการฉ้อโกงและสร้างความปลอดภัยให้แก่ผู้ใช้บริการ Whoscall พร้อมกับ การร่วมมือกับ GASA เพื่อเสริมสร้าง การแลกเปลี่ยนข้อมูลระหว่างภูมิภาคและการร่วมมือทางเทคโนโลยี และสร้างสรรค์โซลูชันส์ป้องกันการฉ้อโกงระดับโลก เพื่อปกป้องผู้ใช้จากอันตรายที่กำลังเพิ่มขึ้นจากการหลอกลวงด้วยเทคโนโลยีเสียงหรือการหลอกลวง โดยใช้ Generative AI"

Cr: thansettakij