Logo DE Ministry.
กระทรวงดิจิทัลเพื่อเศรษฐกิจและสังคม
Ministry of Digital Economy and Society
Logo DE Ministry.
กระทรวงดิจิทัลเพื่อเศรษฐกิจและสังคม
Ministry of Digital Economy and Society
ตัวช่วยเหลือในการเข้าถึงเว็บไซต์
“AI Deepfake” เมื่อสแกมเมอร์ ลวงเราด้วยเสียงของคนใกล้ตัว

“AI Deepfake” เมื่อสแกมเมอร์ ลวงเราด้วยเสียงของคนใกล้ตัว

ในปัจจุบัน เทคโนโลยีเข้ามาเป็นส่วนหนึ่งของชีวิตประจำวันของเรามากกว่าที่คิดไม่ว่าจะเป็น ภาพ วิดีโอ หรือเสียง ที่เราเห็นและได้ยินผ่านโลกออนไลน์เทคโนโลยีเหล่านี้มีประโยชน์มากแต่ในอีกด้านหนึ่ง ก็ถูกนำมาใช้เป็นเครื่องมือของมิจฉาชีพเช่นกัน วันนี้ เทคโนโลยี AI Deepfake สามารถเลียนแบบ เสียง และ ภาพ ของคนใกล้ตัว ไม่ว่าจะเป็นคนในครอบครัว คนรัก หรือคนที่เราคุ้นเคยจนแทบแยกไม่ออกว่า…สิ่งที่ได้ยินหรือเห็นนั้น เป็นเรื่องจริงหรือเรื่องปลอมมิจฉาชีพอาศัยความไว้ใจและความห่วงใยหลอกให้เราเชื่อ และตัดสินใจอย่างเร่งด่วน เช่น ขอให้โอนเงิน อ้างว่าเกิดเหตุฉุกเฉิน หรือมีปัญหาด่วน กระทรวงดิจิทัลเพื่อเศรษฐกิจและสังคม โดยศูนย์ปฏิบัติการเพื่อป้องกันและปราบปรามอาชญากรรมทางเทคโนโลยี หรือ AOC 1441 ขอเตือนให้ประชาชนเพิ่มความระมัดระวัง และสร้างเกราะป้องกันให้กับตนเอง
 
แน่ใจได้จริงหรือ… ว่าเสียงที่คุณกำลังได้ยินอยู่ คือ คนรักของคุณจริง ๆ
 
วันนี้ มิจฉาชีพปรับกลโกงให้แนบเนียนยิ่งขึ้นโดยใช้เทคโนโลยี ปัญญาประดิษฐ์ หรือ AI เลียนแบบเสียงของคนที่คุณรู้จักอาจเป็น พ่อ แม่ ลูก หลาน คนรัก หรือแม้แต่ เจ้าหน้าที่ของหน่วยงานรัฐ มิจฉาชีพจะนำเสียงตัวอย่างของบุคคลเหล่านั้น ไปให้ AI เรียนรู้และลอกเลียนจนได้เสียงที่ใกล้เคียงกับต้นฉบับมาก จากนั้นจะสร้างสถานการณ์เร่งด่วน เช่น เกิดอุบัติเหตุ ถูกจับ หรือมีปัญหาทางกฎหมาย แล้วโทรมาขอให้โอนเงินทันที กลโกงรูปแบบนี้ อันตรายมาก เพราะเหยื่อจำนวนมากหลงเชื่อเสียงที่ฟังดูเหมือนคนใกล้ตัวจริง ๆ จึงตัดสินใจโอนเงิน โดยไม่มีเวลาไตร่ตรองหรือ ตรวจสอบให้แน่ชัดเพียงแค่ “เสียงที่คุ้นเคย” ก็อาจทำให้คุณสูญเสียเงินได้ในไม่กี่นาที
 
ลักษณะการหลอกลวงด้วย AI Deepfake
 
มิจฉาชีพมักเริ่มจากการโทรเข้ามาแล้วแอบอ้างว่าเป็นคนที่เรารู้จักเสียงที่ได้ยิน อาจเป็นเสียงของญาติสนิท คนรัก เพื่อนใกล้ตัว ผู้ใหญ่ที่เคารพ หรือแม้แต่ คนดัง เบื้องหลังเสียงเหล่านั้นคือการใช้เทคโนโลยี เลียนแบบเสียง หรือ Voice Clone ซึ่งสามารถทำให้เสียงใกล้เคียงกับเจ้าของเสียงจริงมากจนแทบแยกไม่ออกว่าเป็นของจริงหรือของปลอมจากนั้น มิจฉาชีพจะสร้างสถานการณ์เร่งด่วน เช่น เกิดเหตุฉุกเฉิน ต้องใช้เงินทันทีเพื่อทำให้เหยื่อตกใจ สับสน และรีบตัดสินใจเมื่อความรัก ความห่วงใย และความกังวลเข้ามาแทนที่การไตร่ตรองเหยื่อจำนวนมากจึงตัดสินใจ โอนเงินทันที โดยไม่ได้ตรวจสอบให้แน่ชัดและเมื่อรู้ตัวอีกครั้งก็โอนเงินไปให้มิจฉาชีพแล้ว
 
ในวันที่ AI กลายเป็นดาบสองคม ถ้าเราไม่ระวังให้มากพอ
 
ความไว้ใจ…อาจกลายเป็นช่องโหว่ให้มิจฉาชีพ ศูนย์ปฏิบัติการเพื่อป้องกันและปราบปรามอาชญากรรมทางเทคโนโลยี หรือ AOC 1441 ได้รับแจ้งคดีหลอกลวงในรูปแบบ แอบอ้างเป็นบุคคลใกล้ชิด ในกรณีตัวอย่างนี้ผู้เสียหายได้รับโทรศัพท์จากบุคคลที่อ้างว่าเป็น “ลูกสาว” ที่กำลังศึกษาอยู่ในมหาวิทยาลัย ปลายสายขอให้โอนเงินอ้างว่าเป็นค่าใช้จ่ายเกี่ยวกับกิจกรรมของมหาวิทยาลัย เสียงที่ได้ยิน เหมือนลูกสาวจริง ๆ ทำให้ผู้เสียหายหลงเชื่อและโอนเงินไปกว่า 100,000 บาท ต่อมา เมื่อได้ติดต่อพูดคุยกับลูกสาวตัวจริงและสอบถามถึงกิจกรรมดังกล่าวจึงพบว่า ไม่เคยมีเรื่องนี้เกิดขึ้น ในขณะนั้นเองผู้เสียหายจึงรู้ตัวว่าเสียงที่โทรมาขอเงินก่อนหน้าคือเสียงที่ถูก ปลอมขึ้นด้วย AI
 
กรณีตัวอย่างที่เกิดขึ้นอาจเป็นเพียงส่วนหนึ่งของกลโกงที่มิจฉาชีพนำเทคโนโลยี AI Deepfake มาใช้หลอกลวง แต่สิ่งที่ช่วยป้องกันเราได้ดีที่สุดไม่ใช่เทคโนโลยีที่ซับซ้อนคือ สติ และการรู้เท่าทันกลโกง เพราะมิจฉาชีพมักอาศัยการสร้างสถานการณ์เร่งด่วนให้เราตกใจ ในยุคนี้ อย่าเชื่อเพียงเพราะเห็น อย่าโอนเพียงเพราะได้ยินเสียงที่คุ้นเคย ตรวจสอบให้แน่ใจทุกครั้ง ก่อนตัดสินใจ จำไว้ให้ขึ้นใจ ไม่กดลิงก์ ไม่เชื่อ ไม่รีบ ไม่โอน เพียงหยุดคิดสักนิดก็ช่วยเป็นเกราะป้องกันไม่ให้ตกเป็นเหยื่อของมิจฉาชีพได้
 
……………………………………………


icon-sitemap    std-w1    std-w2    WCAG 2.0 (Level AA)
จำนวนผู้เยี่ยมชมเว็บไซต์ Loading...


กระทรวงดิจิทัลเพื่อเศรษฐกิจและสังคม

เลขที่ 120 หมู่ 3 ชั้น 8-11 ศูนย์ราชการเฉลิมพระเกียรติ 80 พรรษา 5 ธันวาคม 2550 (อาคาร ซี) ซอยแจ้งวัฒนะ 7 ถนนแจ้งวัฒนะ แขวงทุ่งสองห้อง เขตหลักสี่ กรุงเทพฯ 10210

facebook
instagram
twitter
youtube
rss
tiktok
threads
Icon Q&A
black ribbon.