Warning: Undefined array key "postid" in /home/securitysy/domains/securitysystems.in.th/public_html/wp-content/plugins/page-views-count/src/pvc_widget.php on line 24
Warning: Undefined array key "increase" in /home/securitysy/domains/securitysystems.in.th/public_html/wp-content/plugins/page-views-count/src/pvc_widget.php on line 25
Warning: Undefined array key "show_views_today" in /home/securitysy/domains/securitysystems.in.th/public_html/wp-content/plugins/page-views-count/src/pvc_widget.php on line 26
เมื่อเดือนพฤษภาคม 2022 FBI แจ้งว่า ได้รับการร้องเรียนหลายครั้งเกี่ยวกับการใช้ ตัวตนปลอม วิดีโอปลอม เสียงปลอม เพื่อหลอกลวงการสมัครงานในตำแหน่ง IT แบบรีโมท
ฝ่ายบุคคลของบริษัทผู้จ้างงานจำนวนมากบอกว่า มีผู้สมัครงานหลายรายไม่ได้ใช้ตัวตนของตัวเองในการสมัครงาน แต่ใช้วิดีโอรูปภาพของคนอื่น แล้วยังมีการปรับแต่งให้มีลักษณะและเสียงเหมือนคนอื่นด้วย
ผู้ปลอมแปลงใช้ข้อมูลส่วนตัวของคนที่มีอยู่จริงซึ่งมีคุณสมบัติดี เพื่อสมัครงานในบริษัทไอที ขอสมัครงานด้านการเขียนโปรแกรม ฐานข้อมูล และซอฟต์แวร์ Deepfake AI ปลอมได้ทั้งภาพและเสียง จะเอาตัวตนของใครมาทำให้เหมือนจริงก็ได้
ตามข่าวแจ้งว่า ในการสัมภาษณ์ออนไลน์ ผู้ว่าจ้างบางรายสังเกตเห็นการขยับปากกับคำพูดไม่ตรงกัน แต่ที่จริงแล้ว วันนี้มีแอป Deepfake ที่สามารถทำให้ภาพวิดีโอและเสียงสอดคล้องกันแบบเรียลไทม์ได้ วิดีโอที่ผลิตขึ้นอย่างมืออาชีพ สามารถสร้างมนุษย์ที่ดูเหมือนคนจริงได้
FBI รายงานว่า ในปัจจุบัน แอปรับจ้างทำงานอย่าง Upwork หรือ Fiver มีคนที่ใช้เอกสารและข้อมูลอ้างอิงปลอมให้เห็นอยู่บ่อยครั้ง
วิธีธรรมดาที่ผู้คนทั่วไปใช้ตรวจสอบวิดีโอที่น่าสงสัย อาจทำได้หลายวิธี เช่น ดูการเคลื่อนไหวของสายตา การขยับปากที่ไม่สอดคล้องกับเสียง เงาที่ทอดออกไปอย่างไม่สมเหตุผล ฯลฯ
สำหรับคนทั่วไปแล้ว ถ้าไม่ได้ตั้งใจจับผิดจริงๆ ไม่ใช่เรื่องง่ายที่จะตรวจจับวิดีโอปลอม ปัญญาประดิษฐ์สามารถตรวจจับวิดีโอที่ถูกดัดแปลงได้ อาจมีความแม่นยำตั้งแต่ 30-97% ต้องใช้ AI ไปตรวจจับ AI ด้วยกันเอง!!!
แหล่งข้อมูล
https://www.facebook.com/turakij4.0/photos/a.698141950343830/2274548532703156/