ความเหลื่อมล้ำในโลกของ AI โดย ดร. มนต์ศักดิ์ โซ่เจริญธรรม

Share

Loading

0

บทความโดย :
ดร. มนต์ศักดิ์ โซ่เจริญธรรม
https://www.facebook.com/monsaks

0

จากเหตุการณ์ในคดีของ George Floyd ที่เป็นประเด็นเรื่องเรื่องการปฏิบัติที่ไม่เท่าเทียมกันในสังคม (Discrimination) จนกลายเป็นปัญหาความเหลือมล้ำทางด้านผิวสีที่นำไปสู่การประท้วงใหญ่ในสหรัฐอเมริกา ได้ลุกลามนำมาสู่เรื่องของความเหลื่อมล้ำของเทคโนโลยี AI ในการจำแนกใบหน้าบุคคลผิวสี จนเกิดเหตุการณ์ ดังนี้

– IBM ประกาศยกเลิกการทำธุรกิจ การพัฒนา และการวิจัยเทคโนโลยีรู้จำใบหน้า (Facial Recognition)

– Microsoft ประกาศว่าจะไม่ขายเทคโนโลยีรู้จำใบหน้าให้กับตำรวจจนกว่ารัฐสภาสหรัฐฯ จะผ่านกฎหมายคุ้มครองดูแลข้อมูลส่วนบุคคล ไม่ให้เกิดการเลือกปฏิบัติและแบ่งแยก

– Amazon ประกาศหยุดสนับสนุนการใช้เทคโนโลยีรู้จำใบหน้าแก่ตำรวจ เป็นเวลา 1 ปี

โดยเรื่องความเหลื่อมล้ำของ AI ในการจำแนกใบหน้าบุคคลผิวสีนี้ไม่ใช่ไม่มีมูล เพราะสถาบันมาตรฐานและเทคโนโลยีแห่งชาติของอเมริกา (NIST – National Institute of Standards and Technology) ได้ทำการทดสอบความแม่นยำของอัลกอริธึมในการจำแนกบุคคลด้วยเทคโนโลยีรู้จำใบหน้าของหลายสิบบริษัททั่วโลก ซึ่งพบว่ามันมีความเลื่อมล้ำเกิดขึ้นกับเทคโนโลยีนี้จริง

การจัดคู่ภาพผิด หรือ Mugshots คือ เรามีภาพของบุคคลต้องสงสัย แล้วต้องการเอาไปหาคู่เทียบภาพของคนเดียวกันที่มีอยู่แล้วในฐานข้อมูล เช่น ฐานข้อมูลผู้ต้องสงสัย ส่วน False Match Rate คือ อัตราที่จับหาคู่ภาพขึ้นมาแล้วผิด ซึ่งปกติค่าที่ยอมรับได้คือ 1/10,000 แต่ในผลการทดสอบ NIST บอกว่า ในช่วงปี 2010-2018 ความแม่นยำในการทำ Facial Recognition ดีขึ้นถึง 25 เท่า และมีโอกาสผิดพลาดเพียงแค่ 0.2% เท่านั้น แต่อย่างไรก็ตาม เมื่อมีการทดสอบโดยเทียบเจาะจงเฉพาะคนผิวขาวกับคนผิวสี และผู้ชายกับผู้หญิง พบว่า

– กรณีหญิงผิวขาว จะมีอัตราการจับคู่ภาพถ่ายกับภาพจากฐานข้อมูลผิดที่ 1/10,000 แต่หญิงผิวสีจะเป็น 1/1,000 ซึ่งหมายความว่าในกรณีของหญิงผิวสีจะมีอัตราความผิดพลาดมากกว่าหญิงผิวขาวถึง 10 เท่า

– การประมวลผลภาพของผู้หญิงมีโอกาสผิดมากกว่าผู้ชาย ซึ่งยังไม่ทราบสาเหตุที่แน่นอน แต่สันนิษฐานว่าอาจเป็นเพราะผู้หญิงแต่ละคนแต่งหน้ามากบ้างน้อยบ้าง สไตล์ก็ต่างกันบ้าง จึงทำให้ยากกว่า

– ผลการทดสอบล่าสุดในปีนี้ ยังคงออกมาในทิศทางเดียวกัน คือ ภาพของคนผิวสี กับกับภาพของคนผิวขาว โอกาสที่จะเกิดความผิดพลาดต่างกัน 5-10 แล้วแต่ยี่ห้ออัลกอริธึม ตรงนี้ศัพท์เทคนิคเรียก False Match Rate (FMR) คือ เจอภาพในฐานข้อมูลแต่ภาพนั้นไม่ใช่ของบุคคลนั้นจริงๆ

นอกจากสถาบัน NIST แล้ว ยังมีสถาบันอื่นๆ อีกหลายแหล่งที่ทำการทดสอบ เช่น สหภาพเสรีภาพพลเมืองอเมริกัน (ACLU – The American Civil Liberties Union) ซึ่งเคยนำภาพใบหน้าของสมาชิกวุฒิสภาสหรัฐฯ 535 คน ประกอบด้วย สส. 435 คน และ สว. อีก 100 คน มาลองหาว่าจะแมทช์ตรงกับภาพหน้าคนร้ายคนใดหรือไม่ในฐานข้อมูล Mugshots (ภาพหน้าคนร้ายในอเมริกาที่เป็นข้อมูลสาธารณะ) โดยใช้เทคโนโลยี AI รู้จำใบหน้าของบริษัท Amazon ผลปรากฏว่ามีสส.และสว.กว่า 28 คน ที่ใบหน้าโดนแมทช์เข้ากับฐานข้อมูลใบหน้าคนร้ายตามหมายจับ

ในกรณีนี้ หากอ้างอิงกฎหมายคุ้มครองข้อมูลส่วนบุคคล GDPR ของทางฝั่งของยุโรป ในส่วนของจรรยาบรรณ AI หรือ AI Ethics ระบุว่าหากใช้ AI ในการประมวลผล จะต้องให้ผลที่เท่าเทียมกันและไม่เลือกปฏิบัติ ซึ่งในกรณีที่ผลการรู้จำภาพใบหน้าของคนผิวสีที่ต่างคนขาวประมาณ 10 นี้ ถือว่าเกิดความเหลื่อมล้ำอย่างชัดเจน โดยเฉพาะเมื่อมีการนำมาใช้ประกอบการตัดสินที่มีผลทางกฎหมาย หรือนำมาเกี่ยวข้องกับบริการสำคัญต่างๆ

ท่านที่สนใจวิธีการทดสอบ การเตรียมข้อมูลสำหรับทดสอบ และผลอย่างละเอียด สามารถเข้าไปดูได้ที่ – https://www.nist.gov/programs-projects/face-recognition-vendor-test-frvt-ongoing

อ้างอิง

https://www.theverge.com/2020/6/8/21284683/ibm-no-longer-general-purpose-facial-recognition-analysis-software

https://www.cnet.com/news/amazon-announces-one-year-pause-on-facial-recognition-for-police/

https://www.prnewswire.com/news-releases/idemia-facial-recognition-algorithm-outperforms-other-us-government-agency-providers-at-recent-nist-test-300818604.html

https://www.theverge.com/21288053/microsoft-facial-recognition-police-law-enforcement-pledge-regulation

https://www.aclu.org/blog/privacy-technology/surveillance-technologies/amazons-face-recognition-falsely-matched-28

https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai

https://ico.org.uk/for-organisations/guide-to-data-protection/guide-to-the-general-data-protection-regulation-gdpr/individual-rights/rights-related-to-automated-decision-making-including-profiling/

ขอขอบคุณแหล่งที่มา :

https://www.facebook.com/monsaks/posts/3533855819961365

เรียบเรียงโดย : บรรณาธิการ Security Systems Magazine