เมื่อ AI ถูกจับมาปรับทัศนคติ

 3,328 total views

เทคโนโลยี Ai หรือ (Artificial intelligence) ถือเป็นเทคโนโลยีที่มีความสำคัญมากขึ้นเรื่อง ๆ และแทรกอยู่ในแทบจะทุก ๆ เรื่องของการดำเนินชีวิตยุคปัจจุบัน เนื่องจากปัจจุบันนี้เรียกได้ว่า AI มีความเฉลียวฉลาดมากขึ้นเรื่อย ๆ ซึ่งก็ถือเป็นสิ่งที่ดีในแง่ของการพัฒนา

แต่ในอีกแง่หนึ่ง น้อยคนอาจจะยังไม่ทราบว่า AI บางครั้งก็มีทัศนคติในการทำงานที่ไม่ดีเหมือนกัน และแม้ว่าจะมีความฉลาดแค่ไหน แต่ถ้ามีทัศคติที่ไม่ดีแล้วล่ะก็ สุดท้ายก็ต้องถูกจับมาปรับทัศนคติเสียใหม่เช่นกัน

ดร.สมเกียรติ ตั้งกิจวานิชย์ ประธาน TDRI กล่าวผ่านรายการ คิดยกกำลังสอง ออกอากาศทางสถานีโทรทัศน์ไทยพีบีเอส (Thai PBS) ว่า “AI มีปัญหาเรื่องทัศนคติเยอะมาก และกำลังจะถูกจับไปปรับทัศนคติ โดยยุโรปกำลังจะออกกฎหมายควบคุม AI เพื่อให้มีทัศนคติที่ดี ให้เป็น AI ที่เชื่อถือได้…”

โดยจะมีการแบ่งเกรดของ AI ออกเป็น 3 กลุ่มตามความเสี่ยง ได้แก่

  1. กลุ่ม AI ที่เป็นอันตรายมาก จะต้องห้ามใช้
  2. กลุ่ม AI ที่เสี่ยงสูง จะต้องมีการกำกับดูแลอย่างใกล้ชิด
  3. กลุ่ม AI ที่เสี่ยงน้อย จะต้องมีการกำกับดูแลอย่างเข้มงวด

การเข้ามาสอดส่องดูแลและจัดระเบียบ AI ในครั้งนี้ ถือเป็นพัฒนาการที่สำคัญของโลกเลยก็ว่าได้ เพราะถ้าหากกฎหมายนี้ถูกบังคับใช้จริงในยุโรป ก็จะส่งผลกระทบไปทั่วโลกด้วยเช่นกัน

ลักษณะ AI ที่มีปัญหาทัศนคติ

ปัญหาทัศนคติของ AI ที่ถือว่าเป็นข่าวใหญ่โต นั้นก็คือปัญหาของทัศนคติการเหยียดผิว ซึ่งเคยมีสารคดีออกอากาศทาง Netflix นำเสนอเรื่องราวของการทดลองให้ AI ดูใบหน้าของคนผิวสี แต่ AI ไม่สามารถทำความเข้าใจกับภาพที่เห็นได้ จนกระทั่งเขานำเอาหน้ากากสีขาวมาใส่ ก็ปรากฏว่า AI จะรู้ได้ทันทีว่าภาพที่เห็นคือมนุษย์ รวมถึง การระบุเพศของคนผิวขาวและคนผิวสี จะพบว่า AI ค่อนข้างมีปัญหามาก ในการที่จะระบุเพศของคนผิวสีว่าเป็นเพศอะไร ผิดกับการระบุเพศของคนผิวขาวที่ AI สามารถทำได้อย่างแม่นยำ และรวดเร็ว

นี่คือตัวอย่างแรก ที่อาจจะตีความได้ว่า AI อาจจะยังไม่มีความสามารถเพียงพอที่จะระบุวัตถุที่อยู่ตรงหน้าว่าเป็นอะไร แต่ตัวอย่างที่สอง เราจะเห็นทัศนคติที่เหยียดผิวได้อย่างชัดเจน เช่น ในประเทศอเมริกาได้มีการใช้ AI เพื่อช่วยประเมินการทำงานและต่อใบประกอบวิชาชีพครู ซึ่งก็ปรากฏว่า ครูที่เป็นคนผิวสีได้ถูกยกเลิกใบประกอบวิชาชีพอย่างไม่เป็นธรรม รวมถึงการนำเอา AI ไปใช้ประเมินในเรื่องอื่น ๆ เช่น การปล่อยเงินกู้ คนผิวสีก็มีโอกาสที่จะกู้ไม่ผ่านอย่างไม่เป็นธรรม หรือการใช้ AI คัดกรองข้อมูลบุคคล เพื่อรับสมัครงาน ก็พบว่า AI ได้แอบคัดเลือกข้อมูลของคนผิวสีทิ้งลงถังขยะไป เป็นต้น

รวมไปถึงกรณีของ Chabot ที่ Microsoft เคยใช้ แต่ในภายหลังต้องยกเลิกไป เนื่องจาก Chabot ตัวนี้มีพฤติกรรมสนับสนุนนาซี!

ซึ่งทั้งหมดนี้ แม้ว่าดูเหมือนจะเป็นปัญหาที่ตัว AI แต่ในท้ายที่สุด เราจะต้องกลับมามองที่ตัวของผู้พัฒนา AI ว่าได้เริ่มต้นใส่โปรแกรม และพัฒนา AI ให้มีทัศนคติไปในทางไหน เพราะสุดท้ายแล้วเราก็จะต้องกลับมาดูที่ต้นตอของปัญหาที่แท้จริง

การเดินทางสู่ความสมบูรณ์แบบของ AI

แม้ว่าเราจะได้ยินคำว่า AI กันมาสักพักใหญ่ ๆ แล้ว แต่ก็ต้องยอมรับว่า ปัจจุบันนี้ถือเป็นช่วงเวลาแห่งการเรียนรู้และพัฒนา ซึ่งมนุษย์ในฐานะผู้สร้าง ก็จะต้องเป็นคนที่ค่อยปรับแต่ง และพัฒนา AI ให้มีความสมบูรณ์มากยิ่งขึ้น จึงเป็นที่มาของความพยายามในการจัดระเบียบและออกกฎหมายควบคุม AI

โดยการแบ่ง AI ออกเป็น 3 กลุ่มคือ กลุ่ม AI ที่ห้ามนำมาใช้ เพราะจะก่อให้เกิดอันตราย กับอีกส่วน 2 กลุ่มที่เหลือคือกลุ่มที่นำมาใช้ได้ แต่ต้องมีการกำกับดูแลอย่างใกล้ชิดเข้มงวด โดยเป็นกลุ่มที่มีความเสี่ยงสูง แต่ก็มีประโยชน์ เช่น AI สำหรับขับเคลื่อนรถยนต์อัตโนมัติ ซึ่งแม้ว่าส่วนใหญ่จะมีความปลอดภัย แต่ก็มีข่าวคราวอุบัติเหตุให้เราพบเห็นบ่อยครั้ง ดังนั้น AI เหล่านี้ ก่อนที่จะมีการวางขาย จะต้องมีผู้เชี่ยวชาญภายนอกเข้าไปตรวจสอบระบบเสียก่อน และเมื่อวางตลาดแล้ว ก็ต้องมีการติดตามดูแลหลังการขายด้วย เพื่อให้เกิดความปลอดภัยต่อผู้ใช้งาน

กฎหมาย AI สั่นสะเทือนทั่วโลก

ถ้าหากกฎหมายฉบับนี้ถูกบังคับใช้จริงในยุโรป ก็เชื่อว่านี่จะเป็นบรรทัดฐานใหม่ครั้งสำคัญ ที่นักพัฒนา AI ทั่วโลกจะต้องยึดถือ เพราะนักพัฒนาทุกคนต่างก็ต้องอยากที่จะสร้าง AI ขึ้นมาแล้วสามารถวางขายได้ทั่วโลก รวมถึงในแถบยุโรปถือเป็นตลาดใหญ่ของ AI ที่มีอำนาจมากพอที่จะสามารถกำหนดกติกา และสร้างมาตรฐานให้ทุกคนปฏิบัติตามได้ และนี้ก็คือก้าวย่างครั้งสำคัญของการพัฒนา AI ที่จะต้องติดตามกันต่อไป

เรียบเรียงโดย Security Systems Magazine
เครดิตรูปภาพ www.pixabay.com