ชวนคิด เมื่อ AI กำลังส่งผลกับพฤติกรรมและความคิดของเรา โดยไม่รู้ตัว จริงไหม ?

Share

Loading

ชวนคิด เมื่อปัญญาประดิษฐ์ (AI) กำลังส่งผลกับพฤติกรรมและความคิดของเรา พร้อมกับการใช้ Data Science โดยไม่รู้ตัว จริงไหม ?

ดร.เจษฎา กาญจนะ นักวิจัยกลุ่มวิจัยปัญญาประดิษฐ์ เนคเทค สวทช. ชวนคิดย้อนเวลาไปประมาณกว่า 10 ปีที่ผ่านมา เมื่อหนึ่งสัปดาห์ของเดือนมกราคม พ.ศ. 2555 ตั้งแต่วันที่ 11 ถึงวันที่ 18 ผู้ใช้งาน Facebook จำนวน 689,003 คน (หรือประมาณ 1 ใน 2,500 คนของผู้ใช้งานขณะนั้น) ถูกสุ่มให้ใช้อัลกอริทึมที่ถูกปรับเปลี่ยนสำหรับคัดเลือกให้เห็น News Feed หรือข้อความของเพื่อนแค่บางแบบเท่านั้น

ผู้ใช้กลุ่มหนึ่งเห็นข่าวดี หรือข้อความบวกเยอะกว่าข้อความเชิงลบ ในขณะที่ผู้ใช้อีกกลุ่ม เห็นข่าวร้ายหรือข้อความลบเยอะกว่า จุดประสงค์ของการทดลองคือ การศึกษาการแพร่กระจายทางอารมณ์ (emotional contagion) ผ่านสื่อสังคมออนไลน์ Facebook และทีมวิจัยต้องการดูว่า อารมณ์สามารถส่งต่อระหว่างคนเมื่อเห็นเฉพาะข้อความตามตัวอักษร โดยไม่มีปฏิสัมพันธ์ทางกายภาพได้หรือไม่

ข้อสรุปจากการศึกษานี้คือ อารมณ์ของผู้ใช้งาน Facebook (ซึ่งอนุมานจากจำนวนคำที่มีความหมายบวกหรือลบที่ผู้ใช้งานเขียนข้อความของตัวเอง) ได้รับอิทธิพลจากข้อความที่เขาหรือเธอเห็นใน News Feed นั่นคือ คนที่เห็นข่าวร้ายมากกว่า มีแนวโน้มจะเขียนข้อความเชิงลบ ส่วนคนที่เห็นข่าวดีมากกว่า ก็มีแนวโน้มที่จะเขียนข้อความบวก

ข้อตกลงทางจริยธรรม และความเป็นส่วนตัว (Privacy) ที่ไม่ควรมองข้าม!

เรื่องนี้เป็นตัวอย่างหนึ่งของปัญหาจริยธรรมในมิติการทดลองกับมนุษย์ (human experimentation) สำหรับบางคนที่โชคร้ายหน่อย อาจตั้งคำถามว่า ทำไมฉันต้องถูกยัดเยียดความหดหู่ในชีวิตเพิ่มเข้ามาหนึ่งสัปดาห์ นี่เป็นการทดลองที่ผู้ถูกทดลองไม่รู้ตัว และถึงแม้จะเป็นการทดลองที่ผู้ถูกทดลองไม่รู้ตัว แต่ในแง่มุมกฎหมายนั้น Facebook สามารถพูดได้ว่า ได้รับความยินยอม (informed consent) สำหรับการทดลองดังกล่าวจากผู้ใช้งานแล้ว เพราะผู้ใช้งานทุกคนต้องคลิกให้ความยินยอมตอนสร้างบัญชีครั้งแรก

หลังจาก Facebook และทีมนักวิจัยได้เผยแพร่ข้อมูลเกี่ยวกับการทดลอง ก็มีเสียงวิพากษ์วิจารณ์ในประเด็นจริยธรรม ความเป็นส่วนตัว (privacy) และนิยามของความยินยอมตามมามากมาย โดยเฉพาะประเด็นเชิงจริยธรรมที่ว่าด้วยหลักการไม่ทำร้ายผู้อื่น (nonmaleficence) ซึ่งสามารถตีความกว้างกว่าการไม่ทำร้ายร่างกาย ขยายไปครอบคุลมถึงการไม่ทำร้ายจิตใจด้วย

ประเด็นทางจริยธรรมที่เกี่ยวข้องกับวิทยาศาสตร์ข้อมูล (Data Science) เป็นเรื่องละเอียดอ่อนและสำคัญ เพราะข้อมูล Big Data และ AI มีพลังอำนาจ สามารถส่งผลกระทบทางสังคมที่ชวนตั้งคำถาม ไม่น่าพอใจ และไม่เป็นธรรม เราจะตัดสินใจเลือกข้างไหนระหว่าง ความรู้หรือผลิตภัณฑ์ที่สกัดได้จากข้อมูลขนาดใหญ่กับหลักการไม่ทำร้ายผู้อื่น เมื่อทั้งสองฝ่ายต้องเผชิญหน้ากัน

สำหรับตัวอย่างการแพร่กระจายทางอารมณ์นี้ นักเขียนและนักวิทยาศาสตร์คอมพิวเตอร์ Jaron Lanier ได้ตั้งคำถามที่น่าสนใจข้อหนึ่งว่า ทำไม Facebook ต้องออกมาบอกให้คนอื่นรู้เกี่ยวกับผลการทดลองที่ตัวเองไปแอบชี้นำ (manipulate) อารมณ์ของผู้ใช้งาน โดยที่ผู้ใช้งานไม่รู้ตัว ทั้ง ๆ ที่น่าจะคาดเดาได้ถึงเสียงวิจารณ์ที่จะตามมา คำตอบที่เขาเสนอนั้นค่อนข้างน่าหวั่นใจครับ เขาคิดว่า Facebook อาจอยากส่งข้อความนี้ไปยังลูกค้าตัวจริงผู้พร้อมที่จะควักเงินจ่ายสำหรับบริการการชี้นำผู้ใช้งานในอนาคต ไปในทิศทางที่ลูกค้าตัวจริงคาดหวัง และในกรณีนี้ ผู้ใช้งานอย่างเราก็เป็นประหนึ่งสินค้าที่ Facebook ขายให้กับลูกค้าตัวจริง ดังกรณีตัวอย่างเรื่องอื้อฉาวของ Facebook กับ Cambridge Analytica ที่ใช้ข้อมูลผู้ใช้งานในการชี้นำทางการเมือง

แล้วแบบไหนที่ Data Science & AI จะนำมาใช้ทดลองกับมนุษย์ได้

ยังมีตัวอย่างที่แสดงให้เห็นอำนาจของวิทยาศาสตร์ข้อมูลกับปัญหาจริยธรรม โดยเฉพาะในส่วนของการทดลองกับมนุษย์อีกหลากหลาย บางตัวอย่างก็ไม่ขัดแย้งต่อหลักการการไม่ทำร้ายผู้อื่นอย่างโจ่งแจ้ง เช่น การใช้เทคนิค A/B testing ในการระดมทุนหาเสียงเลือกตั้งของโอบามา เพื่อหาว่าหน้าตาเว็บเพจแบบไหน หรือปุ่มกดแบบไหน (เช่น ปุ่มกดพร้อมข้อความ Join Us Now, Learn More, Sign Up Now หรือ Sign Up) ที่จะชักจูงคนได้มากกว่ากัน ทีมหาเสียงเลือกตั้งของโอบามาได้ประมาณการว่า A/B testing ช่วยให้คนคลิกลงทะเบียนเพิ่มขึ้น 40% และระดมเงินได้มากขึ้น 60 ล้านเหรียญสหรัฐอเมริกา

แต่บางตัวอย่างก็มีใครบางคนถูกทำร้าย เช่น การทดลองของเว็บหาคู่ OkCupid ที่ไม่ได้บอกโอกาสจับคู่ผู้ใช้งานจากการคำนวณด้วยข้อมูลจริง ๆ แต่บอกตัวเลขมั่ว ๆ เพื่อศึกษาว่าการบอกตัวเลขแบบสุ่มนั้นจะส่งผลอะไรบ้าง เช่น ถ้าอัลกอริทึมคำนวณแล้วพบว่าโอกาสเข้าคู่กันคือ 30% แต่ OkCupid อาจหลอกผู้ใช้งานว่า โอกาสคือ 60% หรือ 90% ผลที่ตามมาจะเป็นยังไง [7] หรือการทดลอง Love is Blind Day ซึ่ง OkCupid ลบรูปผู้ใช้งานทั้งหมดออกจากเว็บวันหนึ่ง เพื่อศึกษาพฤติกรรมของผู้ใช้งาน ก่อนที่จะเอารูปกลับมาแสดงอีกทีตอน 4 โมงเย็นของวันเดียวกัน ขณะที่ผู้ใช้งานกว่า 2,000 คนกำลังสนทนา ผลที่ตามมาคือบทสนทนาของหลายคนสะดุดและถูกทำลายลงทันทีที่คู่สนทนาเห็นภาพใบหน้าของอีกฝ่าย เป็นไปได้ว่าจิตใจของใครบางคนกำลังถูกทำร้าย

ประเด็นที่เป็นจุดร่วมของตัวอย่างทั้งหมดที่นำมาเล่าในบทความนี้ และอยากชวนผู้อ่านร่วมขบคิดคือ เราจะตัดสินใจอย่างไรว่าการทดลองกับมนุษย์แบบไหนทำได้ อะไรที่วิทยาการข้อมูลไม่ควรทำ หลักการ nonmaleficence ควรเป็นแค่หลักการ หรือควรเป็นอะไรที่มากกว่านั้น วิทยาศาสตร์ข้อมูลควรให้ความสำคัญกับจริยธรรมมากแค่ไหน ที่คงจะเป็นเรื่องน่าสนใจต่อไปสำหรับการออกกฎหมาย หรือการกำหนดมาตรการในบางเรื่อง ที่จะนำมาใช้เพื่อควบคุมการใช้งานได้อย่างถูกต้อง ไม่ละเมิดความเป็นส่วนบุคคล สร้างความเดือดร้อน ขัดต่อหลักจริยธรรม หรือผลกระทบทางสังคมที่อาจเกิดขึ้นตามมา

แหล่งข้อมูล

https://www.springnews.co.th/digital-tech/technology/846443