รับมืออย่างไร เมื่อ AI ถูกสอนให้มีอคติและเลือกข้าง | Techsauce

รับมืออย่างไร เมื่อ AI ถูกสอนให้มีอคติและเลือกข้าง

ถึงเวลาแล้วที่เราต้องรับรู้ถึงความอคติที่แฝงอยู่ในข้อมูล และเราจำเป็นต้องทำอะไรสักอย่างเพื่อเพิ่มความหลากหลายของคนที่ทำงานอยู่ในวงการ AI

ในปัจจุบัน ปัญญาประดิษฐ์ (AI) ถูกพัฒนามาอย่างต่อเนื่อง และเริ่มมีการใช้งานแพร่หลายมากขึ้น สิ่งที่มักถูกพูดถึงควบคู่ไปด้วยคือ ประเด็นด้านจริยธรรมที่เกี่ยวกับการที่ AI จะเข้ามาทดแทนแรงงานมนุษย์ หรือผลกระทบที่อาจจะเกิดจากความผิดพลาดหรือความไม่แม่นยำของโปรแกรม

อีกหนึ่งประเด็นที่มักจะถูกมองข้ามไปนั่นก็คือ ความอคติที่แฝงอยู่ในระบบ AI ต่างๆ ที่กำลังเริ่มเป็นตัวขับเคลื่อนสังคมของเราในทุกวันนี้ ตัวอย่างเช่น มีการศึกษาพบว่า โฆษณาออนไลน์ที่ถูกสร้างจาก Machine Learning จะมีแนวโน้มในการเสนอข้อมูลการรับสมัครงานที่มีเงินเดือนสูงให้แก่ผู้ชายมากกว่าผู้หญิง ซึ่งการศึกษานี้แสดงให้เห็นถึงความน่ากังวลเกี่ยวกับการเลือกปฏิบัติของระบบการคำนวนอันซับซ้อน (อัลกอริทึม)

นี่ไม่ใช่ครั้งแรกที่พบการเหยียดเพศหรือเหยียดเชื้อชาติในอัลกอริทึม ผลการศึกษาที่ผ่านมาแสดงให้เห็นว่า ตัวอัลกอริทึมที่ถูกสอนด้วยชุดข้อมูลที่เหยียดเชื้อชาตินั้น มีอัตราความผิดพลาดสูงเมื่อนำมาใช้ต่อชุมชนของคนผิวสี โดยเฉพาะในการประเมินแนวโน้มการกระทำผิดซ้ำของนักโทษนั้น มีอัตราที่สูงเกินจริง และมีความแม่นยำน้อย อันที่จริงแล้วมีอัลกอริทึมสำหรับประเมินความเสี่ยงที่ใช้กันทั่วไปตัวหนึ่ง ความถูกต้องของผลการทำนายเทียบเท่ากับการจ่ายเงิน 1 ดอลล่าร์จ้างให้คนทั่วไปทายว่า นักโทษคนไหนจะกระทำผิดซ้ำเท่านั้น

แต่ไม่ว่าอัลกอริทึมเหล่านี้จะทำนายผลออกมาอย่างไร ก็ไม่มีอะไรรับประกันได้ว่าบรรดาผู้พิพากษาหรือผู้ตัดสินอนุญาตประกันตัวจะใช้ข้อมูลเหล่านั้นเพื่อลดการจองจำหรือเพื่อปกป้องความปลอดภัยของประชาชนอย่างเสมอต้นเสมอปลาย ที่จริงแล้วมีหลักฐานบางชิ้นบ่งชี้ว่า แรงกดดันทางการเมืองที่เข้ามามีผลเหนือการตัดสินใจของ AI ซึ่งมีวัตถุประสงค์ในการเอื้อประโยชน์ให้ผู้ต้องหานั้นมีโอกาสเกิดขึ้นน้อยลงจนแทบไม่เกิดขึ้นเลย แต่ยังไม่เป็นที่แน่ชัดว่าเครื่องมือเหล่านี้ใช้เพื่อประโยชน์อันใด

เหตุใดจึงเกิดเรื่องเช่นนี้ขึ้น

ในความเป็นจริง เทคโนโลยี AI ที่เราใช้กันอยู่นั้น มักจะมาพร้อมกับอคติของผู้พัฒนา เพราะกลุ่มคนเหล่านี้เป็นเพียงคนกลุ่มเล็กๆ และไม่ได้มีคนมาจากทุกภาคส่วนของสังคม ส่งผลให้ AI ยังไม่สามารถทำงานโดยปราศจากอคติได้ ด้วยเหตุผลดังกล่าว AI จึงไม่ใช่เครื่องจักรที่ทำงานอย่างเที่ยงตรงโดยปราศจากอคติ แต่เป็นภาพสะท้อนของผู้พัฒนาว่าพวกเขาเห็นอะไรสำคัญและไม่สำคัญ ข้อมูลชุดไหนที่ถูกนำมาใช้หรือถูกละเลยในการพัฒนา AI

ยกตัวอย่างเช่น ระบบสั่งงานด้วยเสียงอย่าง Siri และ Alexa ในขณะที่ระบบเหล่านี้ควรที่จะทำงานตามคำสั่งเสียงของเราได้ แต่เราหลายคนอาจเคยมีประการณ์ที่ต้องพยายามพูดซ้ำครั้งแล้วครั้งเล่าเพื่อทำให้อุปกรณ์เหล่านี้เข้าใจคำสั่งของเรา

Siri กับ Alexa ถูกเทรนมาด้วยชุดข้อความเสียงจำนวนมหาศาล ถึงแม้ว่าจะมีข้อความเสียงภาษาอังกฤษ แตกต่างกันมากถึง 160 สำเนียงทั่วโลก เสียงและสำเนียงส่วนใหญ่ที่ถูกนำมาใช้มักจะมาจากผู้พูดเพียงไม่กี่กลุ่มเท่านั้น เช่น สำเนียงแบบชนชั้นกลางค่อนสูง (สำเนียงแบบผู้ประกาศข่าว) ซึ่งข้อมูลนี้คือข้อมูลที่เทรนเสียงให้ AI เข้าใจและตอบรับคำสั่งหรือคำถามของพวกเรา

แล้วถ้าหากภาษาอังกฤษไม่ใช่ภาษาแม่ของคุณล่ะ? ถ้าหากคุณพูดติดอ่าง หรือคุณเองมีความผิดปกติทางด้านการออกเสียงล่ะ?  คุณเคยลองพูดกับ Siri ด้วยสำเนียงสิงคโปร์ (Singlish) แล้วระบบไม่เข้าใจสิ่งที่คุณพูดหรือไม่? เมื่อฐานข้อมูลเหล่านี้ไม่ได้ทำการเก็บตัวอย่างสำเนียง หรือภาษาถิ่นต่างๆที่หลากหลายมากเพียงพอ ถูกนำมาใช้เทรน AI จึงทำให้ยากที่จะเข้าใจคนที่พูดด้วยสำเนียง หรือภาษาถิ่นเหล่านั้น เมื่อระบบเหล่านี้ไม่มีประโยชน์กับคนที่ใช้สำเนียงแตกต่างออกไปในภูมิภาคต่างๆ แล้ว พวกเขาก็จะไม่ใช้มัน ทำให้ข้อมูลสำเนียงและภาษาถิ่นเหล่านี้ไม่ถูกนำมาใช้เทรน AI สุดท้าย AI ก็วนอยู่ในวงจรการเรียนรู้จากภาษาที่มีอยู่อย่างจำกัด

ผลกระทบร้ายแรงที่ตามมา

อคติที่แฝงใน Machine learning สามารถก่อให้เกิดผลกระทบร้ายแรงตามมาได้อย่างคาดไม่ถึง ลองจินตนาการถึงสิ่งที่อาจเกิดขึ้นในอุตสาหกรรมการดูแลสุขภาพ (Healthcare) ดูสิ บรรดาผู้เชี่ยวชาญ AI จำนวนมากต่างก็มองเห็นโอกาสที่จะนำระบบการตัดสินใจอัตโนมัติเข้าไปใช้งาน เช่น การใช้ซอฟต์แวร์จดจำรูปภาพเพื่อวินิจฉัยการเกิดเนื้องอกในการสแกน MRI

จะเกิดอะไรขึ้น หากคนไม่เชื่อมั่นหรือลุกขึ้นมาตั้งคำถามกับซอฟต์แวร์หรือพวกอุปกรณ์ราคาแพงเหล่านี้?แพทย์หรือพยาบาลอาจถูกฝึกฝนมาให้ใช้งานเทคโนโลยี แต่ไม่ได้ถูกฝึกฝนมาให้เข้าใจว่าระบบเหล่านี้มีการทำงานอย่างไร มีการตัดสินใจอย่างไร หรือมีอคติและข้อจำกัดอะไรบ้าง การตัดสินใจที่เกิดจากความเชื่อมั่นในข้อมูลและเทคโนโลยีว่าเป็นสิ่งที่เห็นทุกอย่าง รู้ทุกอย่าง และจะทำให้ทุกอย่างดีขึ้น ความเชื่อเหล่านี้ถ้ามากเกินไปอาจส่งผลอันตรายได้

อีกหนึ่งอคติที่มักจะพบใน AI ก็คือ โมเดลที่ใช้ประเมินความเสี่ยง ตัวอย่างของซอฟต์แวร์ในระบบที่ต้องทำการตัดสินใจ เช่น การอนุมัติเงินกู้ หรือตัดสินว่าจะให้ประกันตัวหรือจำคุกนานกว่าคนอื่น ซึ่งโดยปกติแล้ว เรามักจะคุ้นเคยกับความคิดที่ว่า การตัดสินใจเรื่องเหล่านี้ไม่ควรนำเรื่องเพศ ศาสนา หรือเชื้อชาติ มาเป็นองค์ประกอบในการตัดสินใจ ทว่าในความเป็นจริงนั้น เป็นไปได้ว่าอัลกอริทึม จะนำข้อมูลอย่างที่มีอยู่หรือประวัติการศึกษามาตัดสินใจประกอบกับข้อมูลประชากรอื่นๆ ซึ่งอาจส่งผลให้เกิดอคติด้านเชื้อชาติและอื่นๆ ได้

หากเราใช้ข้อมูลในอดีตมาเทรน AI ก็เท่ากับว่าเราได้นำอคติในอดีตมาป้อนใส่ในระบบที่เรากำลังสร้าง มันคือการผลิตซ้ำความผิดพลาดในอดีตให้เกิดขึ้นสืบต่อไป นอกจากนี้ การโยนความรับผิดชอบเรื่องการตัดสินใจบนอคติไปให้กับเทคโนโลยีและซ่อนมันเอาไว้ภายใต้อัลกอริทึมที่มีความซับซ้อนก็ยังเป็นเรื่องที่เกิดขึ้นง่าย เพราะ AI หลายตัวมีลักษณะการทำงานเสมือนกับ “กล่องดำ” ที่ซับซ้อนเกินกว่าจะเข้าใจได้ง่ายๆ หรืออาจถูกอ้างว่าอัลกอริทึมนั้นเป็นความลับทางการค้าของบริษัทที่ไม่จำเป็นต้องอธิบาย

เพื่อจะทำความเข้าใจสิ่งที่ AI แนะนำ เราจะต้องร่วมมือกับ Data scientist ในกระบวนการตัดสินใจที่ต้องคำนึงถึงด้านสิทธิของชุมชน ด้านสวัสดิภาพของเด็กและด้านกระบวนการยุติธรรมในบริบทต่างๆ ที่เกี่ยวข้องกับบริบทที่เราจะใช้อัลกอริทึมมาประเมินความเสี่ยง ซึ่งอาจหมายถึงการตัดสินใจระงับการใช้ Machine learning หากไม่ก่อให้เกิดผลลัพธ์ที่แม่นยำเพียงพอ

เมื่อมีเครื่องมือที่ช่วยทำให้การใช้งาน AI ง่ายขึ้น ความอคติที่แฝงมาด้วยจึงเป็นปัญหาที่เร่งด่วนตามไปด้วยเช่นกัน

ความท้าทายในการทำความเข้าใจเรื่องอคติใน AI นั้นถูกทำให้ซับซ้อนขึ้นไปอีกด้วยเครื่องมือและแพลตฟอร์มต่างๆที่เกิดมามากมายเร็วๆนี้ หรือที่รู้จักกันในนาม AI as a service อันเป็นเทคโนโลยีที่ทำให้การสร้างระบบง่ายกว่าเดิมมาก ทุกวันนี้การสร้างระบบจำแนกใบหน้านั้นง่ายดายมาก  เพราะมีเครื่องมือจำแนกใบหน้าที่ซึ่งถูกเทรนมาแล้วพร้อมให้ใช้ใช้บนแพลตฟอร์มคลาวด์ เราจึงจำเป็นต้องมีบุคคลากรที่สามารถประเมินวิธีการ    เทรนข้อมูล รวมไปถึงการทดสอบและควบคุมดูแล วิธีการที่ AI ถูกนำไปใช้งาน

สัดส่วนของผู้หญิงที่เป็นนักพัฒนายังน้อยอยู่

ในปัจจุบัน นักพัฒนา AI เป็นสัดส่วนที่น้อยมาก เมื่อเทียบกับประชากรทั้งหมด ดังนั้นเรื่องความหลากหลายของคนที่อยู่ในสายงานนี้จึงเป็นประเด็นสำคัญที่เราต้องคำนึงถึง เช่น ผลจากการวิจัยชี้ให้เห็นว่า ในงานด้านการพัฒนา Machine learning มีสัดส่วนของผู้หญิงเพียง 13.5% เท่านั้น ดังนั้น จึงไม่น่าแปลกใจที่จะเกิดอคติด้านวัฒนธรรม เศรษฐกิจ และสังคมขึ้นในอัลกอริทึม เราจึงจำเป็นต้องเพิ่มความหลากหลายของกลุ่มคนที่สร้างอัลกอริทึมเหล่านี้

อย่างไรก็ตามแม้ทุกวันนี้ AI จะครอบคลุมหลายด้านมากเพียงใด แต่กลุ่มคนที่สร้าง AI ส่วนมากยังกระจุกตัวอยู่ เนื่องจากเป็นสาขางานที่มีความเฉพาะทางสูง ทำให้คนทำงานในสายงานนี้เป็นผู้เชี่ยวชาญทางเทคนิกเฉพาะทางที่สนใจการพัฒนาด้านคุณภาพและการประยุกต์ใช้ AI   แต่มันก็มีความสำคัญที่จะเพิ่มความหลากหลาย ด้วยการนำผู้ที่ไม่ได้มีความเชี่ยวชาญในเชิงเทคนิคเข้ามามีส่วนร่วมด้วย เพื่อให้ AI ถูกสร้างออกมาเป็นระบบที่ทำงานเพื่อทุกคนอย่างแท้จริง

ความรับผิดชอบของทุกคน

ถึงแม้มันมีเหตุผลมากมายที่เราควรกังวลเกี่ยวกับอคติที่แฝงอยู่ใน AI มันก็ยังมีอีกด้านหนึ่งที่พยายามแก้ไขความกังวลเหล่านี้ ซึ่งต้องยกเครดิตให้ Mozilla ผู้ที่กำลังพัฒนาเทคโนโลยีการจดจำด้วยเสียง ด้วยการใช้เทคโนโลยี crowd-sourcing* และการเก็บรวบรวมคำพูดต่างๆ กว่า 10,000 ชั่วโมงจากคนทั่วโลก อีกทั้ง Mozilla ยังมีโครงการ Common Voice ซึ่งเป็นฐานข้อมูลด้านเสียงที่เปิดให้บุคคลทั่วไปนำไปปรับใช้ในการสร้างแอปพลิเคชั่นที่สั่งการด้วยเสียงได้

ในขณะที่งานในช่วงแรกของโครงการ Common Voice เริ่มจากการเก็บข้อมูลเป็นภาษาอังกฤษ แต่ปัจจุบันนั้นยังมีการรวบรวมตัวอย่างภาษาอื่นๆ เช่น ฝรั่งเศส เยอรมัน และเวลส์ และในอนาคตทางโครงการยังมีแผนที่จะเก็บตัวอย่างภาษาจาก เกาหลี จอร์เจีย และอินโดนีเซียอีกด้วย ซึ่งการเก็บข้อมูลภาษาที่หลากหลายมากขึ้นเรื่อยๆ นั้น จะเป็นประตูที่เปิดโอกาสให้การสร้างระบบสั่งงานด้วยเสียงสามารถรองรับผู้คนได้หลากหลาย และกว้างขวางมากขึ้น

เพื่อทำให้เกิดการเปลี่ยนแปลงที่แท้จริง ทุกฝ่ายจำเป็นที่จะต้องเข้าใจว่าอคติที่แฝงอยู่ใน AI นั้นเกิดจากอะไร และเราจะป้องกันมันอย่างไร ซึ่งเราต้องตระหนักว่าเราทุกคนล้วนแต่มีความลำเอียง ดังนั้นเราจึงจำเป็นที่จะต้องตรวจสอบ และทำให้เกิดความสมดุลในข้อมูลที่จะถูกนำไปใช้อยู่เสมอ ซึ่งวิธีที่จะช่วยลดและกำจัดสิ่งเหล่านี้ คือการยอมรับว่าความลำเอียงของข้อมูลนั้นมีหลากหลายรูปแบบ และเราต้องตระหนักเสมอว่า AI นั้นมีขีดจำกัดตามข้อมูลที่เราใส่เข้าไป และท้ายที่สุดคือเราต้องยอมรับ และรับรู้ว่าตัวเราแต่ละคนนั้นมีความลำเอียง อย่างที่เราทุกคนเห็นว่าความลำเอียงยังคงเกิดขึ้นอยู่เสมอไม่ว่าจะเกิดจากตัวเรา หรือข้อมูลเองก็ตาม ถึงเวลาแล้วที่ทุกคนที่มีส่วนเกี่ยวข้องจะร่วมกันลด และกำจัดอคติที่แฝงอยู่ในระบบของเรา และร่วมกันสร้างวิธีการแก้ปัญหาที่ยั่งยืนต่อไป

 

ขอบคุณบทความจากบริษัท ThoughtWorks

ลงทะเบียนเข้าสู่ระบบ เพื่ออ่านบทความฟรีไม่จำกัด

No comment

RELATED ARTICLE

Responsive image

เปิดดีล NVIDIA ปี 2024 ในอาเซียนไปร่วมมือใครมาบ้าง ?

NVIDIA ขยายอิทธิพลในเอเชียตะวันออกเฉียงใต้ ปี 2024 ด้วยการลงทุน AI Centers และการพัฒนาระบบ AI ร่วมกับพันธมิตรในอินโดนีเซีย มาเลเซีย เวียดนาม และไทย ขับเคลื่อนภูมิภาคสู่การเป็นศูนย์...

Responsive image

ใครคือ SIAM AI CLOUD ? บริษัทเทคไทยที่ NVIDIA เลือก ด้วยอายุจดทะเบียนเพียง 10 เดือนกับ 19 วัน

บทความนี้จะพาไปสำรวจเบื้องหลังความสำเร็จของ SIAM AI CLOUD ทำไมไทยที่ก่อตั้งมาไม่ถึงปีถึงสามารถสร้างแรงสั่นสะเทือนในวงการเทคโนโลยีจนดึงตัวแม่ทัพใหญ่ของ NVIDIA มาไทยได้ !...

Responsive image

10 ไฮไลท์นวัตกรรมเทคโนโลยีสุขภาพไต้หวัน ก้าวล้ำนำอนาคตในงาน Taiwan Expo 2024

10 นวัตกรรมเทคโนโลยีทางการแพทย์ไฮไลท์จาก Taiwan Healthcare Pavilion ที่จะมาปฏิวัติวงการแพทย์ในทุกมิติ จากงาน Taiwan Expo 2024...