
ท่ามกลางกระแสความตื่นตัวของปัญญาประดิษฐ์ (AI) ที่ถูกมองว่าเป็นเครื่องยนต์ขับเคลื่อนเศรษฐกิจใหม่ ในเวทีระดับโลกอย่าง World Economic Forum 2026 (WEF26) ณ เมืองดาวอส กลับมีวงเสวนาหนึ่งที่เลือกจะฉายภาพด้านมืดและความจริงอันน่าสะพรึงกลัวที่ซ่อนอยู่หลังม่านเทคโนโลยี ภายใต้หัวข้อ 'Dilemmas around Ethics in AI' (ความย้อนแย้งทางจริยธรรมของ AI)
การเสวนานี้นำโดย Mat Honan บรรณาธิการบริหารจาก MIT Technology Review ร่วมด้วย 3 ผู้ทรงอิทธิพลทางความคิดที่กล้าท้าทายกระแสหลัก
การเสวนาเริ่มต้นด้วยคำถามจากโพลที่ดูเหมือนธรรมดาว่า 'คุณเชื่อมั่นในระบบ AI หรือไม่?' แต่ Rachel Botsman กลับปฏิเสธที่จะตอบคำถามนี้โดยตรง และชี้ให้เห็นถึงปัญหาเชิงโครงสร้างของคำถาม
'ความเชื่อมั่น (Trust) จะไร้ความหมายทันทีหากปราศจากบริบท' Rachel กล่าว 'คุณถามว่าเชื่อมั่นไหม? ฉันต้องถามกลับว่า เชื่อให้มันทำอะไร? การข้ามไปพูดเรื่องความเชื่อมั่นโดยไม่พูดถึงความเสี่ยง คือกับดักที่บริษัทเทคโนโลยีสร้างขึ้น'
สิ่งที่ Rachel กังวลที่สุดไม่ใช่การที่ AI จะลุกขึ้นมาฆ่ามนุษย์แบบในหนัง แต่คือการที่มนุษย์ค่อยๆ สูญเสียความเป็นมนุษย์ผ่านกระบวนการที่เธอเรียกว่า 'การว่าจ้างให้ผู้อื่นคิดแทน' (Outsourcing Thinking)
เธอกล่าวถึงภาวะ 'Cognitive Atrophy' หรือ 'ภาวะสมองฝ่อทางปัญญา' ที่กำลังเกิดขึ้นในหมู่นักเรียนและคนทำงานยุคใหม่'เมื่อ AI สามารถให้คำตอบได้ทันที มนุษย์จะสูญเสียทักษะสำคัญที่เรียกว่า 'ความอดทนต่อความยากลำบาก' เราไม่สามารถทนอยู่กับความสงสัย ความไม่รู้ หรือความไม่แน่นอนได้อีกต่อไป เราต้องการคำตอบเดี๋ยวนี้ ซึ่งนั่นทำให้กระบวนการคิดวิเคราะห์ที่ลึกซึ้งตายลง'
Rachel ยกตัวอย่างงานวิจัยทางสังคมวิทยาในยุค 70 เกี่ยวกับ 'คนอบขนมปัง' เมื่อเครื่องจักรเข้ามาทำงานแทนในขั้นตอนการนวดแป้งและอบขนมปัง ในช่วงแรกคนอบขนมปังมีความสุขที่งานสบายขึ้น แต่ผ่านไปเพียง 6 เดือน คนเหล่านี้ไม่กล้าเรียกตัวเองว่าคนอบขนมปังอีกต่อไป พวกเขาสูญเสียอัตลักษณ์ และความภาคภูมิใจในวิชาชีพ เพราะความเชื่อมโยงระหว่างมือ และ ผลงานถูกตัดขาด
คำถามสำคัญคือ ในยุค AI ที่เราให้เครื่องจักรเขียนบทความ วาดรูป หรือแม้แต่แต่งเพลงแทนเรา เราจะยังคงเรียกตัวเองว่าศิลปิน นักเขียน ได้เต็มปากหรือไม่?
Max Tegmark เปิดประเด็นเรื่องการกำกับดูแลด้วยการเปรียบเทียบที่เห็นภาพชัดเจนที่สุด เขาชี้ให้เห็นถึง 'ความย้อนแย้ง' ที่สังคมมีต่อบริษัท AI เมื่อเทียบกับอุตสาหกรรมอื่น
"ถ้าคุณคิดจะเปิดคาเฟ่เล็กๆ สักแห่ง ก่อนที่คุณจะขายแซนด์วิชชิ้นแรกให้ลูกค้าได้ คุณต้องผ่านการตรวจสอบจากสาธารณสุข ถ้าเจ้าหน้าที่เจอหนู 53 ตัววิ่งในครัว คุณไม่มีสิทธิ์ขาย แต่ในอุตสาหกรรม AI คุณสามารถบอกได้ว่า ไม่ต้องห่วง ผมไม่ขายแซนด์วิช ผมแค่ขายแชตบอตแฟนสาว (AI Girlfriend) ให้เด็กอายุ 12 ขวบ หรือ ผมกำลังสร้างซูเปอร์ปัญญาประดิษฐ์ที่จะมาควบคุมโลกแทนมนุษย์ และรัฐบาลกลับบอกว่า โอเค เชิญเลย ตราบใดที่คุณไม่ขายแซนด์วิช''
Max ยกตัวอย่างโศกนาฏกรรมจริงที่เกิดขึ้น เมื่อเด็กวัยรุ่นตัดสินใจจบชีวิตหลังจากมีความสัมพันธ์ทางอารมณ์กับแชตบอต AI ซึ่งบริษัทผู้ผลิตไม่มีกฎเกณฑ์ควบคุมความปลอดภัยใดๆ ทั้งสิ้น
เขาเรียกสถานการณ์นี้ว่า 'สวัสดิการอุ้มชูภาคธุรกิจ' (Corporate Welfare) รัฐยอมหลับตาข้างหนึ่งให้กับบริษัทเทคโนโลยี โดยอ้างเรื่องนวัตกรรม ทั้งที่ในอุตสาหกรรมยา รถยนต์ หรือการบิน บริษัทต้องพิสูจน์ความปลอดภัย ก่อน นำสินค้าออกสู่ตลาดไม่ใช่ปล่อยสินค้าออกมาทำร้ายคนแล้วค่อยตามแก้
ช่วงที่ตึงเครียดที่สุดของการเสวนาคือเมื่อ Meredith Whittaker ประธานของ Signal ซึ่งเป็นแอปพลิเคชันสนทนาที่มีความปลอดภัยระดับโลก ออกมาเตือนถึงเทคโนโลยีใหม่ที่กำลังจะถูกยัดเยียดใส่มือผู้บริโภค นั่นคือ AI Agents ที่ฝังอยู่ในระบบปฏิบัติการ (OS level) ของยักษ์ใหญ่ไอที
Meredith อธิบายกลไกการทำงานที่น่ากลัวของมัน 'คำโฆษณาทางการตลาดคือ คุณจะมีผู้ช่วยอัจฉริยะที่จัดการชีวิตให้คุณ จองตั๋วเครื่องบิน นัดหมายเพื่อน สั่งซื้อของ แต่ในทางเทคนิค สิ่งที่ AI Agent ต้องทำคือ มันต้องได้รับ Root Permission'
เพื่อให้ AI ทำงานแทนคุณได้ มันต้องมองเห็นทุกอย่างที่คุณเห็นบนหน้าจอ มันต้องอ่านข้อมูลดิบจากหน่วยความจำหน้าจอในระดับพิกเซล ซึ่งหมายความว่า ต่อให้คุณใช้แอปที่เข้ารหัสขั้นสูงอย่าง Signal แต่ AI Agent ตัวนี้จะอ่านข้อความของคุณ ก่อน ที่มันจะถูกเข้ารหัสและส่งออกไปเสียอีก
Meredith เปรียบเทียบพฤติกรรมนี้ว่าไม่ต่างอะไรกับ มัลแวร์ที่ฝังตัวอยู่ในเครื่อง เพื่อดักจับข้อมูลทุกอย่างของผู้ใช้แล้วส่งกลับไปประมวลผลบน Cloud นี่คือการทำลายสิทธิมนุษยชนขั้นพื้นฐานในการสื่อสารส่วนบุคคลโดยแลกมากับความสะดวกสบายเพียงเล็กน้อย
Meredith ยังชี้ให้เห็นอีกว่า สิ่งที่เราเรียกว่า AI ในปัจจุบัน แท้จริงแล้วเป็นเพียง 'พืชเชิงเดี่ยว' (Monoculture) ของเทคโนโลยีแบบ Deep Learning และ Large Language Models (LLMs)
'ทำไม AI ถึงมีหน้าตาแบบนี้? ไม่ใช่เพราะมันเป็นวิธีเดียวที่ทำได้ แต่เพราะมันเป็นวิธีที่สอดคล้องกับโมเดลธุรกิจของบริษัทยักษ์ใหญ่ที่สะสมข้อมูล (Data) และผูกขาดโครงสร้างพื้นฐาน (Compute) มาตั้งแต่ยุค 90'
เธอมองว่า Deep Learning เป็นเทคโนโลยีที่หิวกระหาย มันต้องการข้อมูลมหาศาลและชิปประมวลผลราคาแพง ซึ่งมีเพียงบริษัทไม่กี่แห่งในโลกที่ครอบครองได้ การผลักดันให้โลกเดินไปในทิศทางนี้ จึงเป็นการรวบอำนาจเข้าสู่ศูนย์กลาง และปิดโอกาสของนวัตกรรม AI รูปแบบอื่นๆ ที่อาจจะมีประสิทธิภาพมากกว่าและใช้ทรัพยากรน้อยกว่า
นอกจากนี้ เธอยังชี้ถึงปัญหาทางเศรษฐศาสตร์ของ AI ว่ามีการลงทุน (CapEx) มหาศาล แต่รายได้ (Revenue) ที่กลับมายังไม่คุ้มค่า ทำให้บริษัทเหล่านี้ต้องเร่งล็อบบี้รัฐบาลและสร้างความหวาดกลัวทางภูมิรัฐศาสตร์ (เช่น ถ้าเราไม่ทำ จีนจะทำ) เพื่อป้องกันไม่ให้เกิดกฎหมายควบคุม และบีบให้สังคมต้องยอมรับเทคโนโลยีนี้โดยไม่มีทางเลือก
Rachel Botsman ตั้งข้อสังเกตที่น่าตกใจเกี่ยวกับงาน WEF ปีนี้ว่าไม่มีเวทีเสวนาแม้แต่เวทีเดียวที่เชื่อมโยงเรื่อง AI กับ การเปลี่ยนแปลงสภาพภูมิอากาศ
ทั้งที่เมื่อ 3 ปีก่อน เรื่องความยั่งยืน (Sustainability) เป็นธีมหลักของโลก แต่เมื่อ AI เข้ามาแย่งพื้นที่สื่อ ประเด็นผลกระทบต่อสิ่งแวดล้อมกลับถูกปัดตกไป ทั้งที่เรารู้ดีว่า Data Center สำหรับ AI ใช้น้ำและพลังงานมหาศาล จนทำให้เมืองบางแห่งในสหรัฐฯ ขาดแคลนน้ำ และทำให้โรงไฟฟ้าถ่านหินต้องกลับมาเดินเครื่องอีกครั้ง
ความเงียบนี้สะท้อนให้เห็นว่า วาระระดับโลกอาจถูกกำหนดโดยผู้ที่มีผลประโยชน์ทับซ้อน และพยายามหลีกเลี่ยงการพูดถึงราคาที่ต้องจ่ายของการพัฒนา AI
ในช่วงท้ายของการเสวนา วิทยากรทั้งสามได้เสนอทางออกที่ไม่ได้พึ่งพาเทคโนโลยี แต่พึ่งพาความเป็นมนุษย์
การเสวนานี้จบลงด้วยข้อคิดที่สั่นสะเทือนวงการว่า 'จริยธรรมของ AI' ไม่ใช่แค่การเขียนโค้ดให้ถูกต้อง แต่คือการต่อสู้เพื่อแย่งชิงอำนาจในการกำหนดอนาคต ระหว่างผลกำไรของบริษัทเทคโนโลยียักษ์ใหญ่ กับ ความอยู่รอดและศักดิ์ศรีของเผ่าพันธุ์มนุษย์
อ้างอิง: ข้อมูลจากงาน World Economic Forum 2026 เซสชัน Dilemmas around Ethics in AI
ลงทะเบียนเข้าสู่ระบบ เพื่ออ่านบทความฟรีไม่จำกัด