เมื่ออนาคตของ AI แลกมาด้วยภาวะสมองฝ่อ และ การสูญสิ้นความเป็นส่วนตัว? ความย้อนแย้งทางจริยธรรมของ AI บทเรียนสำคัญที่ผู้เชี่ยวชาญเตือนบนเวที WEF

ท่ามกลางกระแสความตื่นตัวของปัญญาประดิษฐ์ (AI) ที่ถูกมองว่าเป็นเครื่องยนต์ขับเคลื่อนเศรษฐกิจใหม่ ในเวทีระดับโลกอย่าง World Economic Forum 2026 (WEF26) ณ เมืองดาวอส กลับมีวงเสวนาหนึ่งที่เลือกจะฉายภาพด้านมืดและความจริงอันน่าสะพรึงกลัวที่ซ่อนอยู่หลังม่านเทคโนโลยี ภายใต้หัวข้อ 'Dilemmas around Ethics in AI' (ความย้อนแย้งทางจริยธรรมของ AI)

การเสวนานี้นำโดย Mat Honan บรรณาธิการบริหารจาก MIT Technology Review ร่วมด้วย 3 ผู้ทรงอิทธิพลทางความคิดที่กล้าท้าทายกระแสหลัก

  • Meredith Whittaker: ประธาน Signal Foundation ผู้ยืนหยัดเรื่องความเป็นส่วนตัวและอดีตผู้ก่อตั้ง AI Now Institute
  • Max Tegmark: ศาสตราจารย์ฟิสิกส์จาก MIT และประธาน Future of Life Institute ผู้ผลักดันเรื่องความปลอดภัยของ AI
  • Rachel Botsman: ผู้เชี่ยวชาญด้านความเชื่อมั่น (Trust) จากมหาวิทยาลัย Oxford และนักเขียนชื่อดัง

วิกฤตศรัทธา เมื่อเรา 'ว่าจ้าง' ให้ AI คิดแทน จนเกิดภาวะสมองฝ่อ

การเสวนาเริ่มต้นด้วยคำถามจากโพลที่ดูเหมือนธรรมดาว่า 'คุณเชื่อมั่นในระบบ AI หรือไม่?' แต่ Rachel Botsman กลับปฏิเสธที่จะตอบคำถามนี้โดยตรง และชี้ให้เห็นถึงปัญหาเชิงโครงสร้างของคำถาม

'ความเชื่อมั่น (Trust) จะไร้ความหมายทันทีหากปราศจากบริบท' Rachel กล่าว 'คุณถามว่าเชื่อมั่นไหม? ฉันต้องถามกลับว่า เชื่อให้มันทำอะไร? การข้ามไปพูดเรื่องความเชื่อมั่นโดยไม่พูดถึงความเสี่ยง คือกับดักที่บริษัทเทคโนโลยีสร้างขึ้น'

สิ่งที่ Rachel กังวลที่สุดไม่ใช่การที่ AI จะลุกขึ้นมาฆ่ามนุษย์แบบในหนัง แต่คือการที่มนุษย์ค่อยๆ สูญเสียความเป็นมนุษย์ผ่านกระบวนการที่เธอเรียกว่า 'การว่าจ้างให้ผู้อื่นคิดแทน' (Outsourcing Thinking)

เธอกล่าวถึงภาวะ 'Cognitive Atrophy' หรือ 'ภาวะสมองฝ่อทางปัญญา' ที่กำลังเกิดขึ้นในหมู่นักเรียนและคนทำงานยุคใหม่'เมื่อ AI สามารถให้คำตอบได้ทันที มนุษย์จะสูญเสียทักษะสำคัญที่เรียกว่า 'ความอดทนต่อความยากลำบาก' เราไม่สามารถทนอยู่กับความสงสัย ความไม่รู้ หรือความไม่แน่นอนได้อีกต่อไป เราต้องการคำตอบเดี๋ยวนี้ ซึ่งนั่นทำให้กระบวนการคิดวิเคราะห์ที่ลึกซึ้งตายลง'

Rachel ยกตัวอย่างงานวิจัยทางสังคมวิทยาในยุค 70 เกี่ยวกับ 'คนอบขนมปัง' เมื่อเครื่องจักรเข้ามาทำงานแทนในขั้นตอนการนวดแป้งและอบขนมปัง ในช่วงแรกคนอบขนมปังมีความสุขที่งานสบายขึ้น แต่ผ่านไปเพียง 6 เดือน คนเหล่านี้ไม่กล้าเรียกตัวเองว่าคนอบขนมปังอีกต่อไป พวกเขาสูญเสียอัตลักษณ์ และความภาคภูมิใจในวิชาชีพ เพราะความเชื่อมโยงระหว่างมือ และ ผลงานถูกตัดขาด

คำถามสำคัญคือ ในยุค AI ที่เราให้เครื่องจักรเขียนบทความ วาดรูป หรือแม้แต่แต่งเพลงแทนเรา เราจะยังคงเรียกตัวเองว่าศิลปิน นักเขียน ได้เต็มปากหรือไม่?

มาตรฐานความปลอดภัยที่ต่ำกว่า 'ร้านขายแซนด์วิช'

Max Tegmark เปิดประเด็นเรื่องการกำกับดูแลด้วยการเปรียบเทียบที่เห็นภาพชัดเจนที่สุด เขาชี้ให้เห็นถึง 'ความย้อนแย้ง' ที่สังคมมีต่อบริษัท AI เมื่อเทียบกับอุตสาหกรรมอื่น

"ถ้าคุณคิดจะเปิดคาเฟ่เล็กๆ สักแห่ง ก่อนที่คุณจะขายแซนด์วิชชิ้นแรกให้ลูกค้าได้ คุณต้องผ่านการตรวจสอบจากสาธารณสุข ถ้าเจ้าหน้าที่เจอหนู 53 ตัววิ่งในครัว คุณไม่มีสิทธิ์ขาย แต่ในอุตสาหกรรม AI คุณสามารถบอกได้ว่า ไม่ต้องห่วง ผมไม่ขายแซนด์วิช ผมแค่ขายแชตบอตแฟนสาว (AI Girlfriend) ให้เด็กอายุ 12 ขวบ หรือ ผมกำลังสร้างซูเปอร์ปัญญาประดิษฐ์ที่จะมาควบคุมโลกแทนมนุษย์ และรัฐบาลกลับบอกว่า โอเค เชิญเลย ตราบใดที่คุณไม่ขายแซนด์วิช''

Max ยกตัวอย่างโศกนาฏกรรมจริงที่เกิดขึ้น เมื่อเด็กวัยรุ่นตัดสินใจจบชีวิตหลังจากมีความสัมพันธ์ทางอารมณ์กับแชตบอต AI ซึ่งบริษัทผู้ผลิตไม่มีกฎเกณฑ์ควบคุมความปลอดภัยใดๆ ทั้งสิ้น

เขาเรียกสถานการณ์นี้ว่า 'สวัสดิการอุ้มชูภาคธุรกิจ' (Corporate Welfare) รัฐยอมหลับตาข้างหนึ่งให้กับบริษัทเทคโนโลยี โดยอ้างเรื่องนวัตกรรม ทั้งที่ในอุตสาหกรรมยา รถยนต์ หรือการบิน บริษัทต้องพิสูจน์ความปลอดภัย ก่อน นำสินค้าออกสู่ตลาดไม่ใช่ปล่อยสินค้าออกมาทำร้ายคนแล้วค่อยตามแก้

AI Agents ภัยคุกคามระดับรากฐานต่อความเป็นส่วนตัว

ช่วงที่ตึงเครียดที่สุดของการเสวนาคือเมื่อ Meredith Whittaker ประธานของ Signal ซึ่งเป็นแอปพลิเคชันสนทนาที่มีความปลอดภัยระดับโลก ออกมาเตือนถึงเทคโนโลยีใหม่ที่กำลังจะถูกยัดเยียดใส่มือผู้บริโภค นั่นคือ AI Agents ที่ฝังอยู่ในระบบปฏิบัติการ (OS level) ของยักษ์ใหญ่ไอที

Meredith อธิบายกลไกการทำงานที่น่ากลัวของมัน 'คำโฆษณาทางการตลาดคือ คุณจะมีผู้ช่วยอัจฉริยะที่จัดการชีวิตให้คุณ จองตั๋วเครื่องบิน นัดหมายเพื่อน สั่งซื้อของ แต่ในทางเทคนิค สิ่งที่ AI Agent ต้องทำคือ มันต้องได้รับ Root Permission'

เพื่อให้ AI ทำงานแทนคุณได้ มันต้องมองเห็นทุกอย่างที่คุณเห็นบนหน้าจอ มันต้องอ่านข้อมูลดิบจากหน่วยความจำหน้าจอในระดับพิกเซล ซึ่งหมายความว่า ต่อให้คุณใช้แอปที่เข้ารหัสขั้นสูงอย่าง Signal แต่ AI Agent ตัวนี้จะอ่านข้อความของคุณ ก่อน ที่มันจะถูกเข้ารหัสและส่งออกไปเสียอีก

Meredith เปรียบเทียบพฤติกรรมนี้ว่าไม่ต่างอะไรกับ มัลแวร์ที่ฝังตัวอยู่ในเครื่อง เพื่อดักจับข้อมูลทุกอย่างของผู้ใช้แล้วส่งกลับไปประมวลผลบน Cloud นี่คือการทำลายสิทธิมนุษยชนขั้นพื้นฐานในการสื่อสารส่วนบุคคลโดยแลกมากับความสะดวกสบายเพียงเล็กน้อย

ความจริงเบื้องหลัง 'พืชเชิงเดี่ยว' และโมเดลธุรกิจที่บิดเบี้ยว

Meredith ยังชี้ให้เห็นอีกว่า สิ่งที่เราเรียกว่า AI ในปัจจุบัน แท้จริงแล้วเป็นเพียง 'พืชเชิงเดี่ยว' (Monoculture) ของเทคโนโลยีแบบ Deep Learning และ Large Language Models (LLMs)

'ทำไม AI ถึงมีหน้าตาแบบนี้? ไม่ใช่เพราะมันเป็นวิธีเดียวที่ทำได้ แต่เพราะมันเป็นวิธีที่สอดคล้องกับโมเดลธุรกิจของบริษัทยักษ์ใหญ่ที่สะสมข้อมูล (Data) และผูกขาดโครงสร้างพื้นฐาน (Compute) มาตั้งแต่ยุค 90'

เธอมองว่า Deep Learning เป็นเทคโนโลยีที่หิวกระหาย มันต้องการข้อมูลมหาศาลและชิปประมวลผลราคาแพง ซึ่งมีเพียงบริษัทไม่กี่แห่งในโลกที่ครอบครองได้ การผลักดันให้โลกเดินไปในทิศทางนี้ จึงเป็นการรวบอำนาจเข้าสู่ศูนย์กลาง และปิดโอกาสของนวัตกรรม AI รูปแบบอื่นๆ ที่อาจจะมีประสิทธิภาพมากกว่าและใช้ทรัพยากรน้อยกว่า

นอกจากนี้ เธอยังชี้ถึงปัญหาทางเศรษฐศาสตร์ของ AI ว่ามีการลงทุน (CapEx) มหาศาล แต่รายได้ (Revenue) ที่กลับมายังไม่คุ้มค่า ทำให้บริษัทเหล่านี้ต้องเร่งล็อบบี้รัฐบาลและสร้างความหวาดกลัวทางภูมิรัฐศาสตร์ (เช่น ถ้าเราไม่ทำ จีนจะทำ) เพื่อป้องกันไม่ให้เกิดกฎหมายควบคุม และบีบให้สังคมต้องยอมรับเทคโนโลยีนี้โดยไม่มีทางเลือก

ความเงียบงันเรื่องสิ่งแวดล้อมที่ดาวอส

Rachel Botsman ตั้งข้อสังเกตที่น่าตกใจเกี่ยวกับงาน WEF ปีนี้ว่าไม่มีเวทีเสวนาแม้แต่เวทีเดียวที่เชื่อมโยงเรื่อง AI กับ การเปลี่ยนแปลงสภาพภูมิอากาศ

ทั้งที่เมื่อ 3 ปีก่อน เรื่องความยั่งยืน (Sustainability) เป็นธีมหลักของโลก แต่เมื่อ AI เข้ามาแย่งพื้นที่สื่อ ประเด็นผลกระทบต่อสิ่งแวดล้อมกลับถูกปัดตกไป ทั้งที่เรารู้ดีว่า Data Center สำหรับ AI ใช้น้ำและพลังงานมหาศาล จนทำให้เมืองบางแห่งในสหรัฐฯ ขาดแคลนน้ำ และทำให้โรงไฟฟ้าถ่านหินต้องกลับมาเดินเครื่องอีกครั้ง

ความเงียบนี้สะท้อนให้เห็นว่า วาระระดับโลกอาจถูกกำหนดโดยผู้ที่มีผลประโยชน์ทับซ้อน และพยายามหลีกเลี่ยงการพูดถึงราคาที่ต้องจ่ายของการพัฒนา AI

ในช่วงท้ายของการเสวนา วิทยากรทั้งสามได้เสนอทางออกที่ไม่ได้พึ่งพาเทคโนโลยี แต่พึ่งพาความเป็นมนุษย์

  1. ระดับปัจเจก: Rachel เสนอกฎ 'First Draft Rule' คือ มนุษย์ต้องเป็นคนร่างความคิดแรกของงานเสมอ ห้ามให้ AI เริ่มต้นงานให้ เพื่อรักษาความเป็นเจ้าของทางความคิด
  2. ระดับสังคม: Meredith เรียกร้องให้เรามี 'ความกล้าหาญทางจริยธรรม' ที่จะปฏิเสธเทคโนโลยีที่ละเมิดสิทธิ อย่าหลงเชื่อวาทกรรมว่ามันเป็นสิ่งที่หลีกเลี่ยงไม่ได้ เพราะเทคโนโลยีคือสิ่งที่เราเลือกได้
  3. ระดับนโยบาย: Max ชี้ให้เห็นว่าในสหรัฐฯ เริ่มเกิดกลุ่มพันธมิตรข้ามขั้วการเมือง (จากซ้ายจัดไปขวาจัด) ที่เห็นตรงกันว่าต้องควบคุม AI เพราะประชาชนกว่า 95% ไม่ต้องการอนาคตที่ถูกควบคุมโดยเครื่องจักร

การเสวนานี้จบลงด้วยข้อคิดที่สั่นสะเทือนวงการว่า 'จริยธรรมของ AI' ไม่ใช่แค่การเขียนโค้ดให้ถูกต้อง แต่คือการต่อสู้เพื่อแย่งชิงอำนาจในการกำหนดอนาคต ระหว่างผลกำไรของบริษัทเทคโนโลยียักษ์ใหญ่ กับ ความอยู่รอดและศักดิ์ศรีของเผ่าพันธุ์มนุษย์

อ้างอิง: ข้อมูลจากงาน World Economic Forum 2026 เซสชัน Dilemmas around Ethics in AI

ลงทะเบียนเข้าสู่ระบบ เพื่ออ่านบทความฟรีไม่จำกัด

No comment

RELATED ARTICLE

Responsive image

AI เปลี่ยนเกมสายงาน Data ไปแล้ว และคนทำงานต้องปรับตัวอย่างไร ?

ปัจจุบัน AI กำลังเข้ามาเปลี่ยนงานสาย Data อย่างชัดเจน ไม่ใช่แค่เพราะปริมาณข้อมูลที่เพิ่มขึ้น แต่ยังมาจากความต้องการของธุรกิจที่อยากเข้าใจลูกค้าได้ลึกและเฉพาะตัวมากขึ้น...

Responsive image

GenAI กำลังกลายเป็นทักษะพื้นฐานเหมือนที่ทุกคนต้องอ่านออก เขียนได้

ย้อนกลับไปเมื่อ 20 ปีก่อน ทักษะดิจิทัลถือเป็นเรื่องใหม่ที่ทุกคนต้องเรียนรู้เพื่อความอยู่รอดในการทำงาน พอมาถึงวันนี้ทักษะการใช้ AI ก็กำลังอยู่ในจุดนั้นเช่นเดียวกัน...

Responsive image

ส่งต่อธุรกิจครอบครัวข้ามรุ่นอย่างไรให้รอดและเติบโต ? ถอดบทเรียนการส่งไม้ต่อธุรกิจจากแบรนด์ตำนาน ‘ยาหม่องเซียงเพียวอิ๊ว’

ธุรกิจครอบครัวจำนวนมากในประเทศไทยกำลังเผชิญคำถามเดียวกัน คือเมื่อกิจการเติบโตมาถึงจุดหนึ่งแล้ว จะ ‘ส่งไม้ต่อ’ จากรุ่นพ่อแม่ไปสู่รุ่นลูกอย่างไรให้ธุรกิจเดินหน้าต่อได้อย่างมั่นคง ขณะ...