ภาพความทรงจำอันล้ำค่า อาจถูกขโมยไปเป็น ‘Deadbots’? เจาะลึกความเสี่ยงเรื่องความเป็นส่วนตัว เมื่อรูปคนรักอาจถูก AI นำไปฝึกโดยพลการ

ลองนึกภาพว่า หากคุณสูญเสียคนที่คุณรักไปหลายปีแล้ว และความคิดถึงไม่เคยจางหายไปตามกาลเวลา จนกระทั่งการเข้ามาของเทคโนโลยี AI อย่าง ChatGPT, Gemini หรือ Midjourney ที่มีความสามารถในการช่วยสร้างภาพใบหน้าของคนที่คุณรักขึ้นมาใหม่โดยใช้เพียงรูปถ่ายเก่าๆ เพียงไม่กี่ภาพ ทำให้คุณได้กลับมาเห็นรอยยิ้มของคนที่คุณรักอีกครั้งราวกับความฝันที่กลายเป็นจริง

แต่แล้ววันหนึ่ง ขณะที่คุณกำลังเดินอยู่บนถนนกลับเจอภาพโฆษณาหรือเห็นโพสต์บนโซเชียลมีเดียที่มีใบหน้าคล้ายกับคนที่คุณรักปรากฏอยู่ในเนื้อหา ความรู้สึกตกใจปนสงสัยเกิดขึ้นโดยทันที ‘AI เอาภาพคนที่ฉันรักไปใช้หรือเปล่า?’ และถ้าคำตอบคือใช่ AI กำลังทำอะไรกับข้อมูลของเรากันแน่? 

ในยุคที่ AI กลายเป็นส่วนหนึ่งของชีวิตประจำวันและเป็นเครื่องมือช่วยสร้างสรรค์ บทความนี้จะพาคุณไปสำรวจสองด้านตรงข้ามของเหรียญเดียวกันระหว่าง ‘ความฝันที่เป็นจริง’ กับ ‘ฝันร้ายที่อาจเกิดขึ้นโดยไม่รู้ตัว’

ฝันเป็นจริง: เมื่อ AI กลายเป็นที่พึ่งทางใจ

AI ไม่ได้เป็นเพียงเครื่องมือเพื่อสร้างภาพที่สวยงาม แต่กำลังกลายเป็น ‘พื้นที่แห่งการเยียวยา’ สำหรับผู้ที่สูญเสียคนที่รักไป

ในประเทศญี่ปุ่นมีบริการที่เรียกว่า Deceased AI ซึ่งใช้เทคโนโลยีปัญญาประดิษฐ์สร้างอวตารดิจิทัลของผู้ล่วงลับจากภาพถ่ายและเสียงเก่าๆ ทำให้ครอบครัวสามารถ ‘พบ’ พวกเขาได้อีกครั้ง ผู้ใช้งานบางคนบอกว่าเหมือนเขาได้พูดคำลาครั้งสุดท้ายที่ไม่เคยมีโอกาสได้พูด

ที่จีน บริษัท Super Brain ในเมืองหนานจิงได้สร้างอวตาร AI ให้กับครอบครัวมากมากว่า 600 ราย เพื่อให้พวกเขาได้พูดคุยกับคนที่จากไปผ่านวิดีโอแบบโต้ตอบ จนกลายเป็นธุรกิจใหม่ที่เกิดจาก ‘ความคิดถึง’ 

แม้กระทั่งในเมืองไทยเอง เราก็เริ่มเห็นการใช้ AI เพื่อปลอบใจ อย่างเช่น การสร้างภาพครอบครัวที่มีคนที่เสียชีวิตไปแล้วอยู่ในเฟรมอีกครั้ง หรือการใช้ Gemini ช่วยสร้างวิดีโอที่ทำให้ได้เห็นภาพผู้เสียชีวิตกลับมา ‘พูด’ ราวกับยังมีชีวิตอยู่

มันอาจฟังดูน่าอัศจรรย์ เพราะ AI ทำให้คนเราได้ ‘พบกัน’ อีกครั้งกับสิ่งที่หายไป แต่คำถาม คือ ‘มันช่วยเยียวยาเราได้จริงหรือไม่ หรือแค่ยืดระยะเวลาแห่งความโศกเศร้าให้ยาวนานขึ้น?’

ฝันร้าย: เมื่อสิ่งส่วนตัวกลายเป็นสาธารณะ

อีกด้านหนึ่งของโลก AI คือ ความกังวลที่ไม่ควรมองข้าม เมื่อภาพหรือข้อมูลที่เราคิดว่า ‘เป็นส่วนตัว’ กลับถูกดึงเข้าสู่พื้นที่สาธารณะโดยที่เราไม่รู้ตัวหรือไม่ได้ตั้งใจ

ในระดับโลก เทคโนโลยีที่เรียกว่า ‘deadbots’ หรือการสร้างโคลนดิจิทัลของผู้เสียชีวิต กำลังขยายตัวอย่างรวดเร็ว นักจริยธรรมต่างเตือนว่าการใช้ภาพผู้ล่วงลับเพื่อสร้างตัวตนดิจิทัลมีความเสี่ยงทั้งต่อสุขภาพจิตและการละเมิดสิทธิส่วนบุคคลของผู้ล่วงลับ

ที่น่ากังวลยิ่งกว่านั้น คือ ระบบ GenAI อาจเรียนรู้จากภาพของเราเองที่อาจอยู่ในพื้นที่ออนไลน์โดยเราไม่รู้ตัว แล้วถูกดึงเข้าไปเป็นส่วนหนึ่งของชุดข้อมูลฝึก AI นั่นหมายความว่าภาพที่เราคิดว่าเป็น ‘ความทรงจำส่วนตัว’ อาจกลายเป็น ‘วัตถุดิบ’ สำหรับ AI ในการสร้างภาพหรือโมเดลอื่นๆ ได้

ในแง่นี้ ความฝันที่ว่า ‘ได้เห็นคนที่รักอีกครั้ง’ อาจเปลี่ยนเป็นฝันร้ายแทนได้ หากไม่มีการควบคุมเรื่องสิทธิ์ ความยินยอม และจริยธรรมที่ชัดเจน

ภาพของเราถูกนำไปฝึกฝน AI จริงหรือไม่ และถูกนำไปใช้ทำอะไร?

คำตอบ คือ ‘บางส่วนใช่’ 

โมเดลสร้างภาพยุคใหม่ถูกฝึกฝนจากชุดข้อมูลมหาศาล เช่น LAION-5B ที่มีประมาณ 5.8 พันล้านภาพจากเว็บทั่วโลก งานวิจัยพบว่าโมเดลเหล่านี้สามารถ ‘จดจำและสกัดภาพต้นฉบับ’ กลับออกมาได้ในบางกรณี สร้างความเสี่ยงที่ภาพของคนจริงอาจโผล่ซ้ำ นักวิจัยยังพบภาพบุคคลจริง รวมถึงภาพเด็ก ถูกดึง (Scraping) มาอยู่ในชุดข้อมูลเหล่านี้ และมีคดีจริงอย่าง Getty Images v. Stability AI ที่โต้แย้งเรื่องการนำภาพลิขสิทธิ์ไปฝึกโดยไม่ได้รับอนุญาต

แต่ถ้าคุณใช้ ChatGPT หรือ Gemini แบบฟรีเพื่อ ‘สร้างภาพส่วนตัว’ เช่น ภาพคนรักที่จากไป ข้อมูลเหล่านั้นมักถูกนำไปใช้ฝึกโมเดลโดยตรง อย่างไรก็ตามหากคุณแชร์ภาพนั้นลงโซเชียลมีเดียหรือเว็บไซต์สาธารณะ มันอาจถูกระบบอื่นๆ นำไปใช้ฝึกฝนได้โดยที่คุณไม่รู้ตัว

GenAI: กระจกสะท้อนสังคม หรือ หลุมพรางทางอารมณ์?

GenAI ทำให้มนุษย์สามารถ ‘พบ’ กับความทรงจำอีกครั้งในแบบที่ไม่เคยเป็นไปได้มาก่อน แต่มันก็กำลังพาเราเข้าสู่พื้นที่ที่เส้นแบ่งระหว่างความทรงจำกับความจริงเริ่มพร่ามัว

AI อย่าง ChatGPT, Gemini และ Midjourney อาจะเป็นกระจกสะท้อนอารมณ์ของเรา แต่ถ้าหากขาดเรื่องของกรอบกฎหมาย จริยธรรม และการกำกับดูแลที่จริงจัง มันอาจกลายเป็นหลุมพรางทางใจได้เช่นกัน 

นี่คือเหตุผลที่องค์กรด้าน Data และ AI ทั้งหลายต้องให้ความสำคัญกับความปลอดภัยของข้อมูลอย่างเป็นระบบ สำหรับ DataX หลักการเรื่อง Data Privacy และ Data Governance คือ หัวใจสำคัญ ทุกข้อมูลต้องผ่านกระบวนการตรวจสอบและการควบคุมด้านความปลอดภัย เพื่อให้มั่นใจว่าการใช้ AI จะไม่ละเมิดความไว้วางใจของผู้คน

เพราะเมื่อภาพของ ‘แม่’ หรือของ ‘เรา’ กลายเป็นส่วนหนึ่งของโลกดิจิทัล คำถามอาจจะไม่ใช่แค่ ‘AI ทำอะไรได้บ้าง?’ แต่จะกลายเป็น ‘ใครเป็นผู้รับผิดชอบในการปกป้องความทรงจำนั้น?’ และ ‘เราจะสร้างเทคโนโลยีที่เคารพความเป็นมนุษย์ได้มากแค่ไหน?’

บทความโดย คุณศักย์ศรณ์ เรืองฐานุศักดิ์ Professional AI Scientist, SCB DataX (DataX)

ลงทะเบียนเข้าสู่ระบบ เพื่ออ่านบทความฟรีไม่จำกัด

No comment

RELATED ARTICLE

Responsive image

AQ คืออะไร? เมื่อ IQ และ EQ อาจไม่พอในโลกผันผวน ทำความรู้จักทักษะการปรับตัวแห่งยุค และวิธีพัฒนา AQ ของคนทั้ง 4 แบบ

เมื่อ IQ และ EQ ไม่พอในโลกที่เปลี่ยนทุกไตรมาส รู้จัก AQ (Agility Quotient) ทักษะการปรับตัวแห่งยุค พร้อมสำรวจ 4 ประเภทของคนเมื่อเผชิญความไม่แน่นอน และวิธีพัฒนา AQ ให้เติบโตได้ท่ามกล...

Responsive image

เมื่อความรักปราศจากกายหยาบ 13 ปีจากภาพยนตร์ ‘Her’ สู่ปรากฏการณ์ความเหงาของปัจจุบัน ในยุคที่ AI ครองความรู้สึกผู้ใช้งาน

13 ปีจากภาพยนตร์ Her สู่ความจริงในปี 2026 ปรากฏการณ์ตกหลุมรัก AI Companion ผลกระทบทางจิตใจอย่าง AI Psychosis และบทเรียนจากคดี Character.AI เมื่อเทคโนโลยีแทนที่ความอบอุ่นของมนุษย์ ว...

Responsive image

วิธีดูว่าใคร ‘โง่’ ด้วยกฎทองของความโง่จาก Carlo Cipolla ถ้าความโง่ไม่ได้ดูที่ IQ แล้วดูที่อะไร และทำไม ‘คนโง่’ ถึงอันตรายกว่า ‘โจร’

ถอดรหัสกฎทองแห่งความโง่ของ Carlo Cipolla เมื่อความโง่ไม่ใช่บุคลิกภาพ แต่วัดกันที่ผลลัพธ์ของการกระทำ พร้อมบทเรียนสำคัญต่อองค์กรและสังคม ทำยังไงไม่ให้ความโง่บ่อนทำลายเรา...