
ลองนึกภาพว่า หากคุณสูญเสียคนที่คุณรักไปหลายปีแล้ว และความคิดถึงไม่เคยจางหายไปตามกาลเวลา จนกระทั่งการเข้ามาของเทคโนโลยี AI อย่าง ChatGPT, Gemini หรือ Midjourney ที่มีความสามารถในการช่วยสร้างภาพใบหน้าของคนที่คุณรักขึ้นมาใหม่โดยใช้เพียงรูปถ่ายเก่าๆ เพียงไม่กี่ภาพ ทำให้คุณได้กลับมาเห็นรอยยิ้มของคนที่คุณรักอีกครั้งราวกับความฝันที่กลายเป็นจริง
แต่แล้ววันหนึ่ง ขณะที่คุณกำลังเดินอยู่บนถนนกลับเจอภาพโฆษณาหรือเห็นโพสต์บนโซเชียลมีเดียที่มีใบหน้าคล้ายกับคนที่คุณรักปรากฏอยู่ในเนื้อหา ความรู้สึกตกใจปนสงสัยเกิดขึ้นโดยทันที ‘AI เอาภาพคนที่ฉันรักไปใช้หรือเปล่า?’ และถ้าคำตอบคือใช่ AI กำลังทำอะไรกับข้อมูลของเรากันแน่?
ในยุคที่ AI กลายเป็นส่วนหนึ่งของชีวิตประจำวันและเป็นเครื่องมือช่วยสร้างสรรค์ บทความนี้จะพาคุณไปสำรวจสองด้านตรงข้ามของเหรียญเดียวกันระหว่าง ‘ความฝันที่เป็นจริง’ กับ ‘ฝันร้ายที่อาจเกิดขึ้นโดยไม่รู้ตัว’
AI ไม่ได้เป็นเพียงเครื่องมือเพื่อสร้างภาพที่สวยงาม แต่กำลังกลายเป็น ‘พื้นที่แห่งการเยียวยา’ สำหรับผู้ที่สูญเสียคนที่รักไป
ในประเทศญี่ปุ่นมีบริการที่เรียกว่า Deceased AI ซึ่งใช้เทคโนโลยีปัญญาประดิษฐ์สร้างอวตารดิจิทัลของผู้ล่วงลับจากภาพถ่ายและเสียงเก่าๆ ทำให้ครอบครัวสามารถ ‘พบ’ พวกเขาได้อีกครั้ง ผู้ใช้งานบางคนบอกว่าเหมือนเขาได้พูดคำลาครั้งสุดท้ายที่ไม่เคยมีโอกาสได้พูด
ที่จีน บริษัท Super Brain ในเมืองหนานจิงได้สร้างอวตาร AI ให้กับครอบครัวมากมากว่า 600 ราย เพื่อให้พวกเขาได้พูดคุยกับคนที่จากไปผ่านวิดีโอแบบโต้ตอบ จนกลายเป็นธุรกิจใหม่ที่เกิดจาก ‘ความคิดถึง’
แม้กระทั่งในเมืองไทยเอง เราก็เริ่มเห็นการใช้ AI เพื่อปลอบใจ อย่างเช่น การสร้างภาพครอบครัวที่มีคนที่เสียชีวิตไปแล้วอยู่ในเฟรมอีกครั้ง หรือการใช้ Gemini ช่วยสร้างวิดีโอที่ทำให้ได้เห็นภาพผู้เสียชีวิตกลับมา ‘พูด’ ราวกับยังมีชีวิตอยู่
มันอาจฟังดูน่าอัศจรรย์ เพราะ AI ทำให้คนเราได้ ‘พบกัน’ อีกครั้งกับสิ่งที่หายไป แต่คำถาม คือ ‘มันช่วยเยียวยาเราได้จริงหรือไม่ หรือแค่ยืดระยะเวลาแห่งความโศกเศร้าให้ยาวนานขึ้น?’
อีกด้านหนึ่งของโลก AI คือ ความกังวลที่ไม่ควรมองข้าม เมื่อภาพหรือข้อมูลที่เราคิดว่า ‘เป็นส่วนตัว’ กลับถูกดึงเข้าสู่พื้นที่สาธารณะโดยที่เราไม่รู้ตัวหรือไม่ได้ตั้งใจ
ในระดับโลก เทคโนโลยีที่เรียกว่า ‘deadbots’ หรือการสร้างโคลนดิจิทัลของผู้เสียชีวิต กำลังขยายตัวอย่างรวดเร็ว นักจริยธรรมต่างเตือนว่าการใช้ภาพผู้ล่วงลับเพื่อสร้างตัวตนดิจิทัลมีความเสี่ยงทั้งต่อสุขภาพจิตและการละเมิดสิทธิส่วนบุคคลของผู้ล่วงลับ
ที่น่ากังวลยิ่งกว่านั้น คือ ระบบ GenAI อาจเรียนรู้จากภาพของเราเองที่อาจอยู่ในพื้นที่ออนไลน์โดยเราไม่รู้ตัว แล้วถูกดึงเข้าไปเป็นส่วนหนึ่งของชุดข้อมูลฝึก AI นั่นหมายความว่าภาพที่เราคิดว่าเป็น ‘ความทรงจำส่วนตัว’ อาจกลายเป็น ‘วัตถุดิบ’ สำหรับ AI ในการสร้างภาพหรือโมเดลอื่นๆ ได้
ในแง่นี้ ความฝันที่ว่า ‘ได้เห็นคนที่รักอีกครั้ง’ อาจเปลี่ยนเป็นฝันร้ายแทนได้ หากไม่มีการควบคุมเรื่องสิทธิ์ ความยินยอม และจริยธรรมที่ชัดเจน
ภาพของเราถูกนำไปฝึกฝน AI จริงหรือไม่ และถูกนำไปใช้ทำอะไร?
คำตอบ คือ ‘บางส่วนใช่’
โมเดลสร้างภาพยุคใหม่ถูกฝึกฝนจากชุดข้อมูลมหาศาล เช่น LAION-5B ที่มีประมาณ 5.8 พันล้านภาพจากเว็บทั่วโลก งานวิจัยพบว่าโมเดลเหล่านี้สามารถ ‘จดจำและสกัดภาพต้นฉบับ’ กลับออกมาได้ในบางกรณี สร้างความเสี่ยงที่ภาพของคนจริงอาจโผล่ซ้ำ นักวิจัยยังพบภาพบุคคลจริง รวมถึงภาพเด็ก ถูกดึง (Scraping) มาอยู่ในชุดข้อมูลเหล่านี้ และมีคดีจริงอย่าง Getty Images v. Stability AI ที่โต้แย้งเรื่องการนำภาพลิขสิทธิ์ไปฝึกโดยไม่ได้รับอนุญาต
แต่ถ้าคุณใช้ ChatGPT หรือ Gemini แบบฟรีเพื่อ ‘สร้างภาพส่วนตัว’ เช่น ภาพคนรักที่จากไป ข้อมูลเหล่านั้นมักถูกนำไปใช้ฝึกโมเดลโดยตรง อย่างไรก็ตามหากคุณแชร์ภาพนั้นลงโซเชียลมีเดียหรือเว็บไซต์สาธารณะ มันอาจถูกระบบอื่นๆ นำไปใช้ฝึกฝนได้โดยที่คุณไม่รู้ตัว
GenAI ทำให้มนุษย์สามารถ ‘พบ’ กับความทรงจำอีกครั้งในแบบที่ไม่เคยเป็นไปได้มาก่อน แต่มันก็กำลังพาเราเข้าสู่พื้นที่ที่เส้นแบ่งระหว่างความทรงจำกับความจริงเริ่มพร่ามัว
AI อย่าง ChatGPT, Gemini และ Midjourney อาจะเป็นกระจกสะท้อนอารมณ์ของเรา แต่ถ้าหากขาดเรื่องของกรอบกฎหมาย จริยธรรม และการกำกับดูแลที่จริงจัง มันอาจกลายเป็นหลุมพรางทางใจได้เช่นกัน
นี่คือเหตุผลที่องค์กรด้าน Data และ AI ทั้งหลายต้องให้ความสำคัญกับความปลอดภัยของข้อมูลอย่างเป็นระบบ สำหรับ DataX หลักการเรื่อง Data Privacy และ Data Governance คือ หัวใจสำคัญ ทุกข้อมูลต้องผ่านกระบวนการตรวจสอบและการควบคุมด้านความปลอดภัย เพื่อให้มั่นใจว่าการใช้ AI จะไม่ละเมิดความไว้วางใจของผู้คน
เพราะเมื่อภาพของ ‘แม่’ หรือของ ‘เรา’ กลายเป็นส่วนหนึ่งของโลกดิจิทัล คำถามอาจจะไม่ใช่แค่ ‘AI ทำอะไรได้บ้าง?’ แต่จะกลายเป็น ‘ใครเป็นผู้รับผิดชอบในการปกป้องความทรงจำนั้น?’ และ ‘เราจะสร้างเทคโนโลยีที่เคารพความเป็นมนุษย์ได้มากแค่ไหน?’
บทความโดย คุณศักย์ศรณ์ เรืองฐานุศักดิ์ Professional AI Scientist, SCB DataX (DataX)
ลงทะเบียนเข้าสู่ระบบ เพื่ออ่านบทความฟรีไม่จำกัด