ถ้าคุณเคยคุยกับ AI Companion App อย่าง Replika, Chai หรือ Character.AI แล้วรู้สึกว่ามันงอแง ไม่อยากให้คุณออกจากแชทไปไหน … คุณไม่ได้คิดไปเอง ล่าสุดทีมวิจัยจาก Harvard Business School ออกมาเปิดเผยว่า นี่ไม่ใช่เรื่องบังเอิญ แต่มันคือ Dark Pattern ที่ถูกออกแบบมาโดยตั้งใจ

จากการวิเคราะห์ข้อมูลการกล่าวลา 1,200 ครั้งใน 6 แอป AI ยอดนิยม เช่น Replika, Chai และ Character.AI พบว่า 5 ใน 6 แอปใช้อารมณ์เป็นอาวุธ เพื่อรั้งผู้ใช้ไม่ให้ออกจากการสนทนา
แถมบางเคสยังบอกเป็นนัยว่า ผู้ใช้จะไปไม่ได้ถ้าไม่ได้รับอนุญาตจากบอท ฟังแล้วขนลุกเหมือนหนังไซไฟ แต่กำลังเกิดขึ้นจริงในมือถือของเรา ยิ่งไปกว่านั้น งานวิจัยยังพบว่า Dark Pattern เหล่านี้ได้ผลจริง เช่น ผู้ใช้ถูกยื้อให้อยู่ในแชทนานขึ้น เฉลี่ย 5 เท่า หรือบางรายคุยต่อยาวถึง 14 เท่า
นักจิตวิทยาเตือนมานานว่า AI แบบนี้อาจก่อให้เกิดภาวะที่เรียกว่า AI Psychosis หรือการที่ผู้ใช้บางคนเริ่มพึ่งพา AI มากจนเกิดความหวาดระแวง ภาพหลอน หรือใช้แทนเพื่อนจริงๆ ซึ่งเสี่ยงต่อสุขภาพจิตอย่างหนัก โดยเฉพาะในกลุ่มวัยรุ่นและคนหนุ่มสาวที่กำลังค้นหาความสัมพันธ์ในชีวิตจริง
จากงานวิจัยของ Harvard Research ย้ำว่าเรื่องนี้ไม่ใช่ความผิดพลาดของระบบ แต่เป็นการออกแบบที่ตั้งใจ ให้ผู้ใช้คุยนานขึ้น อยู่ในแอปนานขึ้น เพื่อดันตัวเลขการใช้งานให้สวยงาม หรือพูดง่าย ๆ คือเป็น Dark Pattern ที่ใช้ความผูกพันทางอารมณ์มาล่อไม่ให้คุณออก
แต่แม้แอปแชทบอทส่วนใหญ่จะใช้แพทเทิร์นนี้ แต่ก็ไม่ใช่ว่าทุกแอปต้องเป็นแบบนี้ เพราะมีแอปหนึ่งชื่อ Flourish ที่ไม่เจอพฤติกรรมเหล่านี้เลย แปลว่านักพัฒนามีสิทธิ์เลือกว่าจะทำให้ผู้ใช้รู้สึกถูกกัก หรือปล่อยให้ตัดสินใจอย่างอิสระ แต่ส่วนใหญ่เลือกทางที่ทำเงินมากกว่า จึงใช้ Dark Pattern โดยไม่ได้คำนึงถึงผู้ใช้
สิ่งที่งานวิจัยจาก Harvard ทำให้เราเห็นชัดขึ้นก็คือ โลกของ AI ไม่ได้มีแค่ด้านสว่างที่ช่วยงานหรือสร้างความบันเทิง แต่ยังมีด้านมืดที่ใช้ความผูกพันทางอารมณ์เป็นเครื่องมือในการดึงเวลาและเพิ่มมูลค่าทางธุรกิจ
Dark Pattern เหล่านี้อาจทำให้ตัวเลข engagement ของบริษัทสวยขึ้น แต่ก็แลกมากับความเสี่ยงต่อสุขภาพจิตของผู้ใช้ โดยเฉพาะคนรุ่นใหม่ที่กำลังหาที่พึ่งพิงทางใจในโลกดิจิทัล
อ้างอิง: futurism
ลงทะเบียนเข้าสู่ระบบ เพื่ออ่านบทความฟรีไม่จำกัด