AI กำลังเปลี่ยนโลก หรือเรากำลังหลงภาพลวงตา? บทเรียนฟองสบู่จากประวัติศาสตร์ เมื่อ AI ไม่มีมาตรวัดผลที่ชัดเจน

ในวันที่มูลค่าของ Nvidia พุ่งทะยานแตะระดับ 5 ล้านล้านดอลลาร์ และ OpenAI ถูกยกให้เป็นหนึ่งในองค์กรที่ทรงอิทธิพลที่สุดของโลกเทคโนโลยี ท่ามกลางเม็ดเงินลงทุนมหาศาลที่หลั่งไหลเข้าสู่สตาร์ทอัพ AI อย่างไม่ขาดสาย เสียงเตือนจากนักประวัติศาสตร์เทคโนโลยีกลับดังขึ้นเรื่อย ๆ ว่า “เราควรระวังให้มาก เพราะสัญญาณบางอย่างชวนให้นึกถึงบทเรียนราคาแพงในอดีต” เริ่มมีคำถามว่า AI ที่ดูอัจฉริยะและทรงพลังในวันนี้ อาจเป็นเพียง ‘ฟองสบู่’ ก้อนใหญ่ที่พร้อมแตกในวันหนึ่งหรือไม่

Bernard Koch จาก University of Chicago และ David Peterson จาก Purdue University สองนักวิชาการที่ศึกษาผลกระทบของ AI ต่อทั้งวิทยาศาสตร์และวัฒนธรรม ได้ตั้งข้อสังเกตผ่านคอลัมน์ Made by History ในนิตยสาร TIME อย่างน่าติดตามว่า แก่นแท้ของความกังวลเรื่องฟองสบู่ AI ไม่ได้อยู่ที่ตัวเลขกำไรหรือขาดทุน แต่อยู่ที่สิ่งที่พวกเขาเรียกว่า ‘วิกฤตการวัดผล’ (Crisis of Evaluation)

ภาวะฟองสบู่ AI แตกในมุมมองเศรษฐศาสตร์

ในเชิงเศรษฐศาสตร์ ฟองสบู่ AI หมายถึงสถานการณ์ที่มูลค่าของสินทรัพย์หรือการลงทุนในอุตสาหกรรม AI พุ่งสูงขึ้นอย่างรวดเร็ว เกินกว่าศักยภาพในการสร้างรายได้จริง โดยถูกขับเคลื่อนด้วยความคาดหวัง ความตื่นเต้น และการเก็งกำไรในเทคโนโลยีที่ดูเหมือนไร้ขีดจำกัด จนราคาลอยสูงขึ้นเรื่อย ๆ ราวกับฟองสบู่ที่ภายในกลวงเปล่า

และเมื่อถึงจุดที่ความหวังอันมหาศาลไม่สามารถแปรเปลี่ยนเป็นผลลัพธ์ได้จริง หรือบริษัทเทคโนโลยีไม่อาจเปลี่ยนโมเดล AI ให้กลายเป็นรายได้ที่คุ้มค่ากับต้นทุนระดับแสนล้านดอลลาร์ตามที่เคยสัญญาไว้ ความเชื่อมั่นของนักลงทุนก็จะพังทลายลงอย่างฉับพลัน นำไปสู่การเทขายหุ้นและเงินลงทุนอย่างรุนแรง ปรากฏการณ์นี้คือสิ่งที่เรียกว่า ‘ฟองสบู่แตก’ ซึ่งมักทิ้งบาดแผลลึกไว้ในระบบเศรษฐกิจ เช่นเดียวกับที่เคยเกิดขึ้นในวิกฤตดอทคอม (Dot-com Crisis) ระหว่างปี 1995–2000

สิ่งที่น่ากังวลคือ ชนวนสำคัญที่อาจทำให้ฟองสบู่ AI ในรอบนี้แตก ไม่ใช่แค่ตัวเลขทางการเงิน แต่คือการที่เราเริ่มแยกไม่ออกว่า AI กำลังก้าวไปสู่ศักยภาพที่เปลี่ยนโลกได้จริง หรือเป็นเพียงภาพลวงตาที่เกิดจากการวัดผลซึ่งไร้มาตรฐานรองรับ

บทเรียนจาก ‘ความโอหัง’ ของยุค 80s

ย้อนกลับไปในช่วงทศวรรษ 1980 โลกเคยหลงใหลเทคโนโลยีที่เรียกว่า ‘Expert Systems’ ซึ่งพยายามถอดตรรกะการตัดสินใจของมนุษย์ออกมาเป็นชุดกฎ เพื่อให้คอมพิวเตอร์เลียนแบบแนวคิดของผู้เชี่ยวชาญได้ ความสำเร็จในระยะแรกนั้นหวานชื่นจนทำให้นักวิจัยจำนวนมากเชื่อว่านี่คือเส้นทางลัดสู่ความอัจฉริยะที่แท้จริง

แต่ความล้มเหลวที่ไม่คาดคิดกลับฝังอยู่ในโครงสร้างของระบบเอง เพราะ Expert Systems ทำงานบนตรรกะ “ถ้า…แล้ว…” (If–Then) ซึ่งมนุษย์ต้องป้อนกฎเข้าไป เมื่อโจทย์ซับซ้อนขึ้น จำนวนกฎก็เพิ่มขึ้นแบบทวีคูณ จนเกิดปัญหากฎชนกันเอง และระบบไม่สามารถรับมือกับข้อยกเว้นนับไม่ถ้วนในโลกจริงได้ ตัวอย่างคลาสสิกคือระบบวินิจฉัยโรคที่แนะนำการรักษาสำหรับหญิงตั้งครรภ์ให้กับผู้ชาย เพียงเพราะผู้พัฒนาลืมใส่เงื่อนไขเรื่องเพศเข้าไปในกฎ

นักวิจารณ์สายขบถอย่าง Hubert Dreyfus ได้อธิบายความล้มเหลวนี้ด้วยแนวคิดที่เรียกว่า ‘Fallacy of the First Step’ เขาเปรียบเทียบว่า “การที่คุณเห็นลิงปีนขึ้นไปบนยอดไม้ได้ ไม่ได้หมายความว่ามันกำลังเข้าใกล้การเดินทางไปดวงจันทร์” แม้มันจะอยู่สูงกว่าเดิม แต่วิธีการปีนของมันมีเพดานจำกัด ที่ไม่มีวันพาไปไกลกว่านั้นได้

Expert Systems ก็เช่นเดียวกัน แม้จะดูฉลาดในการทำตามกฎที่มนุษย์กำหนด แต่มันคือการแก้ปัญหาในกรอบแคบ เมื่อโลกจริงเต็มไปด้วยความซับซ้อนและข้อยกเว้น ระบบที่ออกแบบมาอย่างประณีตก็ไม่อาจก้าวข้ามเพดานของตรรกะเดิมได้

เมื่อความคาดหวังพังทลาย โลกจึงเข้าสู่ยุคที่เรียกว่า ‘AI Winter’ ความล้มเหลวของ Expert Systems ทำให้ความเชื่อมั่นสลาย เม็ดเงินจากทั้งภาครัฐและเอกชนหายไปในพริบตา โครงการวิจัยจำนวนมากถูกตัดงบ สตาร์ทอัพ AI ล้มลงเป็นโดมิโน และคำว่า ‘AI’ ก็กลายเป็นคำต้องห้ามในวงการวิชาการ ใครเขียนขอทุนโดยใช้คำนี้มักถูกปฏิเสธทันที จนนักวิจัยต้องหลบไปใช้คำอื่นเพื่อเอาตัวรอด

ยุคทองของความสำเร็จที่เกิดจากการวัดผล

หลังบทเรียนความล้มเหลวในอดีต หน่วยงานอย่าง DARPA จึงปรับแนวทางการให้ทุนครั้งใหญ่ จากเดิมที่สนับสนุนงานวิจัยอย่างกว้างขวาง พวกเขาเริ่มกำหนดมาตรฐานการสอบวัดผลที่ชัดเจน (Benchmark) คนที่ต้องการทุนวิจัยจะต้องพิสูจน์ความสามารถด้วยคะแนนในโจทย์ที่จับต้องได้และใช้งานจริง เช่น

  • การแปลภาษารัสเซียเป็นอังกฤษอย่างแม่นยำ (Machine Translation)
  • การถอดเสียงจากไฟล์เสียงที่ซับซ้อน (Speech-to-Text)
  • การระบุตัวเลขหรือวัตถุในภาพ (Object Recognition)

ไม้บรรทัดเหล่านี้ทำให้นักวิจัยมีเป้าหมายร่วมกัน จนนำไปสู่การค้นพบว่าอัลกอริทึมแบบ Deep Learning ซึ่งได้แรงบันดาลใจจากสมองมนุษย์ และสามารถทำคะแนนได้เหนือกว่าวิธีการเดิม ๆ จนกลายเป็นรากฐานของ AI ที่เราใช้งานอยู่ในสมาร์ทโฟนทุกวันนี้ Benchmark จึงเปรียบเสมือนแสงสว่างที่พาวงการ AI หลุดพ้นจากฤดูหนาวได้สำเร็จ

บทเรียนนี้ตอกย้ำว่า เมื่อกระแสพุ่งแรงเกินความเป็นจริง และเทคโนโลยีทำไม่ได้ตามคำสัญญา ฤดูหนาวอันยาวนานย่อมตามมาเสมอ และนี่คือสิ่งที่นักวิเคราะห์ในปี 2025 กำลังกังวลว่าประวัติศาสตร์อาจกำลังจะซ้ำรอยอีกครั้ง รวมถึง ณ ปัจจุบันนี้เราขาดกุญแจสำคัญที่เรียกว่า ‘การวัดผล’ 

สัญญาณอันตราย เมื่อความจริงเริ่มไล่กวดความฝัน

ในปี 2025 ที่ผ่านมาสัญญาณของภาวะฟองสบู่ AI เริ่มชัดเจนขึ้น เมื่อมีการถกเถียงอย่างจริงจังเรื่องผลตอบแทนจากการลงทุนใน AI งานวิจัยจาก MIT เผยความจริงที่น่าตกใจว่า แม้องค์กรกว่า 80% จะเริ่มนำ AI มาใช้งาน แต่มีเพียงราว 5% เท่านั้นที่สามารถนำไปใช้จนสร้างกำไรที่วัดผลได้ชัดเจน ขณะที่อีก 95% ยังคงติดอยู่ในขั้นทดลอง หรือไม่สามารถแปลงเทคโนโลยีให้กลายเป็นมูลค่าทางธุรกิจได้

ยิ่งไปกว่านั้น ยังเกิดสิ่งที่เรียกว่า ‘วิกฤตต้นทุนระบบคลาวด์’ เพราะ AI ยุคใหม่ต้องใช้พลังประมวลผลมหาศาล ทำให้ค่าเช่าระบบคลาวด์ และค่าไฟฟ้าพุ่งสูงตามไปด้วย ในขณะที่รายได้จากบริการ AI เช่น แชตบอทแบบรายเดือนกลับเติบโตช้ากว่าต้นทุนอย่างมาก จนแม้แต่ Sundar Pichai ซีอีโอของ Google ยังออกมาเตือนว่ากระแสในตลาดเริ่มเกินจริง และย้ำว่าหากฟองสบู่แตกจริง “ไม่มีบริษัทไหนปลอดภัย” แม้แต่ยักษ์ใหญ่อย่าง Google เองก็ไม่อาจหลีกเลี่ยงแรงกระแทกได้

หากแนวโน้มนี้ยังดำเนินต่อไป ความเชื่อมั่นที่พยุงราคาหุ้นไว้ก็พร้อมจะพังทลาย ผลกระทบจะลุกลามเป็นลูกโซ่ ตั้งแต่การปิดตัวของสตาร์ทอัพที่พึ่งพาเงินทุน Venture Capital ไปจนถึงการเข้าสู่ AI Winter รอบใหม่ ที่จะทำให้งานวิจัยชะลอตัวลงอย่างหลีกเลี่ยงไม่ได้

ยุคแห่งการ Vibe Check ตัดสินประสิทธิภาพจาก ‘ความรู้สึก’

อีกหนึ่งสัญญาณของฟองสบู่ที่ Bernard Koch และ David Peterson กังวลอย่างยิ่งคือ สำหรับ Generative AI อย่าง ChatGPT หรือ Gemini ในปัจจุบัน บริบทของการประเมินผลได้เปลี่ยนไปโดยสิ้นเชิง จากยุคที่ AI ถูกทดสอบด้วยโจทย์แบบปรนัย ซึ่งมีคำตอบถูกผิดชัดเจน เรากำลังก้าวเข้าสู่พื้นที่ใหม่ที่แทบไม่มีมาตรฐานสากลมารองรับ เราไม่ได้ขอให้ AI แค่ ‘ตอบให้ถูก’ อีกต่อไป แต่ขอให้มันทำงานที่ไม่มีคำตอบเดียว เช่น ‘ออกแบบสไลด์พรีเซนต์’ หรือ ‘วางแผนธุรกิจที่เหนือชั้น’

และเมื่อโจทย์เปลี่ยน คำถามในการวัดผลก็เปลี่ยนตามไปด้วย ตัวอย่างเช่น เมื่อพยายามวัดความสามารถของ AI ในการทำสไลด์พรีเซนต์ คำถามไม่ได้อยู่ที่แค่ว่ามัน “ทำถูกหรือผิด” แต่คือสไลด์ที่ ‘ดี’ นั้นควรมีลักษณะอย่างไร เพราะคุณภาพของสไลด์ไม่ได้ขึ้นกับตัวเลขหรือสูตรคำนวณ แต่เชื่อมโยงกับรสนิยมทางศิลปะ การเล่าเรื่องที่น่าติดตาม จังหวะการสื่อสารที่เหมาะสม และการตัดสินใจเชิงผู้เชี่ยวชาญตามบริบทจริง สิ่งเหล่านี้อยู่ในขอบเขตของศิลปะและประสบการณ์ มากกว่าคณิตศาสตร์ ซึ่งทำให้การทดสอบแบบ Benchmark ดั้งเดิมแทบไม่สามารถจับความลุ่มลึกเหล่านี้ได้เลย

ผลที่ตามมาคือ วิธีประเมินความสามารถของ AI ยุคใหม่จึงเลื่อนไหลไปสู่สิ่งที่หลายคนเรียกกันว่า ‘Vibe Check’ หรือการใช้ความรู้สึกส่วนตัวตัดสินว่า “มันตอบดูฉลาดดีนะ” ทว่าในสนามการลงทุนที่มีเงินระดับแสนล้านดอลลาร์เป็นเดิมพัน การฝากอนาคตของเทคโนโลยีไว้กับความรู้สึกโดยไม่มีเครื่องมือทางวิทยาศาสตร์ที่วัดความก้าวหน้าได้อย่างเป็นรูปธรรม คือความเสี่ยงขนาดใหญ่ที่อาจพาเราหลงทางโดยไม่รู้ตัว

โครงสร้างพื้นฐานแห่งอนาคตหรือแค่ภาพลวงตา?

การลงทุนในวันนี้ตั้งอยู่บนสมมติฐานว่า ระบบอัตโนมัติที่สมบูรณ์แบบจะเกิดขึ้นในอีก 3–5 ปีข้างหน้า แต่หากเรายังขาดวิธีประเมินที่เชื่อถือได้ เราก็ไม่มีทางรู้เลยว่า LLM ที่ใช้อยู่กำลังพาเราไปสู่ระบบอัตโนมัติที่แท้จริง หรือเป็นเพียงการเดินซ้ำรอย Fallacy ของ Hubert Dreyfus ที่พาเราไปชนทางตันอย่างรวดเร็ว

ประวัติศาสตร์สอนเราว่า ฟองสบู่จะแตกเมื่อ ‘ความคาดหวัง’ เดินสวนทางกับ ‘ความเป็นจริง’ หากเรายังไม่สามารถสร้างมาตรฐานการวัดผล AI สำหรับงานที่ซับซ้อนได้ เราก็ไม่อาจรู้เลยว่าเงินทุกบาทที่ลงทุนไปนั้น กำลังสร้างจรวดสู่ดวงจันทร์ หรือแค่จ้างลิงให้ปีนต้นไม้ที่สูงขึ้นกว่าเดิม และหากวันหนึ่งความจริงปรากฏว่าเส้นทางนั้นไปต่อไม่ได้ ฤดูหนาวของ AI ก็อาจหวนกลับมาอีกครั้ง และครั้งนี้อาจยาวนานกว่าที่เคยเป็นมา

อ้างอิง: TIME


ลงทะเบียนเข้าสู่ระบบ เพื่ออ่านบทความฟรีไม่จำกัด

No comment

RELATED ARTICLE

Responsive image

ฟองสบู่ AI กำลังจะแตก หรือแค่เพิ่งเริ่มต้นในปี 2026? เจาะลึกผ่านมุมมอง 17 ผู้นำโลกธุรกิจ

ฟองสบู่ AI จะแตกไหม? สรุปมุมมอง 17 บิ๊กเทคโลก Sam Altman เตือนระวัง แต่ Jensen Huang มั่นใจไปต่อ...

Responsive image

Top AI 2024 ปี 2025 โตขึ้นแค่ไหน? เจาะลึกวิวัฒนาการสู่ ‘Agentic AI’ จากแชทบอทสู่ระบบที่คิดและทำงานได้เอง

โลก AI เปลี่ยนไปไกลแค่ไหนในรอบ 2 ปี? จากเดิมที่เป็นเพียง Chatbot คุยถาม-ตอบ ได้ก้าวข้ามขีดจำกัดไปสู่ระบบที่สามารถ คิด วิเคราะห์ และลงมือทำ บทความนี้สรุปประเด็นสำคัญของการเปลี่ยนผ่า...

Responsive image

90% ขององค์กรไทยยังไม่พร้อมรับมือความเสี่ยงไซเบอร์ยุค AI รายงานจาก Accenture ชี้ Cybersecurity คือโจทย์เร่งด่วน

รายงานจาก Accenture ชี้ว่าองค์กรไทยและเอเชียแปซิฟิกยังขาดความพร้อมด้าน Cybersecurity ในยุค AI เมื่อ Autonomous AI, AI Agent และระบบอัตโนมัติเร่งขยายตัว ความปลอดภัยจึงกลายเป็นกลยุทธ...