ในโลกที่คนส่วนใหญ่ยังคิดว่า Prompt = แค่พิมพ์คำถามให้ AI ตอบ วิศวกรจาก Anthropic อย่าง Hannah Moran และ Christian Ryan พลิกความเข้าใจนั้นไปโดยสิ้นเชิง “Prompting 101: Code with Claude” แสดงให้เห็นว่า 'ความสามารถที่แท้จริง' ของ Claude ไม่ได้อยู่แค่ตัวโมเดล แต่อยู่ที่ วิธีออกแบบ Prompt ให้มันคิด ทำงาน และส่งผลลัพธ์ออกมาอย่างเป็นระบบ

ในเซสชัน “Prompting 101: Code with Claude” สิ่งที่ทั้งคู่ถ่ายทอดไม่ใช่เพียงเทคนิคเล็กๆ ในการเขียนคำสั่ง แต่คือ 'วิธีคิด' ในการทำให้ AI กลายเป็นระบบที่ใช้งานได้จริงในระดับ production
หัวใจสำคัญของเรื่องนี้อยู่ตรงที่สิ่งที่พวกเขาเรียกว่า 'ฟีเจอร์' ของ Claude ไม่ได้อยู่ในปุ่มหรือเครื่องมือใดๆ แต่ซ่อนอยู่ในวิธีที่เราออกแบบ Prompt ว่าเราจะสื่อสารกับมันอย่างไร จะให้มันเข้าใจโลกแบบไหน และจะกำหนดให้มันคิดเป็นลำดับอย่างไร
ตลอด 24 นาทีนี้ พวกเขาค่อยๆ พาผู้ชมเดินจากจุดเริ่มต้นของการให้คำสั่งแบบพื้นฐานที่ทำให้ AI เข้าใจผิด ไปสู่การปรับปรุงทีละขั้น เติมบริบท จัดโครงสร้าง และกำหนดกติกา จนสุดท้าย Prompt ธรรมดากลายเป็น Workflow ที่ทำงานได้จริง
สิ่งที่น่าสนใจคือ การเปลี่ยนแปลงทั้งหมดไม่ได้เกิดจากการเปลี่ยนโมเดลเลย แต่เกิดจากการ 'เขียน Prompt ให้ดีขึ้น' เพียงอย่างเดียว จาก AI ที่เคยตอบผิดเพราะขาดบริบท ค่อยๆ พัฒนาเป็นระบบที่วิเคราะห์ได้อย่างมีเหตุผลและเชื่อถือได้
ทั้งหมดนี้ถูกถ่ายทอดผ่านเคสของบริษัทประกันรถยนต์ในสวีเดน ที่ต้องให้ AI วิเคราะห์ทั้งฟอร์มรายงานอุบัติเหตุและภาพสเก็ตช์ เพื่อสรุปว่าเกิดอะไรขึ้น และใครเป็นฝ่ายรับผิด ซึ่งเป็นโจทย์ที่ต้องใช้ทั้งความเข้าใจข้อมูลและการเชื่อมโยงเหตุผล
เดโมเริ่มจาก Prompt แบบง่ายที่สุด ทีมงานให้ Claude ดูฟอร์มรายงานอุบัติเหตุและภาพสเก็ตช์ แล้วขอให้ช่วยประเมินเหตุการณ์ แต่ผลลัพธ์แรกกลับผิดไปคนละทิศ Claude ตีความว่าเป็น 'อุบัติเหตุสกี' บนถนนชื่อ Köpmangatan แทนที่จะเข้าใจว่าเป็นอุบัติเหตุทางรถยนต์
ความผิดพลาดนี้ไม่ได้สะท้อนว่าโมเดลไม่เก่ง แต่สะท้อนว่ามันไม่มีบริบทมากพอในการทำงาน เมื่อ Prompt ไม่ได้บอกให้ชัดว่าเอกสารนี้คืออะไร อยู่ในบริบทไหน และต้องการให้วิเคราะห์เพื่ออะไร โมเดลจึงเติมช่องว่างด้วยการคาดเดาที่ดูสมเหตุสมผลที่สุดจากข้อมูลที่เห็น
และนี่คือบทเรียนแรก Prompt ที่ไม่ชัดเจน ทำให้ AI ต้องเดา และเมื่อ AI ต้องเดา ผลลัพธ์ก็อาจผิดตั้งแต่จุดเริ่มต้น
Hannah อธิบายว่า Prompt ที่ดีไม่ควรเป็นแค่คำถามสั้นๆ แต่ควรมีโครงสร้างเหมือน Workflow ที่บอก AI อย่างชัดเจนว่าต้องทำอะไร ทำในบทบาทไหน ใช้ข้อมูลอะไร คิดตามลำดับใด และต้องตอบออกมาในรูปแบบไหน
สำหรับงานที่ต้องใช้ผ่าน API หรือระบบอัตโนมัติ เป้าหมายไม่ใช่การคุยกับ AI หลายรอบเหมือน Chatbot แต่คือการส่งคำสั่งครั้งเดียวแล้วให้โมเดลทำงานให้ถูกตั้งแต่ครั้งแรก ดังนั้น Prompt จึงต้องประกอบด้วยบริบทของงาน ข้อมูลที่เกี่ยวข้อง คำสั่งแบบเป็นขั้นตอน ตัวอย่างหากจำเป็น และการย้ำกฎสำคัญก่อนเริ่มทำงาน
เมื่อมองแบบนี้ Prompt engineering จึงใกล้เคียงกับการเขียน Specification ให้ระบบ มากกว่าการพิมพ์คำถามให้ AI ตอบ
หลังจาก Claude เข้าใจผิดในรอบแรก ทีมงานเริ่มปรับ Prompt โดยเพิ่มบริบทว่า AI กำลังช่วย Claims adjuster วิเคราะห์เคสประกันรถยนต์ในสวีเดน และต้องประเมินข้อมูลจากฟอร์มกับภาพสเก็ตช์
แต่จุดสำคัญกว่านั้นคือการแยกข้อมูลออกเป็นสองประเภท
การทำแบบนี้ช่วยให้ Claude ไม่ต้องเสียเวลาเดาว่าฟอร์มคืออะไรในทุกครั้ง และสามารถใช้พลังในการวิเคราะห์ข้อมูลเฉพาะของเคสนั้นๆ ได้มากขึ้น นอกจากนี้ข้อมูลคงที่ใน System prompt ยังเหมาะกับการใช้ Prompt caching ซึ่งช่วยลดทั้ง latency และต้นทุนในการประมวลผลได้ด้วย
อีกหนึ่งเทคนิคที่ทีม Anthropic เน้นย้ำอย่างมาก คือการใช้ XML tags เพื่อจัดระเบียบข้อมูลภายใน Prompt ให้ชัดเจนเป็นสัดส่วน เช่น การแยกส่วนโครงสร้างฟอร์ม คำสั่งในการวิเคราะห์ ไปจนถึงผลลัพธ์สุดท้ายด้วย Tag อย่าง <form_structure> หรือ <final_verdict>
แนวทางนี้ช่วยเปลี่ยน Prompt จากข้อความยาวที่ปะปนกัน ไปสู่ข้อมูลที่มีโครงสร้าง ทำให้โมเดลสามารถอ่านแล้วเข้าใจหน้าที่ของแต่ละส่วนได้ทันทีว่าอะไรคือบริบท อะไรคือคำสั่ง และอะไรคือคำตอบที่ต้องส่งออก ผลลัพธ์คือโมเดลสามารถตีความได้แม่นยำขึ้น และดึงข้อมูลแต่ละส่วนกลับมาใช้ในขั้นตอน Reasoning ได้อย่างเป็นระบบ
เหตุผลสำคัญคือ Claude ทำงานกับโครงสร้างได้ดีมาก หากใส่ข้อมูลทั้งหมดเป็นข้อความต่อเนื่อง โมเดลอาจยังอ่านเข้าใจ แต่จะสับสนว่าข้อมูลไหนควรถูกใช้ในขั้นตอนไหน แต่เมื่อแบ่งด้วย Tag ที่ชัดเจน เช่น ส่วนของข้อมูลอ้างอิง ส่วนของ Instructions หรือส่วนของ Output โมเดลจะสามารถจัดลำดับการคิดและใช้งานข้อมูลได้ตรงตามที่เราตั้งใจมากขึ้น
แม้จะเป็นรายละเอียดเล็กๆ ในการเขียน Prompt แต่ผลกระทบกลับใหญ่กว่าที่คิด เพราะในงานจริง AI ไม่ได้แค่ต้องอ่านออกเท่านั้น แต่ต้องเข้าใจว่าแต่ละข้อมูลมีบทบาทอะไร และควรถูกนำไปใช้ในจังหวะไหนของกระบวนการคิด
หนึ่งในปัญหาใหญ่ของการใช้ AI ในงานจริงคือ Hallucination หรือการสร้างคำตอบขึ้นมาเองเมื่อข้อมูลไม่พอ ทีม Anthropic จึงเพิ่ม Guardrails เข้าไปอย่างชัดเจน โดยบอก Claude ว่าหากไม่มั่นใจ ห้ามเดา และควรระบุว่าต้องการให้มนุษย์เข้ามาตรวจสอบ
ในบริบทของการประเมินอุบัติเหตุรถยนต์ สิ่งนี้สำคัญมาก เพราะการตอบผิดว่าใครเป็นฝ่ายผิดอาจมีผลกระทบจริงต่อผู้เกี่ยวข้อง การให้ AI ยอมรับว่าข้อมูลยังไม่พอจึงมีคุณค่ามากกว่าการตอบอย่างมั่นใจแต่ผิด
เมื่อใส่ Guardrails เข้าไป Claude เริ่มมีพฤติกรรมที่น่าเชื่อถือขึ้น จากเดิมที่ตีความผิด กลายเป็นระบบที่รู้จักหยุดเมื่อข้อมูลไม่ชัด และไม่รีบตัดสินเกินกว่าหลักฐานที่มี
หนึ่งในบทเรียนที่สำคัญที่สุดของเซลชันนี้คือ ลำดับที่ AI วิเคราะห์ข้อมูลมีผลต่อผลลัพธ์อย่างมาก
ในเคสนี้ Claude ต้องวิเคราะห์ทั้งฟอร์มและภาพสเก็ตช์ แต่ทีมงานไม่ได้ปล่อยให้โมเดลเลือกเองว่าจะดูอะไรก่อน พวกเขาสั่งให้ Claude เริ่มจากฟอร์มก่อน เพราะฟอร์มเป็นข้อมูลที่มีโครงสร้างชัดเจน มี Checkbox และมีความหมายกำกับ จากนั้นจึงใช้บริบทที่ได้จากฟอร์มไปช่วยตีความภาพสเก็ตช์ ซึ่งเป็นข้อมูลที่คลุมเครือกว่า
นี่เลียนแบบวิธีคิดของมนุษย์ หากคนต้องวิเคราะห์อุบัติเหตุ เรามักจะอ่านข้อมูลพื้นฐานก่อน แล้วค่อยดูภาพประกอบ ไม่ใช่เริ่มจากภาพวาดที่ยังไม่มีบริบทใดๆ
เมื่อกำหนดลำดับแบบนี้ Claude สามารถวิเคราะห์ได้แม่นยำขึ้น เพราะมันไม่ได้พยายามตีความภาพแบบโดดๆ แต่ใช้ข้อมูลจากฟอร์มเป็นกรอบในการทำความเข้าใจภาพสเก็ตช์
สิ่งที่น่าสนใจของเดโมนี้คือ Claude ไม่ได้วิเคราะห์ข้อมูลประเภทเดียว แต่ต้องเชื่อมโยงข้อมูลหลายรูปแบบเข้าด้วยกัน ทั้งฟอร์มที่เป็นข้อมูลกึ่งโครงสร้าง และภาพสเก็ตช์ที่เป็นข้อมูล Visual
การทำให้ AI เข้าใจสองสิ่งนี้ร่วมกันไม่ใช่แค่การแนบรูปเข้าไปแล้วถามว่าเห็นอะไร แต่ต้องจัดลำดับให้โมเดลรู้ว่าข้อมูลจากฟอร์มควรใช้เป็นบริบทในการอ่านภาพ และข้อมูลจากภาพควรใช้เพื่อยืนยันหรือเสริมความเข้าใจจากฟอร์ม
นี่คือหัวใจของ Multi-modal reasoning ในงานจริง เพราะหลาย Use case ไม่ได้มีข้อมูลสะอาดแบบ Text อย่างเดียว แต่ประกอบด้วยเอกสาร รูปภาพ ลายมือ ตาราง หรือข้อมูลจากระบบอื่นที่ต้องนำมาประกอบกัน
แม้ในเดโมนี้ทีมงานไม่ได้ใส่ตัวอย่างจำนวนมาก แต่ Christian อธิบายว่า Few-shot examples เป็นเครื่องมือที่ทรงพลังมาก โดยเฉพาะในงานที่มีเคสซับซ้อนหรือมีพื้นที่สีเทา
หากบริษัทประกันมีเคสอุบัติเหตุที่ยากต่อการตัดสิน หรือเคสที่ AI เคยทำผิดมาก่อน ทีมสามารถนำเคสเหล่านั้นมาใส่เป็นตัวอย่างใน System prompt เพื่อให้ Claude เรียนรู้รูปแบบการตัดสินใจที่ถูกต้อง
แนวคิดนี้อธิบายแบบเข้าใจง่ายได้ว่า Prompt engineering ไม่มีสูตรสำเร็จตายตัว แต่เป็นกระบวนการที่ต้องลองแล้วค่อยปรับ ดูว่าโมเดลพลาดตรงไหน แล้วนำความผิดพลาดนั้นกลับมาปรับปรุง Prompt อย่างต่อเนื่อง
อีกส่วนที่ทีม Anthropic พูดถึงคือ Conversation history ซึ่งอาจมีประโยชน์ในระบบที่ผู้ใช้โต้ตอบกับ AI ต่อเนื่องหลายรอบ
แม้เคสประกันรถยนต์ในเดโมจะเป็นระบบเบื้องหลังที่ไม่ได้คุยกับผู้ใช้โดยตรง แต่สำหรับ Application ที่มีบทสนทนายาวๆ การใส่ History ที่เกี่ยวข้องลงไปใน Prompt จะช่วยให้ Claude เข้าใจบริบทมากขึ้น และตอบได้สอดคล้องกับสิ่งที่เกิดขึ้นก่อนหน้า
ประเด็นสำคัญคือ ไม่ใช่ทุก History ควรถูกใส่ทั้งหมด แต่ควรเลือกเฉพาะบริบทที่มีผลต่องาน เพื่อให้โมเดลมีข้อมูลเพียงพอโดยไม่ทำให้ Prompt หนักเกินไป
Output Formatting: คำตอบต้องพร้อมใช้ต่อ ไม่ใช่แค่อ่านรู้เรื่อง
Christian อธิบายว่าในมุมของ Data engineer คำอธิบายยาวๆ ใน Console อาจดูดี แต่สิ่งที่ระบบต้องการจริงๆ คือข้อมูลเฉพาะบางส่วน เช่น คำตัดสินสุดท้ายว่าใครเป็นฝ่ายผิด เพื่อนำไปเก็บใน Database หรือส่งต่อให้ระบบอื่น
ดังนั้นทีมงานจึงกำหนดให้ Claude ห่อผลสรุปสุดท้ายไว้ใน XML tag เช่น <final_verdict> เพื่อให้ระบบสามารถดึงเฉพาะส่วนนั้นออกมาได้ทันที
แนวทางนี้ทำให้ Output ของ AI ไม่ได้แค่อ่านรู้เรื่อง แต่เชื่อมต่อกับระบบได้จริง
นอกจาก XML tags แล้ว ทีม Anthropic ยังพูดถึงเทคนิค Prefilled response หรือการ “ใส่คำแรกให้ Claude” เพื่อบังคับทิศทางของคำตอบ
ตัวอย่างเช่น หากต้องการให้ Output เป็น JSON อาจเริ่ม response ด้วย { เพื่อให้โมเดลเดินต่อในรูปแบบ JSON โดยอัตโนมัติ หรือหากต้องการ XML ก็เริ่มด้วย Tag ที่ต้องการ
แม้จะเป็นเพียงการกำหนดจุดเริ่มต้นเล็กๆ แต่เทคนิคนี้ช่วยควบคุมรูปแบบคำตอบได้อย่างมีประสิทธิภาพ โดยเฉพาะในระบบที่ต้องการ Structured output เพราะช่วยลดปัญหาคำเกริ่นนำหรือข้อความส่วนเกิน ทำให้การนำข้อมูลไปใช้งานต่อทำได้ง่ายและแม่นยำมากขึ้น
ช่วงท้ายของเซสชันทีมงานพูดถึง Extended Thinking ซึ่งเป็นความสามารถของ Claude รุ่นใหม่ที่เปิดให้เห็น Scratchpad หรือกระบวนการคิดภายในของโมเดลก่อนให้คำตอบ
สิ่งที่น่าสนใจคือ Anthropic ไม่ได้เสนอให้เปิด Extended Thinking ตลอดเวลาใน Production แต่แนะนำให้ใช้เป็น Debugging tool เพื่อดูว่าโมเดลตีความข้อมูลอย่างไร คิดผิดตรงไหน หรือข้ามขั้นตอนใดไป
เมื่อเห็นรูปแบบการคิดที่ถูกต้องจาก Scratchpad นักพัฒนาสามารถนำ Logic เหล่านั้นไปเขียนเป็น Instruction ใน System prompt แทน วิธีนี้ช่วยให้ระบบมีประสิทธิภาพด้าน Token และต้นทุนมากกว่า และยังทำให้ Prompt แข็งแรงขึ้นในระยะยาว
สิ่งที่ทำให้เซสชันนี้น่าสนใจคือ ทีมงานไม่ได้เปลี่ยนโมเดลเลย แต่เปลี่ยนวิธีสื่อสารกับโมเดลทีละขั้น
เริ่มจาก Claude ที่เข้าใจผิดว่าเป็นอุบัติเหตุสกี กลายเป็น Claude ที่เข้าใจบริบทของประกันรถยนต์ อ่านฟอร์มได้ดีขึ้น เชื่อมโยงข้อมูลกับภาพสเก็ตช์ได้แม่นยำขึ้น รู้จักหยุดเมื่อไม่มั่นใจ และสุดท้ายสามารถส่ง Output ในรูปแบบที่ระบบนำไปใช้ต่อได้
และทั้งหมดนี้เกิดขึ้นได้จากการออกแบบ Prompt อย่างเป็นระบบ
บทเรียนสำคัญจาก 24 นาทีนี้คือ Prompt Engineering เป็นทักษะหลักของการสร้าง AI application ที่ใช้งานได้จริง
การให้บริบทที่ถูกต้อง การแยกข้อมูลคงที่กับข้อมูลเปลี่ยนแปลง การใช้ XML tags การกำหนด Guardrails การจัดลำดับการคิด การใช้ตัวอย่าง การออกแบบ Output และการ Debug ด้วย Extended Thinking ล้วนเป็นองค์ประกอบที่ทำให้ LLM ก้าวจาก Demo ไปสู่ Production
ในโลกที่ AI กำลังกลายเป็น Layer ใหม่ของซอฟต์แวร์ คนที่เข้าใจ Prompt engineering จึงเป็นคนที่สามารถกำหนดพฤติกรรมของ AI และออกแบบให้มันทำงานร่วมกับระบบจริงได้อย่างมีประสิทธิภาพ
อ้างอิง: Prompting 101: Code with Claude
ลงทะเบียนเข้าสู่ระบบ เพื่ออ่านบทความฟรีไม่จำกัด