โมเดลภาษาขนาดใหญ่ (LLM) ในปัจจุบัน เช่น GPT-3.5 Turbo, GPT-4 และ Claude 3 ได้รับการปรับแต่งให้ปฏิบัติตามคำแนะนำและได้รับการฝึกกับข้อมูลจำนวนมาก การฝึกอบรมขนาดใหญ่ทำให้โมเดลเหล่านี้สามารถทำงานบางอย่างในลักษณะ "ศูนย์ช็อต" ได้ การแจ้งแบบ Zero-shot หมายความว่าพรอมต์ที่ใช้ในการโต้ตอบกับโมเดลจะไม่มีตัวอย่างหรือการสาธิต ข้อความเตือนแบบ Zero-shot จะสั่งให้โมเดลทำงานโดยตรงโดยไม่มีตัวอย่างเพิ่มเติมในการควบคุม
เราลองตัวอย่างแบบ Zero-Shot สองสามตัวอย่างในส่วนที่แล้ว นี่คือตัวอย่างหนึ่ง (เช่น การจัดหมวดหมู่ข้อความ) ที่เราใช้:
Prompt:
Classify the text into neutral, negative or positive.
Text: I think the vacation is okay.
Sentiment:
Output:
Neutral
โปรดทราบว่าในข้อความแจ้งข้างต้น เราไม่ได้จัดเตรียมตัวอย่างข้อความใดๆ ให้กับโมเดลควบคู่ไปกับการจัดหมวดหมู่ LLM เข้าใจ "ความรู้สึก" อยู่แล้ว -- นั่นคือความสามารถแบบ Zero-Shot ในที่ทำงาน
มีการแสดงการปรับแต่งคำสั่งเพื่อปรับปรุงการเรียนรู้แบบ Zero-Shot Wei และคณะ (2022) การปรับแต่งคำสั่งโดยพื้นฐานแล้วเป็นแนวคิดของการปรับแต่งโมเดลบนชุดข้อมูลที่อธิบายผ่านคำแนะนำ นอกจากนี้ RLHF
(การเรียนรู้แบบเสริมแรงจากการตอบรับของมนุษย์) ถูกนำมาใช้เพื่อปรับขนาดคำสั่ง โดยที่แบบจำลองได้รับการจัดตำแหน่งให้เหมาะกับความต้องการของมนุษย์มากขึ้น การพัฒนาล่าสุดนี้ขับเคลื่อนโมเดลอย่าง ChatGPT เราจะพูดถึงแนวทางและวิธีการทั้งหมดเหล่านี้ในหัวข้อต่อๆ ไป
เมื่อการใช้ช็อตเป็นศูนย์ไม่ทำงาน ขอแนะนำให้จัดเตรียมการสาธิตหรือตัวอย่างในข้อความแจ้ง ซึ่งนำไปสู่การแจ้งเพียงไม่กี่ช็อต ในส่วนถัดไป เราจะสาธิตการกระตุ้นเตือนสั้นๆ