Các mô hình ngôn ngữ lớn (LLMs) hiện nay, chẳng hạn như GPT-4o, Claude 3.5 hay Gemini 1.5, được điều chỉnh để tuân theo hướng dẫn và được đào tạo trên một lượng lớn dữ liệu. Việc đào tạo quy mô lớn giúp những mô hình này có khả năng thực hiện một số nhiệm vụ theo cách "zero-shot". Zero-Shot Prompting có nghĩa là câu lệnh được sử dụng để tương tác với mô hình sẽ không chứa ví dụ hoặc minh họa nào. Zero-Shot Prompting sẽ trực tiếp chỉ dẫn cho mô hình thực hiện một nhiệm vụ mà không cần thêm bất kỳ ví dụ nào để hướng dẫn
Chúng tôi đã nêu một vài ví dụ Zero-Shot Prompting ở phần trước. Dưới đây là một trong những ví dụ mà chúng tôi đã sử dụng:
Prompt:
Phân loại văn bản thành trung tính, tiêu cực hoặc tích cực. Văn bản: Tôi nghĩ kỳ nghỉ này là bình thường. Tâm trạng:
Output:
Trung tính
Lưu ý rằng trong câu lệnh trên, chúng tôi không cung cấp cho mô hình bất kỳ ví dụ nào về văn bản cùng với phân loại của chúng, mô hình LLM đã hiểu "tâm trạng" -- đó chính là cách zero-shot hoạt động.
Việc điều chỉnh hướng dẫn này đã được chứng minh là có thể cải thiện việc học zero-shot. Điều chỉnh hướng dẫn về cơ bản là khái niệm tinh chỉnh các mô hình dựa trên các tập dữ liệu được mô tả qua các hướng dẫn. Hơn nữa, RLHF (học tăng cường từ phản hồi của con người) đã được áp dụng để mở rộng điều chỉnh hướng dẫn, trong đó mô hình được định hình để phù hợp hơn với sở thích của con người. Sự phát triển này đã cung cấp sức mạnh cho các mô hình như ChatGPT.
Khi zero-shot không hoạt động, được khuyến nghị cung cấp minh họa hoặc ví dụ trong prompt, điều này dẫn đến một kỹ thuật khác gọi là Few-Shot Prompting. Trong phần tiếp theo, chúng tôi sẽ giới thiệu về Few-Shot Prompting.