# Tổng Kết – Kỹ thuật tạo lệnh & Thực Hành Chúng ta đã đi một chặng đường dài – từ người dùng ChatGPT thông thường, đến **hiểu rõ cách AI tư duy** và **tự điều chỉnh đầu ra theo mục tiêu**. Điều này không chỉ là kỹ thuật, mà còn là một **tư duy sáng tạo và hệ thống**. ##### **1. Tokenization – AI "Đọc" Văn Bản Như Thế Nào?** - **Token = đơn vị nhỏ nhất** mà AI xử lý được (thường là từ, cụm từ, thậm chí là một phần từ). - Ví dụ: `"strawberry"` có thể bị chia thành `"straw"` + `"berry"` hoặc thậm chí `"str"` + `"aw"` + `"berry"` tùy mô hình. - Điều này ảnh hưởng: - Độ dài tối đa của prompt. - Cách AI hiểu và phản hồi câu hỏi. Bài học: - Luôn **đoán trước** token hóa có thể xảy ra → viết prompt rõ ràng, ngắn gọn. - Dùng [tiktoken viewer](https://platform.openai.com/tokenizer) để kiểm tra nếu cần. ##### **2. Tối Ưu Prompt – Càng Ngắn Gọn, Càng Hiệu Quả** - Prompt càng dài → AI càng bị "chia trí". - Hãy **"nói chuyện với AI như nói chuyện với người thông minh nhưng mất tập trung".** - Dùng kỹ thuật như: - Bullet points - Hạn chế từ không cần thiết - Gợi ý phong cách mong muốn ##### **3. System Message – Định Hình "Tính Cách" Của AI** - Đây là **nền tảng cho hành vi của AI**: lịch sự, nghiêm túc, hài hước, sáng tạo... - Ví dụ: - `"You are a legal advisor for small businesses in Vietnam."` - `"You're a witty poet who only responds in rhymes."` **Mở rộng:** - LM Studio cho phép thiết lập system message cố định ngay trong phần cấu hình. ##### **4. Các Tham Số Mô Hình – Đặt Đúng, Hiệu Quả Tăng Gấp Đôi**
Tham số | Ý nghĩa chính |
---|---|
`temperature` | Độ ngẫu nhiên (0.1 = chính xác, 1.2 = sáng tạo) |
`top_k` | Chọn trong K từ khả thi nhất |
`top_p` | Chọn từ theo xác suất cộng dồn P |
`repetition penalty` | Phạt nếu AI lặp lại từ/ngữ đã dùng |
`presence/frequency penalty` | Phạt nếu AI đề cập lại từ đã có |