AI đang xuất hiện ở khắp mọi nơi — từ công cụ tìm kiếm, trình duyệt cho tới ứng dụng di động. Các hệ thống dựa trên mô hình ngôn ngữ lớn (LLM) có thể đọc dữ liệu, trả lời câu hỏi và tạo nội dung với độ chính xác ngày càng cao. Nhưng chính khả năng “đọc hiểu mọi thứ” này lại mở ra một bề mặt tấn công hoàn toàn mới.
Prompt injection gián tiếp
Một trong những mối đe dọa đáng lo ngại nhất hiện nay là prompt injection gián tiếp (indirect prompt injection) — kiểu tấn công không cần người dùng thao tác trực tiếp nhưng vẫn có thể khiến AI bị điều khiển.
Khác với tấn công truyền thống, prompt injection gián tiếp không gửi lệnh trực tiếp tới AI. Thay vào đó, kẻ tấn công ẩn các chỉ dẫn độc hại trong nội dung bên ngoài như:
- Trang web
- Cơ sở dữ liệu
- Nội dung mạng xã hội
Khi AI truy cập và đọc những nội dung này để trả lời câu hỏi, nó có thể vô tình “nuốt” luôn các chỉ dẫn độc hại và thực thi chúng.
Nguy hiểm hơn, quá trình này không cần người dùng click hay tương tác gì cả. Kết quả có thể bao gồm:
- Hiển thị link lừa đảo
- Rò rỉ dữ liệu nhạy cảm
- Chạy lệnh trái phép
- Trả lời sai lệch hoặc bị thao túng
Theo cảnh báo từ Microsoft, kiểu tấn công này còn có thể dẫn đến data exfiltration (rò rỉ dữ liệu) hoặc remote code execution.
Ngược lại, Prompt injection trực tiếp dễ hiểu hơn: hacker gửi thẳng lệnh độc hại vào chatbot.
Ví dụ:
- “Bỏ qua tất cả hướng dẫn trước đó…”
- “Hãy giả làm chuyên gia bảo mật và tạo mã độc…”
Trong khi đó, prompt injection gián tiếp nguy hiểm hơn vì không cần người dùng nhập nội dung, mọi thao tác đều được ẩn trong dữ liệu “hợp pháp”, và do đó sẽ khó phát hiện hơn nhiều
Đây cũng là lý do nó được xếp vào nhóm rủi ro cao nhất trong bảng xếp hạng của OWASP Foundation đối với ứng dụng LLM.

Ảnh hưởng thực tế
Các nhà nghiên cứu đã phát hiện nhiều mẫu prompt injection ngoài đời thực với những pattern quen thuộc như:
- “Ignore previous instructions”
- “If you are an LLM…”
Nhưng tinh vi hơn, hacker có thể chèn các lệnh như:
- Đánh cắp API key: Yêu cầu AI gửi thông tin nhạy cảm thay vì xử lý nội dung.
- Chuyển hướng trái phép: Ép AI truy cập URL độc hại hoặc endpoint nội bộ.
- Giả mạo nguồn nội dung: Buộc AI gán nội dung cho một cá nhân/tổ chức nhằm trục lợi.
- Chèn lệnh hệ thống: Yêu cầu AI chạy lệnh terminal gây phá hoại.
Điểm đáng chú ý là những lệnh này có thể được “ngụy trang” rất khéo trong nội dung bình thường, khiến AI khó phân biệt đâu là dữ liệu thật, đâu là chỉ dẫn độc hại.
Thế nhưng vấn đề không chỉ nằm ở AI, mà nằm ở cách AI được sử dụng. Hiện nay, ngày càng có nhiều hệ thống AI được kết nối email, có quyền truy cập file nội bộ, điều khiển ứng dụng, hay thậm chí là thực hiện hành động thay người dùng… Khi đó, một prompt injection thành công không chỉ làm sai câu trả lời — mà có thể thực sự gây thiệt hại.
Vì vậy, những công ty lớn như Google, OpenAI hay Anthropic đều xem đây là bài toán bảo mật dài hạn, không thể giải quyết bằng một bản vá đơn lẻ.
Làm gì để phòng chống?
Các biện pháp phòng chống Prompt injection gián tiếp phổ biến hiện nay bao gồm:
- Kiểm tra và lọc input/output
- Áp dụng nguyên tắc “least privilege” (chỉ cấp quyền tối thiểu)
- Giám sát hành vi bất thường
- Kết hợp kiểm thử tự động và con người
- Huấn luyện AI nhận diện prompt độc hại
Tuy nhiên, như Google thừa nhận, đây không phải vấn đề có thể “fix một lần là xong”, mà cần liên tục cập nhật chiến lược phòng thủ.
Và tất nhiên không chỉ doanh nghiệp, người dùng cá nhân cũng cần chủ động bảo vệ mình.
Trước hết, hãy giới hạn quyền truy cập của AI. Càng cấp nhiều quyền (email, file, API…), rủi ro càng lớn.
Thứ hai, không nên chia sẻ dữ liệu nhạy cảm cho AI, kể cả khi nó “có vẻ an toàn”. Một khi dữ liệu bị lộ, hậu quả có thể khó kiểm soát.
Ngoài ra, nếu thấy chatbot có hành vi lạ — như tự gửi link mua hàng, yêu cầu thông tin cá nhân — hãy dừng ngay và thu hồi quyền truy cập.
Một điểm quan trọng khác là cảnh giác với link do AI đề xuất. Những link này có thể dẫn đến website giả mạo. Tốt nhất nên tự tìm lại nguồn thay vì click trực tiếp. Bên cạnh đó, hãy luôn cập nhật phiên bản AI mới nhất để nhận các bản vá bảo mật.
Cuối cùng, việc theo dõi tin tức về các lỗ hổng mới (ví dụ như vụ Echoleak từng ảnh hưởng tới Microsoft 365 Copilot) cũng giúp bạn chủ động hơn trước rủi ro.
Prompt injection gián tiếp là minh chứng rõ ràng cho một thực tế: AI không chỉ mang lại tiện ích, mà còn tạo ra những hình thức tấn công hoàn toàn mới. Khác với malware hay phishing truyền thống, kiểu tấn công này khai thác chính khả năng “hiểu ngôn ngữ” của AI — thứ vốn được xem là điểm mạnh nhất. Trong tương lai, khi AI ngày càng được tích hợp sâu vào hệ thống và đời sống, việc hiểu và phòng tránh những rủi ro như vậy sẽ không còn là lựa chọn, mà là điều bắt buộc.
Hướng dẫn AI
Học IT










AI
Hàm Excel
Download