An ninh mạng trước thách thức mới từ các trình duyệt AI
An ninh mạng đang đối mặt thách thức mới khi các trình duyệt AI như ChatGPT Atlas, Perplexity Comet bộc lộ lỗ hổng khó vá trước tấn công chèn mã độc.

Các trình duyệt AI như ChatGPT Atlas và Perplexity Comet vẫn tồn tại lỗ hổng bảo mật và có thể không bao giờ được khắc phục triệt để. Đồ họa: Quang Minh
OpenAI vừa phát đi cảnh báo đáng chú ý về một điểm yếu bảo mật mang tính “cố hữu” trong các trình duyệt web được hỗ trợ bởi trí tuệ nhân tạo, cho rằng lỗ hổng này có thể sẽ không bao giờ được khắc phục hoàn toàn.
Theo nhà phát triển ChatGPT, các cuộc tấn công tiêm mã độc, hay còn gọi là prompt injection, đang trở thành mối đe dọa dai dẳng đối với các hệ thống AI hiện đại.
Những trình duyệt AI như ChatGPT Atlas hay Perplexity Comet đang dần thay đổi cách người dùng tìm kiếm và tương tác với thông tin trên internet.
Thay vì chỉ hiển thị danh sách liên kết, các công cụ này có thể đọc, tổng hợp và thực hiện tác vụ thay người dùng.
Tuy nhiên, chính khả năng “hiểu ngữ cảnh” đó lại khiến chúng trở thành mục tiêu hấp dẫn của tội phạm mạng.
Tấn công chèn mã độc là hình thức trong đó kẻ xấu ngụy trang các chỉ dẫn độc hại thành nội dung có vẻ hợp lệ, nhằm đánh lừa mô hình ngôn ngữ lớn như GPT, Gemini hay Llama.
Khi mắc bẫy, AI có thể vô tình làm rò rỉ dữ liệu nhạy cảm, bỏ qua yêu cầu của người dùng hoặc phát tán thông tin sai lệch.
Ví dụ, một email được thiết kế tinh vi có thể khiến tác nhân AI chuyển tiếp tài liệu thuế hoặc thông tin nội bộ cho kẻ tấn công.
OpenAI thừa nhận rằng dù đang liên tục vá lỗi và cải thiện hệ thống phòng thủ, prompt injection là loại tấn công rất khó loại bỏ triệt để.
Trong một bài đăng trên blog, công ty so sánh hình thức tấn công này với lừa đảo và kỹ thuật xã hội truyền thống trên web, là những mối nguy đã tồn tại hàng chục năm nhưng chưa bao giờ bị xóa sổ hoàn toàn.
Theo OpenAI, cách tiếp cận thực tế nhất là không ngừng nâng cấp các lớp bảo vệ, thay vì kỳ vọng một giải pháp “chữa dứt điểm”.
Một báo cáo từ hãng trình duyệt Brave cũng chỉ ra nguyên nhân cốt lõi của vấn đề nằm ở bản chất của các trình duyệt AI dựa trên tác nhân.
Các mô hình này gặp khó khăn trong việc phân biệt đâu là nội dung cần trích xuất để trả lời người dùng, đâu là chỉ dẫn mà chúng phải tuân theo. Khoảng xám này tạo điều kiện để các chỉ thị độc hại len lỏi và chiếm quyền điều khiển hành vi của AI.
Để đối phó, OpenAI cho biết họ đã xây dựng một công cụ tấn công tự động dựa trên chính mô hình ngôn ngữ lớn, nhằm chủ động phát hiện các kịch bản prompt injection nguy hiểm.
Công cụ này được huấn luyện để đóng vai kẻ tấn công, từ đó giúp các kỹ sư xác định và vá các điểm yếu trước khi bị khai thác ngoài thực tế.
Không chỉ OpenAI, Trung tâm An ninh mạng Quốc gia Anh (NCSC) cũng đưa ra nhận định tương tự, và cho rằng các cuộc tấn công chèn mã độc nhắm vào ứng dụng AI thế hệ mới có thể sẽ không bao giờ được giảm thiểu hoàn toàn.
Điều này đặt ra thách thức lớn về bảo vệ dữ liệu, đặc biệt khi AI ngày càng được tích hợp sâu vào các dịch vụ trực tuyến và hệ thống doanh nghiệp.
Hiện OpenAI chưa công bố chi tiết liệu công cụ tấn công tự động mới có đủ khả năng chống lại các cuộc tấn công chèn mã nhanh hay không.
Tuy nhiên, công ty cho biết đang hợp tác với nhiều đối tác bên thứ ba để gia cố bảo mật cho ChatGPT Atlas, ngay cả khi trình duyệt này chưa chính thức ra mắt.
Cảnh báo của OpenAI được xem là lời nhắc nhở rằng kỷ nguyên trình duyệt AI, dù nhiều tiềm năng, cũng đi kèm những rủi ro an ninh mạng không thể xem nhẹ.







