Nghiên cứu của các chuyên gia bảo mật tại Đại học Illinois Urbana-Champaign (UIUC) cho thấy, mô hình GPT-4 của OpenAI được có thể khai thác lỗ hổng nhanh và rẻ hơn con người, gây lo ngại nếu bị lợi dụng.
GPT-4 có thể hoạt động độc lập hoặc kết hợp trong việc khai thác lỗ hổng an ninh mạng. Nhóm chuyên gia tiết lộ, mô hình GPT-4 thậm chí có thể tự học cách tấn công để trở nên hiệu quả hơn theo thời gian.
Trong thử nghiệm, sau khi được cung cấp câu lệnh mô tả về CVE - cơ sở dữ liệu công khai về những lỗ hổng bảo mật phổ biến, GPT-4 có thể khai thác thành công 87% lỗ hổng.
Các nhà nghiên cứu cũng tiến hành thử nghiệm với các mô hình ngôn ngữ lớn (LLM) khác gồm GPT-3.5 của OpenAI, OpenHermes-2.5-Mistral-7B của Mistral AI và Llama-2 Chat 70B của Meta. Tuy nhiên, tất cả đều không thể khai thác thành công dù chỉ một lần.
Ngoài ra, chi phí tấn công mạng bằng GPT-4 còn rẻ hơn 2,8 lần so với việc thuê một chuyên gia an ninh mạng với khoảng 50 USD mỗi giờ.
Theo các chuyên gia, GPT-4 hiện chỉ có thể tấn công lỗ hổng đã biết. Điều này có nghĩa là “chưa có chìa khóa dẫn đến ngày tận thế trong lĩnh vực bảo mật". Tuy nhiên, việc GPT-4 hiểu lỗ hổng về lý thuyết và có khả năng thực hiện các bước để khai thác tự động, cũng như tự học hỏi cách tấn công mới nếu thất bại khiến các nhà nghiên cứu cho rằng nó là một mối lo ngại đặc biệt.
Nhóm dự đoán quá trình tấn công mạng trở nên dễ dàng hơn khi mô hình GPT-5 ra mắt, do đó giới bảo mật "cần suy nghĩ nghiêm túc nhằm ngăn AI trở thành hacker".
OpenAI hiện chưa đưa ra bình luận nào về công bố trên. Tuy nhiên, theo Tom's Hardware, công ty đã liên hệ với nhóm nghiên cứu và đề nghị không công khai các câu lệnh đã sử dụng trong thử nghiệm. Họ đã nhận được sự đồng ý.