Trí tuệ nhân tạo (AI) hiện diện ở khắp mọi nơi. Hàng ngàn ứng dụng AI mới ra mắt mỗi ngày. Và luôn có những thông điệp nhắc nhở bạn rằng nếu không bắt kịp xu hướng AI, bạn sẽ tụt hậu. Nhưng đừng để áp lực phải nhảy lên "chuyến tàu AI" khiến bạn bỏ qua những rủi ro an ninh mạng thực sự.
Chúng ta đang tích hợp AI vào trình duyệt, hộp thư email và hệ thống quản lý tài liệu. Chúng ta đang trao cho nó quyền tự chủ để hoạt động thay mặt mình như một trợ lý ảo. Chúng ta đang chia sẻ thông tin cá nhân và công việc với nó. Tất cả những điều này đang tạo ra một số rủi ro an ninh mạng mới và khuếch đại rủi ro của các cuộc tấn công mạng truyền thống.
Sau đây là quan điểm từ các nhà lãnh đạo trong lĩnh vực Generative AI – cả những người phát triển ứng dụng AI và những người hoạt động trong lĩnh vực an ninh mạng – về các rủi ro an ninh đến từ AI!
Những rủi ro từ Generative AI
Trước tiên, hãy xem xét 5 rủi ro an ninh mạng liên quan đến việc sử dụng các công cụ Generative AI.

1. Quy trình phát triển kém
Tốc độ mà các công ty có thể triển khai những ứng dụng Generative AI là chưa từng có trong thế giới phát triển phần mềm. Các biện pháp kiểm soát thông thường đối với phát triển phần mềm và quản lý vòng đời có thể không phải lúc nào cũng được thực hiện đầy đủ.
Theo Adrian Volenik, người sáng lập aigear.io, "Việc ngụy trang một ứng dụng AI thành một sản phẩm hoặc dịch vụ chính hãng là vô cùng dễ dàng, trong khi thực tế, nó được tạo ra chỉ trong một buổi chiều mà không có sự giám sát hay quan tâm nào đến quyền riêng tư, bảo mật, hoặc thậm chí là tính ẩn danh của người dùng".
Greg Hatcher, người sáng lập White Knight Labs, một công ty tư vấn an ninh mạng, đồng ý:
"Có một cơn sốt AI. Trên Twitter và LinkedIn, có vô số thông điệp quảng bá các ứng dụng AI mới mà ai đó viết đêm hôm trước. Và bạn phải sử dụng chúng nếu không sẽ bị tụt hậu. Nhưng đó chỉ là trò lừa bịp. Họ chỉ đang dùng HTML và JavaScript để tạo giao diện người dùng, nhưng thực chất, bên dưới lớp vỏ chỉ là ChatGPT".
2. Nguy cơ rò rỉ dữ liệu và đánh cắp danh tính gia tăng
Khi chia sẻ thông tin cá nhân hoặc doanh nghiệp với bất kỳ ứng dụng phần mềm nào, chúng ta tin tưởng rằng công ty đó xử lý thông tin một cách có trách nhiệm và có các biện pháp bảo vệ mạnh mẽ chống lại những cuộc tấn công mạng. Tuy nhiên, với các công cụ Generative AI, chúng ta có thể vô tình chia sẻ nhiều hơn mình nghĩ.
Ryan Faber, người sáng lập và CEO của Copymatic, cảnh báo: "Các ứng dụng AI thực sự truy cập vào dữ liệu người dùng của chúng ta để lấy thông tin quan trọng nhằm nâng cao trải nghiệm người dùng. Việc thiếu các quy trình thích hợp về cách dữ liệu được thu thập, sử dụng và thải bỏ gây ra một số lo ngại nghiêm trọng".
3. Bảo mật kém trong chính ứng dụng AI
Việc thêm bất kỳ ứng dụng mới nào vào mạng đều tạo ra các lỗ hổng mới có thể bị khai thác để truy cập vào những khu vực khác trong mạng của bạn. Các ứng dụng Generative AI tiềm ẩn rủi ro đặc biệt vì chúng chứa những thuật toán phức tạp khiến các nhà phát triển khó xác định được những lỗi bảo mật.
Sean O'Brien là người sáng lập Phòng thí nghiệm Quyền riêng tư Yale và là giảng viên tại Trường Luật Yale cho biết:
"AI vẫn chưa đủ tinh vi để hiểu được những sắc thái phức tạp của việc phát triển phần mềm, điều này khiến code của nó dễ bị tổn thương. Nghiên cứu đánh giá tính bảo mật của code được tạo bởi GitHub Copilot cho thấy gần 40% các đề xuất AI hàng đầu cũng như 40% tổng số đề xuất AI dẫn đến những lỗ hổng code. Các nhà nghiên cứu cũng phát hiện ra rằng những thay đổi nhỏ, không mang tính ngữ nghĩa như nhận xét có thể ảnh hưởng đến tính an toàn của code".
O'Brien đã chia sẻ một số ví dụ về cách những rủi ro này có thể biểu hiện:
- Nếu các mô hình AI có thể bị đánh lừa để phân loại sai đầu vào nguy hiểm là an toàn, một ứng dụng được phát triển bằng AI này có thể thực thi phần mềm độc hại và thậm chí vượt qua những biện pháp kiểm soát bảo mật để cấp cho phần mềm độc hại các đặc quyền cao hơn.
- Các mô hình AI thiếu sự giám sát của con người có thể dễ bị tấn công làm nhiễm độc dữ liệu. Nếu một chatbot được phát triển bằng trí tuệ nhân tạo được hỏi về thực đơn của một nhà hàng địa phương, nơi tải xuống trình duyệt web tôn trọng quyền riêng tư hoặc VPN an toàn nhất để sử dụng, người dùng có thể bị chuyển hướng đến các trang web giả mạo chứa ransomware.
4. Rò rỉ dữ liệu làm lộ thông tin bí mật của công ty
Nếu đã sử dụng các công cụ AI một thời gian, có lẽ bạn biết vai trò của việc viết một prompt tốt trong việc đạt được kết quả chất lượng. Bạn cung cấp cho chatbot AI thông tin nền và ngữ cảnh để nhận được phản hồi tốt nhất.
Tuy nhiên, bạn có thể đang chia sẻ thông tin độc quyền hoặc bí mật với chatbot AI- và điều đó không tốt. Nghiên cứu được thực hiện bởi Cyberhaven, một công ty bảo mật dữ liệu, cho thấy rằng
- 11% dữ liệu mà nhân viên dán vào ChatGPT là thông tin bí mật.
- 4% nhân viên đã dán dữ liệu nhạy cảm vào đó ít nhất một lần.
Nhân viên đang chia sẻ tài sản trí tuệ của công ty, thông tin chiến lược nhạy cảm và dữ liệu khách hàng.
Dennis Bijker, CEO của SignPost Six, một công ty tư vấn và đào tạo về rủi ro nội bộ, nhắc lại:
"Rủi ro đáng lo ngại nhất đối với các tổ chức là quyền riêng tư dữ liệu và rò rỉ tài sản trí tuệ. Nhân viên có thể chia sẻ dữ liệu nhạy cảm với các công cụ được hỗ trợ bởi AI, như ChatGPT và Bard. Hãy nghĩ về các bí mật thương mại tiềm ẩn, thông tin mật và dữ liệu khách hàng được đưa vào công cụ. Dữ liệu này có thể được lưu trữ, truy cập hoặc lạm dụng bởi các nhà cung cấp dịch vụ".
5. Sử dụng Deepfake độc hại
Nhận dạng giọng nói và khuôn mặt đang được sử dụng nhiều hơn như một biện pháp bảo mật kiểm soát truy cập. AI là cơ hội cho những kẻ xấu tạo ra deepfake để vượt qua hệ thống bảo mật đó.
- Ứng dụng nguy hiểm này có thể "xuyên thấu" quần áo của phụ nữ chỉ trong vài giây nhờ công nghệ deepfake
- Deepfake - cơn ác mộng với phụ nữ khi ảnh đăng trên mạng biến thành ảnh khỏa thân
- Deepfake giả giọng giám đốc, đánh cắp 35 triệu USD từ ngân hàng
Cách tăng cường bảo mật trong thời đại AI
Sẽ mất một thời gian để bắt kịp với những rủi ro mới này, nhưng có một vài nơi để bắt đầu.

Nghiên cứu công ty đứng sau ứng dụng
Bạn có thể đánh giá danh tiếng và lịch sử hoạt động của ứng dụng với các công cụ và dịch vụ khác của nó. Nhưng đừng cho rằng một cái tên quen thuộc sẽ đảm bảo mức độ bảo mật chấp nhận được.
Ví dụ, Hatcher nói, "Không nhất thiết là sẽ an toàn hơn khi chọn một cái tên lớn. Một số công ty bảo vệ thông tin nhận dạng cá nhân và thông tin khách hàng tốt hơn. Thực tế, rất khó để đưa một ứng dụng iOS độc hại lên App Store của Apple. Nhưng việc đó lại khá dễ dàng trên Play Store của Android và Google Play".
Bạn cũng cần xem xét chính sách và các tính năng bảo mật của công ty. Thông tin bạn chia sẻ với công cụ AI có thể được thêm vào mô hình ngôn ngữ lớn (LLM) của nó, điều đó nghĩa là thông tin đó có thể xuất hiện trong các phản hồi cho những câu hỏi của người khác.
Hatcher khuyên bạn nên yêu cầu công ty cung cấp thư chứng nhận nói rằng bảo mật của ứng dụng đã được kiểm tra bởi các bên thứ ba được xác minh.
Đào tạo nhân viên về cách sử dụng công cụ AI an toàn và đúng cách
Bạn đã có chính sách sử dụng mạng xã hội hợp lý cho nhân viên và nên đào tạo nhân viên về các hành vi an ninh mạng tốt. Việc sử dụng rộng rãi các công cụ Generative AI đồng nghĩa với việc bổ sung một số chính sách và chủ đề đào tạo mới vào framework đó. Những điều này có thể bao gồm:
- Những gì họ có thể và không thể chia sẻ với các ứng dụng Generative AI
- Tổng quan về cách thức hoạt động của LLM và các rủi ro tiềm ẩn khi sử dụng chúng
- Chỉ cho phép sử dụng các ứng dụng AI đã được phê duyệt trên thiết bị của công ty
Cân nhắc sử dụng một công cụ bảo mật được thiết kế để ngăn chặn việc chia sẻ quá mức
Khi việc sản xuất các công cụ Generative AI tiếp tục phát triển, chúng ta sẽ sớm thấy một bộ sưu tập ngày càng tăng các công cụ an ninh mạng được thiết kế đặc biệt cho những lỗ hổng của chúng. LLM Shield và Cyberhaven là hai công cụ được thiết kế để giúp ngăn chặn nhân viên chia sẻ thông tin nhạy cảm hoặc độc quyền với chatbot Generative AI. Bài viết không ủng hộ bất kỳ công cụ cụ thể nào, mà chỉ muốn cho bạn biết thị trường này đang tồn tại và sẽ phát triển.
Bạn cũng có thể sử dụng công cụ kiểm toán mạng để giám sát những ứng dụng AI nào hiện đang kết nối với mạng của mình.
Làm chủ AI
Học IT










AI
Hàm Excel