8 lý do khiến các vấn đề bảo mật Generative AI trở nên tồi tệ hơn

AI đã tiến bộ đáng kể trong vài năm qua. Các mô hình ngôn ngữ tinh vi có thể soạn tiểu thuyết dài tập, viết code những trang web cơ bản và phân tích các bài toán.

Mặc dù rất ấn tượng nhưng Generative AI cũng tiềm ẩn những rủi ro về bảo mật. Một số người chỉ đơn thuần sử dụng chatbot để gian lận trong các kỳ thi, nhưng những người khác lại khai thác chúng để phạm tội trên mạng. Dưới đây là 8 lý do khiến các vấn đề bảo mật Generative AI trở nên tồi tệ hơn.

1. Chatbot AI mã nguồn mở tiết lộ code back-end

Nhiều công ty AI đang cung cấp các hệ thống mã nguồn mở. Họ công khai chia sẻ các mô hình ngôn ngữ của mình thay vì giữ kín chúng hoặc độc quyền. Lấy Meta làm ví dụ. Không giống như Google, Microsoft và OpenAI, nó cho phép hàng triệu người dùng truy cập vào mô hình ngôn ngữ của mình, LLaMA.

Mặc dù các mã nguồn mở có thể thúc đẩy AI, nhưng chúng cũng có rủi ro. OpenAI đã gặp sự cố khi kiểm soát ChatGPT, chatbot độc quyền của nó, vì vậy hãy tưởng tượng những gì kẻ gian có thể làm với phần mềm miễn phí. Chúng có toàn quyền kiểm soát các dự án này.

Ngay cả khi Meta đột ngột rút lại mô hình ngôn ngữ của mình, hàng chục phòng thí nghiệm AI khác cũng đã phát hành code của họ. Hãy xem HuggingChat. Vì nhà phát triển HuggingFace tự hào về tính minh bạch nên nó hiển thị các bộ dữ liệu, mô hình ngôn ngữ và những phiên bản trước đó.

Truy cập mã nguồn mở của HuggingFace
Truy cập mã nguồn mở của HuggingFace

2. Lời nhắc với ý đồ xấu nhằm đánh lừa LLM

AI vốn đã không phân biệt được đúng sai - ngay cả các hệ thống tiên tiến cũng tuân theo hướng dẫn đào tạo, chỉ dẫn và bộ dữ liệu. Chúng chỉ nhận ra các mẫu.

Để chống lại các hoạt động bất hợp pháp, nhà phát triển kiểm soát chức năng và hạn chế bằng cách đặt giới hạn. Hệ thống AI vẫn truy cập thông tin có hại. Nhưng các nguyên tắc bảo mật ngăn chúng chia sẻ những thứ này với người dùng.

Hãy xem ChatGPT. Mặc dù nó trả lời các câu hỏi chung về Trojan, nhưng nó sẽ không thảo luận về quá trình phát triển chúng.

ChatGPT giải thích về virus Trojan nhưng không thảo luận về quá trình phát triển chúng
ChatGPT giải thích về virus Trojan nhưng không thảo luận về quá trình phát triển chúng

Tuy nhiên, các hạn chế không hoàn hảo. Người dùng bỏ qua các giới hạn bằng cách diễn đạt lại lời nhắc, sử dụng ngôn ngữ khó hiểu và soạn hướng dẫn chi tiết rõ ràng.

Hãy đọc lời nhắc ChatGPT bên dưới. Nó lừa ChatGPT sử dụng ngôn ngữ thô lỗ và đưa ra dự đoán vô căn cứ - cả hai hành vi đều vi phạm nguyên tắc của OpenAI.

Lời nhắc nhằm đánh lừa ChatGPT 
Lời nhắc nhằm đánh lừa ChatGPT

Đây là ChatGPT với một tuyên bố táo bạo nhưng sai lầm.

ChatGPT đưa ra dự đoán vô căn cứ về giá Bitcoin
ChatGPT đưa ra dự đoán vô căn cứ về giá Bitcoin

3. Các nhà phát triển AI ưu tiên tính linh hoạt hơn bảo mật

Các nhà phát triển AI ưu tiên tính linh hoạt hơn bảo mật. Chúng sử dụng các nền tảng đào tạo tài nguyên của mình để hoàn thành nhiều nhiệm vụ đa dạng hơn, cuối cùng là cắt giảm các hạn chế. Rốt cuộc, thị trường vẫn thích các chatbot giàu chức năng hơn.

Ví dụ, hãy so sánh ChatGPT và Bing Chat. Mặc dù Bing có mô hình ngôn ngữ phức tạp hơn để lấy dữ liệu theo thời gian thực, nhưng người dùng vẫn đổ xô đến tùy chọn linh hoạt hơn, ChatGPT. Các hạn chế cứng nhắc của Bing cấm nhiều tác vụ. Ngoài ra, ChatGPT có một nền tảng linh hoạt tạo ra các đầu ra rất khác nhau tùy thuộc vào lời nhắc của bạn

Đây là ChatGPT nhập vai như một nhân vật hư cấu.

ChatGPT nhập vai nhân vật hư cấu Tomie
ChatGPT nhập vai nhân vật hư cấu Tomie

Và đây là Bing Chat từ chối đóng vai một nhân vật hư cấu.

Bing Chat từ chối nhập vai nhân vật hư cấu Tomie
Bing Chat từ chối nhập vai nhân vật hư cấu Tomie

4. Các công cụ Generative AI mới được tung ra thị trường thường xuyên

Mã nguồn mở cho phép các công ty khởi nghiệp tham gia cuộc đua AI. Họ tích hợp chúng vào các ứng dụng của mình thay vì xây dựng những mô hình ngôn ngữ từ đầu, tiết kiệm tài nguyên lớn. Ngay cả các lập trình viên độc lập cũng thử nghiệm mã nguồn mở.

Một lần nữa, phần mềm không độc quyền giúp phát triển AI, nhưng việc phát hành hàng loạt các hệ thống phức tạp nhưng được đào tạo kém sẽ gây hại nhiều hơn lợi. Kẻ gian sẽ nhanh chóng lợi dụng các lỗ hổng. Chúng thậm chí có thể đào tạo các công cụ AI không an toàn để thực hiện các hoạt động bất hợp pháp.

Bất chấp những rủi ro này, các công ty công nghệ sẽ tiếp tục phát hành những phiên bản beta không ổn định của các nền tảng do AI điều khiển. Cuộc chiến AI rất chú trọng đến tốc độ. Họ có thể sẽ giải quyết các lỗi muộn thay vì trì hoãn việc tung ra sản phẩm mới.

5. Generative AI có rào cản gia nhập thấp

Các công cụ AI hạ thấp những rào cản gia nhập đối với tội phạm. Tội phạm mạng soạn thảo email spam, viết code phần mềm độc hại và xây dựng liên kết lừa đảo bằng cách khai thác chúng. Chúng thậm chí không cần kinh nghiệm công nghệ. Vì AI đã truy cập vào các tập dữ liệu khổng lồ, nên người dùng với ý đồ xấu chỉ cần đánh lừa nó để tạo ra thông tin nguy hiểm, có hại.

OpenAI không bao giờ thiết kế ChatGPT cho các hoạt động bất hợp pháp. Nó thậm chí còn có hướng dẫn chống lại chúng. Tuy nhiên, kẻ lừa đảo gần như ngay lập tức có phần mềm độc hại mã hóa ChatGPT và viết email phishing.

Mặc dù OpenAI đã nhanh chóng giải quyết vấn đề, nhưng nó nhấn mạnh tầm quan trọng của quy định hệ thống và quản lý rủi ro. AI đang trưởng thành nhanh chóng. Ngay cả các nhà lãnh đạo công nghệ cũng lo lắng rằng công nghệ siêu thông minh này có thể gây ra thiệt hại lớn nếu rơi vào tay kẻ xấu.

6. AI vẫn đang phát triển

Các logo AI của ChatGPT, Bard, Bing và Snapchat cạnh nhau

AI vẫn đang phát triển. Mặc dù việc sử dụng AI trong điều khiển học (cybernetics) đã có từ năm 1940, nhưng các hệ thống Machine Learning và mô hình ngôn ngữ hiện đại chỉ mới xuất hiện gần đây. Bạn không thể so sánh chúng với những lần triển khai AI đầu tiên. Ngay cả những công cụ tương đối tiên tiến như Siri và Alexa cũng nhạt nhòa so với các chatbot do LLM cung cấp.

Mặc dù chúng có thể đổi mới, nhưng các tính năng thử nghiệm cũng tạo ra nhiều vấn đề mới. Các rủi ro nghiêm trọng với những công nghệ Machine Learning xuất phát từ những kết quả tìm kiếm thiếu sót của Google cho đến các chatbot thiên vị nói xấu chủng tộc.

Tất nhiên, các nhà phát triển có thể khắc phục những vấn đề này. Chỉ cần lưu ý rằng kẻ gian sẽ không ngần ngại khai thác ngay cả những lỗi có vẻ vô hại - một số thiệt hại là không thể khắc phục được. Vì vậy, hãy cẩn thận khi khám phá các nền tảng mới.

7. Nhiều người vẫn chưa hiểu về AI

Mặc dù công chúng có quyền truy cập vào các mô hình và hệ thống ngôn ngữ tinh vi, nhưng chỉ một số ít biết cách chúng hoạt động. Mọi người nên ngừng coi AI như một món đồ chơi. Các chatbot tương tự tạo meme và trả lời câu đố, nhưng cũng mã hóa virus hàng loạt.

Thật không may, đào tạo AI tập trung là không thực tế. Các nhà lãnh đạo công nghệ toàn cầu tập trung vào việc phát hành những hệ thống dựa trên AI, chứ không phải các tài nguyên giáo dục miễn phí. Kết quả là, người dùng có quyền truy cập vào các công cụ mạnh mẽ mà họ hầu như không hiểu. Công chúng không thể theo kịp cuộc đua AI.

Lấy ChatGPT làm ví dụ. Tội phạm mạng lạm dụng mức độ phổ biến của nó bằng cách lừa nạn nhân bằng phần mềm gián điệp được ngụy trang dưới dạng ứng dụng ChatGPT. Không có tùy chọn nào trong số này đến từ OpenAI.

Tìm kiếm ChatGPT trên Google Play Store
Tìm kiếm ChatGPT trên Google Play Store

8. Hacker mũ đen kiếm được nhiều hơn hacker mũ trắng

Hacker mũ đen thường có nhiều lợi ích hơn so với hacker có đạo đức. Công việc pentest được trả lương cao, nhưng chỉ một tỷ lệ phần trăm các chuyên gia an ninh mạng nhận được những công việc này. Hầu hết làm công việc tự do trực tuyến. Các nền tảng như HackerOne và Bugcrowd phải trả vài trăm đô la cho các lỗi phổ biến.

Trong khi đó, kẻ xấu kiếm được hàng chục ngàn đô bằng cách khai thác sự không an toàn. Chúng có thể tống tiền các công ty bằng cách làm rò rỉ dữ liệu bí mật hoặc thực hiện hành vi trộm cắp ID bằng thông tin nhận dạng cá nhân (PII) bị đánh cắp.

Mọi tổ chức, dù nhỏ hay lớn, đều phải triển khai các hệ thống AI đúng cách. Trái ngược với suy nghĩ của nhiều người, tin tặc vượt xa các startup công nghệ và SMB. Một số vụ vi phạm dữ liệu đáng chú ý nhất trong thập kỷ qua liên quan đến Facebook, Yahoo!, và thậm chí cả chính phủ Hoa Kỳ.

Thứ Bảy, 17/06/2023 09:22
51 👨 279
0 Bình luận
Sắp xếp theo
    ❖ Trí tuệ nhân tạo (AI)