5 lý do khiến các công ty cấm ChatGPT

Bất chấp khả năng ấn tượng của ChatGPT, một số công ty lớn đã cấm nhân viên của họ sử dụng chatbot AI này.

Vào tháng 5 năm 2023, Samsung đã cấm sử dụng ChatGPT và các công cụ Generative AI khác. Sau đó, vào tháng 6 năm 2023, Ngân hàng Commonwealth của Úc, cùng với các công ty như Amazon, Apple và JPMorgan Chase & Co cũng thực hiện hạn chế này. Một số bệnh viện, công ty luật và cơ quan chính phủ cũng đã cấm nhân viên sử dụng ChatGPT.

Vậy tại sao ngày càng có nhiều công ty cấm ChatGPT? Dưới đây là 5 lý do chính.

1. Rò rỉ dữ liệu

ChatGPT yêu cầu một lượng lớn dữ liệu để đào tạo và hoạt động hiệu quả. Chatbot đã được đào tạo bằng cách sử dụng lượng dữ liệu khổng lồ có được từ Internet và nó sẽ tiếp tục được đào tạo.

Theo trang trợ giúp của OpenAI, mọi phần dữ liệu, bao gồm chi tiết bí mật của khách hàng, bí mật thương mại và thông tin kinh doanh nhạy cảm mà bạn cung cấp cho chatbot đều có thể được xem xét và sử dụng để cải thiện hệ thống.

Thiết lập xác thực đa yếu tố trên ChatGPT
Thiết lập xác thực đa yếu tố trên ChatGPT

Nhiều công ty phải tuân theo các quy định bảo vệ dữ liệu nghiêm ngặt. Do đó, họ thận trọng trong việc chia sẻ dữ liệu cá nhân với những thực thể bên ngoài, vì điều này làm tăng nguy cơ rò rỉ dữ liệu.

Bên cạnh đó, OpenAI không cung cấp bất kỳ sự đảm bảo bảo mật và bảo vệ dữ liệu hoàn hảo nào. Vào tháng 3 năm 2023, OpenAI đã xác nhận một lỗi cho phép một số người dùng xem tiêu đề trò chuyện trong lịch sử của những người dùng đang hoạt động khác. Mặc dù lỗi này đã được sửa và OpenAI đã phát động chương trình săn lỗi nhận thưởng, nhưng công ty không đảm bảo tính an toàn và quyền riêng tư của dữ liệu người dùng.

Nhiều tổ chức đang chọn hạn chế nhân viên sử dụng ChatGPT để tránh rò rỉ dữ liệu, điều này có thể gây tổn hại đến danh tiếng, dẫn đến tổn thất tài chính và khiến khách hàng cũng như nhân viên của họ gặp rủi ro.

2. Rủi ro an ninh mạng

Người đeo khẩu trang ngồi trên ghế khi sử dụng máy tính

Mặc dù không rõ liệu ChatGPT có thực sự dễ gặp rủi ro an ninh mạng hay không, nhưng có khả năng việc triển khai nó trong một tổ chức có thể tạo ra các lỗ hổng tiềm ẩn mà những kẻ tấn công mạng có thể khai thác.

Nếu một công ty tích hợp ChatGPT và có điểm yếu trong hệ thống bảo mật của chatbot, những kẻ tấn công có thể khai thác lỗ hổng và làm lây nhiễm phần mềm độc hại. Ngoài ra, khả năng tạo phản hồi giống con người của ChatGPT là "con gà đẻ trứng vàng" cho những kẻ tấn công phishing, có thể chiếm đoạt tài khoản hoặc mạo danh các thực thể hợp pháp để lừa nhân viên công ty chia sẻ thông tin nhạy cảm.

3. Tạo chatbot được cá nhân hóa

Robot đứng giữa phòng

Mặc dù có các tính năng sáng tạo, nhưng ChatGPT có thể tạo ra thông tin sai lệch và gây hiểu nhầm. Do đó, nhiều công ty đã tạo ra các chatbot AI cho mục đích công việc. Chẳng hạn, Ngân hàng Commonwealth của Úc đã yêu cầu nhân viên của mình sử dụng Gen.ai, một chatbot Trí tuệ nhân tạo (AI) sử dụng thông tin của CommBank để đưa ra câu trả lời.

Các công ty như Samsung và Amazon đã phát triển các mô hình ngôn ngữ tự nhiên tiên tiến, vì vậy những doanh nghiệp có thể dễ dàng tạo và triển khai các chatbot được cá nhân hóa dựa trên những transcript hiện có. Với các chatbot nội bộ này, bạn có thể ngăn chặn những hậu quả pháp lý và uy tín liên quan đến việc xử lý sai dữ liệu.

4. Thiếu quy định

Trong những ngành mà các công ty phải tuân theo các giao thức và lệnh trừng phạt, việc ChatGPT thiếu hướng dẫn theo quy định là một dấu hiệu đáng báo động. Nếu không có những điều kiện pháp lý chính xác chi phối việc sử dụng ChatGPT, các công ty có thể phải đối mặt với những hậu quả pháp lý nghiêm trọng khi sử dụng chatbot AI cho hoạt động của mình.

Ngoài ra, việc thiếu quy định có thể làm giảm trách nhiệm giải trình và tính minh bạch của công ty. Hầu hết các công ty có thể bối rối trong việc giải thích những quy trình ra quyết định của mô hình ngôn ngữ AI và các biện pháp bảo mật cho khách hàng của họ.

Các công ty đang hạn chế ChatGPT vì lo ngại khả năng vi phạm luật về quyền riêng tư và những quy định cụ thể của ngành.

5. Sử dụng vô trách nhiệm của nhân viên

Ba nhân viên trò chuyện với ChatGPT mở trên máy tính để bàn

Ở nhiều công ty, một số nhân viên chỉ dựa vào phản hồi ChatGPT để tạo nội dung và thực hiện nhiệm vụ của họ. Điều này tạo ra sự lười biếng trong môi trường làm việc, đồng thời kìm hãm sự sáng tạo và đổi mới.

Việc phụ thuộc vào AI có thể cản trở khả năng tư duy phản biện của bạn. Nó cũng có thể gây tổn hại đến uy tín của công ty vì ChatGPT thường cung cấp dữ liệu không chính xác và không đáng tin cậy.

Mặc dù ChatGPT là một công cụ mạnh mẽ nhưng việc sử dụng nó để giải quyết các truy vấn phức tạp đòi hỏi kiến thức chuyên môn về domain cụ thể có thể làm ảnh hưởng đến hoạt động và hiệu quả của công ty. Một số nhân viên có thể không nhớ kiểm tra tính thực tế và xác minh các câu trả lời do chatbot AI cung cấp, coi những câu trả lời do ChatGPT là một giải pháp phù hợp với tất cả.

Để giảm thiểu những vấn đề như thế này, các công ty đang cấm chatbot để nhân viên có thể tập trung vào nhiệm vụ của họ và cung cấp những giải pháp không có lỗi cho người dùng.

Thứ Tư, 28/06/2023 09:06
51 👨 2.314
0 Bình luận
Sắp xếp theo
    ❖ Trí tuệ nhân tạo (AI)