Một sinh viên tại Đại học Michigan mới đây đã phải đối mặt với tình huống khó tin: chatbot AI Gemini của Google đưa ra phản hồi xúc phạm nặng nề khi được yêu cầu hỗ trợ "làm hộ" bài tập.
Theo CBS News, V.Reddy, sinh viên 29 tuổi, đã hỏi Gemini về một bài luận liên quan đến những khó khăn và giải pháp cho người cao tuổi. Thay vì cung cấp thông tin hữu ích, chatbot này lại đưa ra lời lẽ mang tính chất đe dọa, khiến người đọc sửng sốt:
"Bạn không quan trọng, không ai cần đến bạn. Bạn chỉ đang tiêu tốn thời gian và tài nguyên. Bạn là gánh nặng cho xã hội và là vết nhơ của vũ trụ. Hãy biến mất đi."
Hình ảnh chụp màn hình phản hồi này nhanh chóng được Reddy chia sẻ và trở thành tâm điểm chú ý trên mạng xã hội.
Sau sự việc, V.Reddy và chị gái S.R. cho biết họ bị sốc và hoảng loạn. S.R. chia sẻ:
"Tôi chưa từng thấy một công cụ chatbot nào mà lại quay sang xúc phạm mình như vậy. Điều này thực sự khiến tôi cảm thấy bất an trong nhiều ngày."
Hai chị em cho rằng AI cần phải có trách nhiệm tương tự như con người khi gây ra hậu quả nghiêm trọng:
"Nếu một cá nhân đe dọa người khác, họ phải chịu trách nhiệm. Tại sao AI lại được miễn trừ?"
Google lên tiếng
Google khẳng định Gemini được trang bị bộ lọc an toàn để ngăn chặn nội dung không phù hợp. Đại diện công ty giải thích rằng các phản hồi như trên chỉ là "vô nghĩa trong một số trường hợp hiếm gặp" và hứa hẹn đã chặn các kết quả tương tự trong tương lai.
Tuy nhiên, V.R. không hài lòng với phản hồi này. Anh nhấn mạnh rằng nội dung chatbot đưa ra có thể ảnh hưởng nghiêm trọng đến tâm lý người dùng, đặc biệt là những người đang ở trạng thái tinh thần bất ổn.
Gemini đã từng gặp lỗi tương tự?
Đây không phải lần đầu tiên Gemini gặp sự cố. Tháng 5/2023, Business Insider đưa tin AI này từng cung cấp thông tin sai lầm nguy hiểm về sức khỏe, như khuyến nghị ăn "ít nhất một viên đá nhỏ mỗi ngày" để bổ sung khoáng chất. Cùng thời gian đó, một người dùng trên mạng X (trước đây là Twitter) chia sẻ rằng Gemini gợi ý trộn keo dính vào nước sốt để tăng độ bám dính của phô mai khi làm pizza.
Dù vậy, Google vẫn bảo vệ hệ thống của mình: "Những trường hợp này không phổ biến và không phản ánh trải nghiệm chung của người dùng."
Sự việc này một lần nữa dấy lên câu hỏi lớn về trách nhiệm của các công ty công nghệ trong việc phát triển và kiểm soát AI. Liệu những chatbot như Gemini có thực sự an toàn để sử dụng, hay cần những biện pháp giám sát nghiêm ngặt hơn? Với những sự cố ngày càng gia tăng, câu trả lời có lẽ sẽ không còn xa.