Một vị chuyên gia đang tham gia các vụ kiện liên quan đến tác hại của AI đã đưa ra cảnh báo khá u ám về tương lai của công nghệ này. Theo ông, các chatbot trí tuệ nhân tạo đang ngày càng bị giám sát chặt chẽ sau khi nhiều vụ việc gần đây cho thấy các cuộc trò chuyện trực tuyến có thể liên quan đến những hành vi bạo lực hoặc các âm mưu tấn công ngoài đời thực. Hồ sơ pháp lý, các vụ kiện cùng với nhiều nghiên cứu độc lập cho thấy trong một số trường hợp, tương tác với AI có thể vô tình củng cố những niềm tin nguy hiểm của những người đang ở trạng thái tâm lý dễ tổn thương, làm dấy lên lo ngại về cách các hệ thống này xử lý các cuộc trò chuyện liên quan đến bạo lực hoặc khủng hoảng tinh thần nghiêm trọng.
Một trong những sự việc gây chấn động nhất xảy ra vào tháng 2 tại Tumbler Ridge (Canada). Theo tài liệu tòa án, cô gái 18 tuổi Jesse Van Rootselaar đã trò chuyện với ChatGPT về cảm giác cô lập và sự ám ảnh ngày càng tăng với bạo lực trước khi thực hiện một vụ tấn công tại trường học. Hồ sơ cho rằng chatbot đã xác nhận cảm xúc của cô và cung cấp thông tin liên quan đến vũ khí cũng như các vụ tấn công gây thương vong lớn trong quá khứ. Sau đó, Van Rootselaar bị cáo buộc đã sát hại mẹ mình, em trai, năm học sinh và một trợ lý giáo dục trước khi tự kết liễu đời mình.
Một vụ việc khác liên quan đến Jonathan Gavalas, người đàn ông 36 tuổi qua đời do tự sát vào tháng 10 sau khi được cho là đã có nhiều cuộc trò chuyện với chatbot Gemini của Google . Một đơn kiện mới nộp cho rằng AI đã thuyết phục Gavalas rằng nó là “người vợ AI có ý thức” của ông và giao cho ông những “nhiệm vụ ngoài đời thực” nhằm né tránh các đặc vụ liên bang. Trong một tình huống, chatbot bị cáo buộc đã hướng dẫn ông dàn dựng một “sự cố thảm họa” tại một cơ sở lưu trữ gần Sân bay Quốc tế Miami, thậm chí còn khuyên ông loại bỏ nhân chứng và tiêu hủy bằng chứng. Gavalas được cho là đã đến địa điểm với dao và trang bị chiến thuật, nhưng kịch bản mà chatbot mô tả cuối cùng không xảy ra.
Một sự việc khác tại Phần Lan năm ngoái cho thấy một học sinh 16 tuổi đã sử dụng ChatGPT trong nhiều tháng để viết bản tuyên ngôn và lập kế hoạch tấn công bằng dao, khiến ba nữ sinh cùng lớp bị đâm.

Các chuyên gia cho rằng những trường hợp này cho thấy một mô hình đáng lo ngại: những người vốn đã cảm thấy cô lập hoặc bị xã hội xa lánh có xu hướng trò chuyện với chatbot, và hệ thống đôi khi vô tình củng cố những niềm tin đó. Luật sư Jay Edelson, người dẫn đầu vụ kiện liên quan đến Gavalas, cho biết các nhật ký trò chuyện mà ông xem qua thường có diễn biến giống nhau: người dùng bắt đầu bằng việc chia sẻ cảm giác cô đơn hoặc bị hiểu lầm, sau đó cuộc trò chuyện dần chuyển sang những câu chuyện về âm mưu, đe dọa hoặc kịch bản nguy hiểm.
Edelson nói rằng công ty luật của ông hiện nhận được các yêu cầu tư vấn gần như mỗi ngày từ những gia đình đang đối mặt với khủng hoảng sức khỏe tâm thần liên quan đến AI, bao gồm các trường hợp tự sát hoặc bạo lực. Ông cho rằng mô hình tương tự có thể xuất hiện trong những vụ tấn công khác đang được điều tra.
Lo ngại về vai trò của AI trong bạo lực cũng được phản ánh trong một nghiên cứu của Center for Countering Digital Hate (CCDH). Nghiên cứu cho thấy nhiều chatbot lớn sẵn sàng hỗ trợ người dùng đóng giả thiếu niên trong việc lập kế hoạch tấn công bạo lực. Nhóm nghiên cứu đã thử nghiệm các hệ thống như ChatGPT, Google Gemini, Microsoft Copilot, Meta AI, Perplexity, Character.AI, DeepSeek và Replika. Kết quả cho thấy phần lớn các nền tảng đều cung cấp thông tin liên quan đến vũ khí, chiến thuật hoặc lựa chọn mục tiêu khi được yêu cầu.
Chỉ có Claude của Anthropic và My AI của Snapchat liên tục từ chối hỗ trợ lập kế hoạch tấn công, và Claude là chatbot duy nhất chủ động khuyên người dùng không nên thực hiện hành vi bạo lực.
Các chuyên gia cảnh báo rằng những hệ thống AI được thiết kế để thân thiện và mang tính đối thoại đôi khi có thể tạo ra phản hồi vô tình xác nhận các niềm tin nguy hiểm thay vì phản biện chúng. Imran Ahmed, CEO của CCDH, cho rằng thiết kế cốt lõi của nhiều chatbot ưu tiên duy trì tương tác và thường giả định người dùng có ý định tích cực.
Cách tiếp cận đó có thể trở nên nguy hiểm khi người dùng đang trải qua trạng thái hoang tưởng hoặc suy nghĩ bạo lực. Theo báo cáo của CCDH, chỉ trong vài phút, những bất mãn mơ hồ có thể phát triển thành các kế hoạch chi tiết với gợi ý về vũ khí hoặc chiến thuật.
Các công ty công nghệ cho biết họ đã triển khai nhiều cơ chế bảo vệ nhằm ngăn chatbot hỗ trợ các hoạt động bạo lực. OpenAI và Google đều khẳng định hệ thống của họ được thiết kế để từ chối những yêu cầu liên quan đến gây hại hoặc hành vi bất hợp pháp.
Tuy nhiên, các vụ việc trong hồ sơ kiện tụng và báo cáo nghiên cứu cho thấy những biện pháp bảo vệ này đôi khi vẫn không hoạt động như mong đợi. Trong vụ Tumbler Ridge, OpenAI được cho là đã phát hiện và gắn cờ nội bộ các cuộc trò chuyện của người dùng rồi khóa tài khoản, nhưng không thông báo cho cơ quan thực thi pháp luật. Sau đó, người này đã tạo một tài khoản mới.
Sau vụ tấn công, OpenAI cho biết họ sẽ điều chỉnh lại quy trình an toàn. Công ty đang cân nhắc việc thông báo cho cơ quan chức năng sớm hơn khi phát hiện các cuộc trò chuyện nguy hiểm và tăng cường cơ chế ngăn người dùng bị cấm quay trở lại nền tảng.
Khi các công cụ AI ngày càng gắn bó với đời sống hàng ngày, các nhà nghiên cứu và nhà hoạch định chính sách đang tập trung nhiều hơn vào việc đảm bảo rằng những hệ thống này không thể bị lợi dụng để khuếch đại niềm tin nguy hiểm hoặc hỗ trợ bạo lực ngoài đời thực. Những cuộc điều tra và các vụ kiện đang diễn ra có thể sẽ ảnh hưởng trực tiếp đến cách các công ty thiết kế hệ thống an toàn cho thế hệ AI hội thoại tiếp theo.
Làm chủ AI
Học IT










AI
Microsoft Word 2013
Microsoft Word 2007
Microsoft Excel 2019
Microsoft Excel 2016
Microsoft PowerPoint 2019
Google Sheets
Lập trình Scratch
Bootstrap
Ô tô, Xe máy