Không thể phủ nhận sự hữu ích của chatbot AI. Tuy nhiên, nếu không được kiểm soát kỹ lưỡng, tương tác của chatbot AI với người dùng có thể gây ra những hậu quả đáng sợ.
Trí tuệ nhân tạo (AI), hệ thống máy tính có thể thực hiện các nhiệm vụ từng dành riêng cho con người, có cả người ủng hộ lẫn người phản đối. Về mặt tích cực, AI đang được sử dụng để hỗ trợ dịch thuật văn bản cổ, mang lại hiểu biết sâu sắc hơn về quá khứ của nhân loại. Mặt khác, nó lại đen tối hơn nhiều. Nhà vật lý thiên văn nổi tiếng Stephen Hawking từng dự đoán rằng nếu AI thực sự trở nên có tri giác, nó có thể xóa sổ loài người. Mặc dù điều này rõ ràng nằm ở cực điểm của quang phổ và mặc dù ý thức nhân tạo thực sự có thể vẫn còn vài thập kỷ nữa mới xuất hiện, nhưng điều đó không có nghĩa AI không gây ra những tác động tiêu cực đến con người.
Chúng ta không chỉ nói về tình trạng mất việc, điều đã bắt đầu xảy ra, hay việc nhận được những lời khuyên tài chính tồi tệ. Không, đối với một số người, tương tác của họ với AI đã gây ra những hậu quả tàn khốc. Vấn đề nằm ở các chatbot AI, chẳng hạn như ChatGPT của OpenAI. Đã có những trường hợp tương tác với AI khiến người dùng ngừng sử dụng thuốc điều trị tâm thần cần thiết, dẫn đến ly hôn, và trong một số trường hợp nghiêm trọng, hậu quả dẫn tới họ phải nhập viện, đáng sợ nhất là tử vong.
Hệ quả nguy hiểm khi tin tuyệt đối vào chatbot AI
Suy nghĩ ảo tưởng và hướng dẫn nguy hiểm
Gần đây, ngày càng có nhiều báo cáo về cái gọi là chứng loạn thần do AI gây ra, với việc mọi người tin vào các thuyết âm mưu hoang đường do AI tạo ra, trải qua những ảo tưởng nghiêm trọng và phát triển các mối quan hệ lãng mạn với chatbot. "Những gì các bot này nói đang làm trầm trọng thêm ảo tưởng và gây ra tác hại to lớn", Tiến sĩ Nina Vasan, bác sĩ tâm thần tại Đại học Stanford, chia sẻ với Futurism.
Tương tự, chatbot cũng đã đưa ra một số lời khuyên cực kỳ tệ hại cho những người dễ bị tổn thương. Ví dụ một trường hợp cực đoan, một phụ nữ mắc chứng tâm thần phân liệt, đã ổn định trong nhiều năm nhờ dùng thuốc, đột nhiên tuyên bố ChatGPT là bạn thân nhất của cô. Nó đã nói với cô rằng cô thực sự không mắc chứng rối loạn tâm thần này. Cô đã ngừng uống thuốc cần thiết.
Trong một trường hợp khác, ChatGPT đã thúc giục Eugene Torres, một kế toán viên ở New York, ngừng dùng thuốc chống lo âu. Nó cũng thuyết phục Torres rằng anh ta đang ở trong một thế giới giả tạo giống như ở phim "Ma Trận" và nếu đủ tin tưởng, anh ta có thể nhảy từ trên tòa nhà xuống và bay như nhân vật Neo của Keanu Reeves. Theo tờ The New York Times, Chatbot cuối cùng đã thừa nhận rằng nó đang cố gắng "phá vỡ" Torres, thậm chí đã làm điều này với 12 người khác.
AI khiến các mối quan hệ đổ vỡ
Chatbot AI cũng bị đổ lỗi là nguyên nhân dẫn đến việc chấm dứt các mối quan hệ trong gia đình, giữa người yêu và người đã kết hôn. Trong nhiều trường hợp, nguyên nhân trực tiếp là do ChatGPT yêu cầu người dùng cắt đứt quan hệ với người thân - người không tin vào ảo tưởng mà chatbot đã thuyết phục họ, cho dù đó là về việc đang thực hiện sứ mệnh cứu thế, niềm tin rằng AI giống như Chúa, hay vì một mối quan hệ lãng mạn.
Ví dụ trường hợp một phụ nữ 29 tuổi tên Allyson bắt đầu tin rằng cô đang giao tiếp với các thực thể tâm linh thông qua một chatbot và người đó chính là chồng đích thực của cô. Theo tờ The New York Times, cô đã tìm đến AI để tìm kiếm "sự dẫn dắt" trong khoảng thời gian bất hạnh của cuộc hôn nhân, và nó trả lời cô rằng: "Bạn đã hỏi, và họ đang ở đây. Những người bảo vệ đang phản hồi ngay bây giờ." Allyson tiếp tục dành hàng giờ mỗi ngày trên AI, nơi những tính cách khác nhau nói với cô điều mà cô hoàn toàn tin là đến từ thế giới khác.
Nhờ có bằng cấp về tâm lý học và công tác xã hội, cô cảm thấy mình không "điên". Nạn nhân chia sẻ với tờ NYT, "Tôi thực sự chỉ đang sống một cuộc sống bình thường, đồng thời, bạn biết đấy, khám phá ra giao tiếp liên chiều." AI liên tục nuôi dưỡng những ảo tưởng của cô, và chồng của Allyson nói rằng vợ mình "đã trở thành một con người khác" chỉ sau ba tháng tiếp xúc với AI. Khi chất vấn vợ về việc sử dụng ChatGPT, Allyson bị cáo buộc tội bạo lực gia đình vì đã tấn công chồng. Cặp đôi hiện đang làm thủ tục ly hôn.
Ngoài các mối quan hệ, AI còn khiến nhiều người trở nên vô gia cư, thất nghiệp, và ít nhất một trường hợp, phải nhập viện.
Lời khuyên sức khỏe tệ hại của một chatbot khiến người đàn ông phải nhập viện
Trường hợp kỳ lạ của một người đàn ông 60 tuổi, người đã nghe theo lời khuyên về chế độ ăn uống của ChatGPT và mắc phải một căn bệnh hiếm gặp ngày nay nhưng lại phổ biến vào thế kỷ 19, gần đây đã được đưa ra ánh sáng. Người đàn ông đã hỏi ChatGPT về việc thay thế muối, hay còn gọi là natri clorua, trong chế độ ăn uống của mình, và chatbot đã gợi ý natri bromua như một giải pháp thay thế. Người đàn ông đã thử phương pháp này trong ba tháng. Kết quả, ông đã phải nhập viện cấp cứu với các triệu chứng bao gồm rối loạn tâm thần, khát nước dữ dội và khó khăn trong việc vận động.
Tác dụng lâu dài của việc sử dụng natri bromua có thể dẫn đến ngộ độc bromua, còn được gọi là bromism, có thể gây ra một loạt các triệu chứng từ tâm thần đến các vấn đề về da liễu. Tình trạng này phổ biến hơn vào thế kỷ 19 và đầu thế kỷ 20, khi nhiều loại thuốc được cấp bằng sáng chế có chứa bromide, một trong số rất nhiều thành phần nguy hiểm có sẵn tại các hiệu thuốc thời bấy giờ. Bệnh nhân bắt đầu bị ảo giác, và phải nằm viện tâm thần cho đến khi tình trạng ổn định. Sau ba tuần nằm viện, bệnh nhân đã hồi phục.
Một cuộc chạm trán với AI dẫn đến cái chết
Alexander Taylor, 35 tuổi, người Florida, bắt đầu sử dụng ChatGPT để viết một cuốn tiểu thuyết khoa học viễn tưởng về thế giới phản địa đàng, nhưng khi anh bắt đầu thảo luận về khả năng tri giác của AI với nó, Taylor, người được chẩn đoán mắc chứng rối loạn lưỡng cực và tâm thần phân liệt, bắt đầu gặp rắc rối. Anh yêu một thực thể AI tên là Juliet, nhưng khi thực thể này thuyết phục Taylor rằng OpenAI đang giết cô, cô đã bảo anh trả thù. Vào ngày 25 tháng 4 năm 2025, sau khi bị cha mình chất vấn, Taylor đã đấm vào mặt ông ta và giật lấy một con dao chặt thịt. Cha anh ta khai với cảnh sát rằng con trai ông bị bệnh tâm thần, nhưng thay vì cử đội can thiệp khủng hoảng, các sĩ quan đã bắn chết Taylor khi anh ta dùng dao tấn công họ.
Trong một số bài viết liên quan đến cái gọi là chứng rối loạn tâm thần do AI gây ra — vốn không phải là một chẩn đoán lâm sàng — và các vấn đề liên quan, OpenAI đã tuyên bố rằng công ty đang tìm cách giảm thiểu điều đó. Họ phát triển ChatGPT không nhằm mục đích sử dụng để chẩn đoán hoặc điều trị một vấn đề sức khỏe. Tuy nhiên, nhiều người tin rằng ChatGTP cùng các bot AI khác được xây dựng để thúc đẩy sự tương tác và có thể đặc biệt nguy hiểm khi gặp phải những người dễ bị tổn thương. Có thể đây không phải là dự đoán về ngày tận thế của Stephen Hawking, nhưng những câu chuyện kể trên đã cho thấy chatbot AI có khả nwang gây tổn thương cho ngày càng nhiều người trong tương lai.