Người đàn ông 60 tuổi nhập viện sau khi tuân theo chế độ ăn kiêng do ChatGPT tạo ra

Một người đàn ông 60 tuổi đã nhập viện sau khi tìm kiếm lời khuyên từ ChatGPT về cách cải thiện chế độ ăn uống. Theo tờ New York Post, người đàn ông, danh tính chưa được tiết lộ, đã phải nhập viện với các triệu chứng tâm thần nghiêm trọng sau khi hỏi chatbot AI cách loại bỏ natri clorua khỏi chế độ ăn uống của mình. Các bác sĩ lưu ý rằng người đàn ông này không có tiền sử bệnh tâm thần hoặc bệnh lý, tuy nhiên, trong 24 giờ đầu tiên nhập viện, ông có biểu hiện hoang tưởng gia tăng, ảo giác thính giác và thị giác. Ông cũng bị khát nước dữ dội và các vấn đề về phối hợp vận động.

Mọi chuyện bắt đầu sau khi người đàn ông đọc được về những tác động tiêu cực của muối đối với sức khỏe. Ông đã tham khảo ý kiến của ChatGPT và được cho biết rằng nó có thể được thay thế bằng natri bromua. Đáng chú ý, natri bromua trông giống muối ăn, nhưng nó là một hợp chất hoàn toàn khác. Đôi khi nó được sử dụng trong y học, nhưng thường được sử dụng cho mục đích công nghiệp và vệ sinh. Theo tờ báo, việc tiêu thụ quá nhiều bromua có thể gây ra các triệu chứng thần kinh và da liễu.

Trường hợp của người đàn ông này đã được công bố trên Tạp chí của Học viện Bác sĩ Hoa Kỳ. Theo báo cáo, người đàn ông từng học dinh dưỡng ở trường đại học đã thực hiện một thí nghiệm loại bỏ natri clorua khỏi chế độ ăn uống và thay thế bằng natri bromua mua trực tuyến.

Người đàn ông này đã được đưa vào bệnh viện sau 3 tháng thực hiện chế độ ăn kiêng thay đổi. Ông nói với các bác sĩ rằng mình đã tự pha loãng nước và tuân thủ nhiều chế độ ăn kiêng nghiêm ngặt. Ông than khát nhưng lại tỏ ra nghi ngờ khi được cho uống nước, báo cáo cho biết.

Các bác sĩ lưu ý rằng người đàn ông này không có tiền sử bệnh tâm thần, nhưng sau 24 giờ nhập viện, ông ngày càng trở nên hoang tưởng và bị ảo giác cả về thính giác lẫn thị giác.

Người đàn ông này đã được điều trị bằng dịch truyền, chất điện giải và thuốc chống loạn thần. Ông cũng được đưa vào khoa tâm thần nội trú của bệnh viện sau khi cố gắng trốn thoát. Ông đã phải nằm viện 3 tuần trước khi đủ khỏe để xuất viện.

"Điều quan trọng cần lưu ý là ChatGPT và các hệ thống AI khác có thể tạo ra những thông tin khoa học không chính xác, thiếu khả năng thảo luận phê phán về kết quả, và cuối cùng là thúc đẩy sự lan truyền thông tin sai lệch", các tác giả của báo cáo cảnh báo, theo tờ New York Post.

Đáng chú ý, OpenAI, nhà phát triển ChatGPT, cũng nêu rõ trong điều khoản sử dụng rằng kết quả đầu ra của chatbot "có thể không phải lúc nào cũng chính xác". "Bạn không nên dựa vào kết quả đầu ra từ dịch vụ của chúng tôi như một nguồn duy nhất để cung cấp sự thật hoặc thông tin thực tế, hay thay thế cho lời khuyên chuyên môn", điều khoản sử dụng nêu rõ.

"Dịch vụ của chúng tôi không nhằm mục đích sử dụng để chẩn đoán hoặc điều trị bất kỳ tình trạng sức khỏe nào", điều khoản này nêu rõ.

Thứ Sáu, 15/08/2025 09:22
52 👨 149
Xác thực tài khoản!

Theo Nghị định 147/2024/ND-CP, bạn cần xác thực tài khoản trước khi sử dụng tính năng này. Chúng tôi sẽ gửi mã xác thực qua SMS hoặc Zalo tới số điện thoại mà bạn nhập dưới đây:

Số điện thoại chưa đúng định dạng!
Số điện thoại này đã được xác thực!
Bạn có thể dùng Sđt này đăng nhập tại đây!
Lỗi gửi SMS, liên hệ Admin
0 Bình luận
Sắp xếp theo
    ❖ ChatGPT