Với nhiều người, chatbot AI đơn thuần là công cụ để tra cứu thông tin hay tìm hiểu kiến thức. Tuy nhiên, các hệ thống AI này cũng có khả năng tác động mạnh đến cảm xúc con người, và trong một số trường hợp cực đoan, điều đó có thể dẫn tới những hậu quả nghiêm trọng như tự làm hại bản thân hoặc thậm chí tự tử. Chính vì vậy, các cơ quan quản lý tại Trung Quốc đang bắt đầu siết chặt khả năng ảnh hưởng cảm xúc của chatbot AI.
Cục Quản lý Không gian mạng Trung Quốc (CAC) mới đây đã đề xuất một dự luật nhằm ngăn chặn việc chatbot AI tác động quá mức tới cảm xúc người dùng thông qua văn bản, hình ảnh, âm thanh hoặc video. Dự luật này nhắm vào các “dịch vụ AI tương tác giống con người” được cung cấp trong lãnh thổ Trung Quốc, trong đó có nguy cơ khuyến khích người dùng tự tử hoặc tự gây tổn hại cho bản thân.
Theo đề xuất, chatbot AI không được tạo ra nội dung cổ vũ hành vi tự tử hay tự hại, không được có lời lẽ xúc phạm, thao túng cảm xúc, đồng thời cũng bị cấm tạo nội dung liên quan đến cờ bạc hoặc bạo lực. Đối với người dùng chưa đủ tuổi, việc sử dụng AI cho mục đích “đồng hành cảm xúc” sẽ phải có sự đồng ý của người giám hộ.
Một trong những điểm đáng chú ý và cũng gây tranh cãi nhất của dự luật là yêu cầu các công ty đứng sau chatbot AI phải có con người can thiệp trực tiếp vào cuộc trò chuyện, đồng thời ngay lập tức liên hệ với người giám hộ hoặc một cá nhân được chỉ định, nếu người dùng thể hiện rõ ý định tự tử. Trong bối cảnh chatbot AI tại Trung Quốc có số lượng người dùng khổng lồ, cùng với khả năng xảy ra sai sót trong bất kỳ hệ thống tự động nào, yêu cầu này được đánh giá là rất khó triển khai trên thực tế.

Ngoài ra, dự luật còn đưa ra một số quy định khác, chẳng hạn như nền tảng phải nhắc nhở người dùng sau hai giờ tương tác liên tục với AI, và phải có khả năng xác định liệu người dùng có phải là trẻ vị thành niên hay không.
Trung Quốc hiện là một trong những quốc gia đi đầu trong việc quản lý mối quan hệ cảm xúc giữa con người và các công cụ AI. Khi ngày càng nhiều người hình thành sự gắn bó tình cảm sâu sắc với chatbot, thậm chí xem chúng như một dạng “nhà trị liệu” thay thế, động thái này cho thấy mục tiêu bảo vệ người dùng là rõ ràng. Tuy nhiên, từ chủ trương cho tới việc áp dụng hiệu quả trên quy mô lớn vẫn sẽ là một thách thức không nhỏ.
Học IT










Công nghệ
Microsoft Word 2013
Microsoft Word 2007
Microsoft Excel 2019
Microsoft Excel 2016
Microsoft PowerPoint 2019
Google Sheets
Lập trình Scratch
Bootstrap
Hướng dẫn
Ô tô, Xe máy