Tại hội nghị thượng đỉnh Seoul, 16 công ty AI hàng đầu trong đó có Anthropic, Microsoft, OpenAI và các đại diện từ hơn 10 quốc gia và Liên minh châu Âu đang họp với nhau nhằm đưa ra những quy định về phát triển AI một cách an toàn và có trách nhiệm.
Một trong những kết quả của cuộc họp là các bên đã đồng thuận với chính sách tạo công tắc tắt AI khẩn cấp khi cần thiết. Trong đó, nếu mô hình AI tiên tiến nhất của các công ty vượt qua ngưỡng rủi ro nhất định, họ sẽ ngừng phát triển chúng. Tuy nhiên, thỏa thuận giữa các công ty không có giá trị pháp lý và ngưỡng rủi ro cũng chưa được xác định cụ thể nên chưa thể xác định được mức độ hiệu quả của chính sách.
Cảnh báo về rủi ro của trí tuệ nhân tạo đã được đưa ra trong vài thập kỷ qua. Các nhà nghiên cứu lo ngại rằng AI có thể trở nên thông minh hơn và cuối cùng sẽ quay lại tấn công con người.
Michelle Donelan, Bộ trưởng Công nghệ của Anh cho biết, AI mang đến cơ hội to lớn để thay đổi nền kinh tế và giải quyết các thách thức lớn của xã hội, nhưng chỉ khi chúng ta xác định được những rủi ro mà công nghệ phức tạp này có thể gây nó mới có thể phát huy.
Chính các công ty AI cũng thừa nhận nguy cơ liên quan đến trí tuệ nhân tạo. OpenAI từng chia sẻ rằng, siêu trí tuệ AGI có nhiều lợi ích cho việc phát triển xã hội nhưng có nguy cơ bị sử dụng sai mục đích, gây hậu quả nghiêm trọng. Tuy nhiên, họ không muốn ngừng phát triển công nghệ này mà muốn tìm cách sử dụng AI một cách đúng đắn.
Tuy nhiên hiện nay, nỗ lực xây dựng khuôn khổ pháp lý toàn cầu về quản lý AI vẫn rời rạc. Chính sách của Liên Hợp Quốc về AI không có hiệu lực về mặt pháp lý. Trong khi đó, các công ty AI cũng bắt đầu thành lập tổ chức riêng nhằm thúc đẩy sự an toàn của mô hình AI nhưng cũng chưa đưa ra bất kỳ chính sách cụ thể nào.
Vào năm sau, một hội nghị thượng đỉnh khác diễn ra tại Pháp sẽ tiếp tục xây dựng quy định về an toàn AI toàn cầu.