Liên minh châu Âu EU hôm nay đã chính thức ban hành một bộ văn bản hướng dẫn về cách thức mà cả doanh nghiệp và chính phủ nên tuân thủ trong việc phát triển cũng như triển khai các dự án trí tuệ nhân tạo của mình sao cho thực sự minh bạch, công bằng vào “có đạo đức”.
Điều này làm tôi bất chợt nhớ đến một đạo luật có tên Three Laws of Robotics (Ba Điều luật dành cho Robot) được nhà văn nga Isaac Asimov nhắc đến trong tập truyện ngắn “Runaround” được ông sáng tác vào năm 1942, đại loại như điều thứ nhất: Một robot không được phép làm hại đến con người hoặc phớt lờ trước nguy hiểm mà con người gặp phải. Điều thứ 2: Một robot phải tuyệt đối tuân theo những mệnh lệnh mà con người đưa ra trừ khi những lệnh này mâu thuẫn với điều luật thứ nhất. Và điều thứ ba: Một robot phải tự bảo vệ mình với điều kiện là việc bảo vệ như thế không mâu thuẫn với điều luật thứ nhất và thứ hai. Đây tuy chỉ là một bộ quy tắc “viễn tưởng” đã xuất hiện cách đây gần 80 năm nhưng vẫn đặc biệt còn đầy đủ tính thời sự khi con người đang dần bước vào kỷ nguyên của trí tuệ nhân tạo như hiện nay. Tất nhiên, bộ quy tắc mới được EU ban hành về cơ bản sẽ không giống như “đạo luật” Three Laws of Robotics của Isaac Asimov. Các nhà lập pháp châu Âu không thể đưa ra một khuôn khổ đạo đức linh hoạt mà qua đó giúp chúng ta điều khiển những điều “đao to búa lớn” như ngăn chặn những con robot giết người. Thay vào đó, bộ văn bản hướng dẫn của EU giúp giải quyết các vấn đề “u ám và lan tỏa”, những thứ mà có ảnh hưởng tiêu cực đến xã hội khi chúng ta tích hợp AI vào nhiều lĩnh vực quan trọng trong đời sống như chăm sóc sức khỏe, giáo dục và công nghệ tiêu dùng.
Lấy ví dụ đơn giản, nếu một hệ thống AI y tế chẩn đoán một người có nguy cơ cao bị ung thư trong tương lai, hướng dẫn của EU sẽ giúp đảm bảo một số điều như sau cần phải được tiến hành: Phần mềm không bị thiên vị hay sai lệch bởi chủng tộc hoặc giới tính của bệnh nhân, đồng thời đưa ra những thông tin rõ ràng, minh bạch nhất về tình trạng bệnh tật của họ, và đặc biệt không được can thiệp hay cản trở quyết định của bác sĩ.
Vì vậy, vâng, những hướng dẫn này được đưa ra chủ yếu tập trung vào việc hạn chế và kiểm soát các mô hình AI hoạt động sao cho đúng với mục đích, nhưng chỉ dừng lại ở cấp độ quản trị viên và quan liêu, chứ không phải ngăn chặn những hành vi giết chóc theo tưởng tượng của nhà văn Asimov.
Để đưa ra được bộ văn bản hướng dẫn này, EU đã phải triệu tập một nhóm gồm 52 chuyên gia, đề nghị họ cùng nhau thảo luận, thống nhất và đưa ra 7 yêu cầu mà họ nghĩ rằng các hệ thống AI trong tương lai nên đáp ứng được. Những yêu cầu này như sau:
- Khả năng giám sát và ra quyết định cuối cùng vẫn phải nằm trong tay con người: AI không nên, hay nói đúng hơn là không được phép “chà đạp” lên quyền tự chủ, tự quyết của con người. Ngược lại, mọi người cũng không nên bị thao túng hoặc ép buộc bởi các hệ thống AI. Sau tất cả, con người phải nắm trong tay khả năng có thể can thiệp hoặc giám sát mọi quyết định mà phần mềm AI đưa ra trong những tình huống cần thiết.
- Kỹ thuật triển khai chuẩn xác, chắc chắn và an toàn: Mỗi một mô hình AI khi được triển khai dù là ở quy mô phòng thí nghiệm hay trên thực tế đều phải đảm bảo được 2 yếu tố an toàn và chính xác, đó là điều kiện tiên quyết. Nói cách khác, một phần mềm AI không nên dễ dàng bị xâm phạm và chiếm quyền kiểm soát bởi các cuộc tấn công bên ngoài, và mọi quyết định mà nó đưa ra phải tuyệt đối đáng tin cậy một cách hợp lý nhất.
- Bảo đảm quyền riêng tư và quản trị dữ liệu: Dữ liệu cá nhân được thu thập bởi các hệ thống AI phải được bảo mật chặt chẽ và hoàn toàn riêng tư. Những dữ liệu này không được phép để lộ hoặc có thể bị truy cập bởi bất cứ tác nhân nào, đồng thời cũng không thể dễ dàng bị đánh cắp hay thất thoát.
- Đảm bảo tính minh bạch: Dữ liệu và thuật toán được sử dụng để tạo ra một hệ thống AI nên có thể truy cập được, và đồng thời các quyết định được đưa ra bởi phần mềm cũng nên được trình bày và giải thích rõ ràng. Nói cách khác, nhà khai thác phải có khả năng giải thích các quyết định mà hệ thống AI của họ đưa ra một cách cụ thể và hợp lý.
- Đảm bảo sự đa dạng, không phân biệt đối xử và công bằng: Các dịch vụ do AI cung cấp phải khả dụng cho tất cả mọi người, bất kể tuổi tác, giới tính, chủng tộc hoặc các đặc điểm khác. Đồng thời những quyết định mà AI đưa ra cũng không được thiên vị tới bất kỳ đặc điểm, đối tượng nào.
- Tác động tích cực đến môi trường và xã hội: Các hệ thống AI phải được triển khai và phát triển bền vững (nghĩa là chúng phải có trách nhiệm về mặt sinh thái) và góp phần thay đổi xã hội theo chiều hướng tích cực hơn.
- Trách nhiệm: Các hệ thống AI phải được kiểm toán và được bảo vệ bởi các biện pháp bảo vệ hiện có. Nói cách khác, tác động tiêu cực (nếu có) của hệ thống nên được thừa nhận một cách thẳng thắn, và các nhà khai thác phải chịu trách nhiệm trước tác động tiêu cực mà hệ thống AI của họ gây ra.
Có lẽ bạn sẽ nhận thấy rằng một vài trong số những yêu cầu trên khá là trừu tượng và sẽ khó mà có thể được đánh giá theo nghĩa khách quan (ví dụ dụ như định nghĩa về thay đổi xã hội tích cực mà AI đem lại sẽ rất khác nhau giữa người này với người khác, và rộng hơn là giữa các quốc gia với nhau). Tuy nhiên, hầu hết những mục còn lại nhìn chung đơn giản hơn và có thể được kiểm tra và đảm bảo thông qua sự giám sát của các cơ quan chức năng. Ví dụ như việc chia sẻ những dữ liệu được sử dụng để đào tạo các hệ thống AI của chính phủ có thể là một cách tốt để chống lại các thuật toán thiên vị, không minh bạch.
Những điều khoản trong văn bản hướng dẫn này của EU rõ ràng không mang tính ràng buộc về mặt pháp lý, nhưng chúng có thể được sử dụng để định hình nên bất kỳ đạo luật nào trong tương lai do Liên minh Châu Âu soạn thảo có liên quan đến lĩnh vực AI. Trong quá khứ, EU đã nhiều lần nói rằng họ muốn biến châu Âu trở thành một khu vực đi tiên phong trên thế giới trong việc triển khai những mô hình AI “có đạo đức”, và sự ra mắt của bộ văn bản hướng dẫn này rõ ràng cho thấy rằng họ đã sẵn sàng để soạn thảo ra các đạo luật sâu rộng trong việc quy định và bảo vệ quyền kỹ thuật số.
EU muốn định hình một ngành công nghiệp AI với các tiêu chuẩn đạo đức làm nòng cốt
Như một phần của nỗ lực tạo lập nên một ngành công nghiệp AI “có đạo đức”, văn bản hướng dẫn của EU có thể được coi là bước đệm để tạo nên "danh sách đánh giá AI đáng tin cậy” - một danh sách những điều khoản có thể giúp các chuyên gia tìm ra bất kỳ điểm yếu hoặc mối nguy hiểm tiềm tàng nào trong một phần mềm AI ngay cả khi nó đã được triển khai sâu rộng. Danh sách này có thể bao gồm các câu hỏi như: “Bạn có thể chứng minh được cách thức hệ thống AI của mình hoạt động trong các tình huống và môi trường phức tạp không?”, hay “Bạn có thể đánh giá loại hình và phạm vi dữ liệu trong bộ dữ liệu của mình không?”...
Tất nhiên danh sách đánh giá này chỉ là sơ bộ, EU sẽ còn phải thu thập phản hồi từ các công ty cũng nhưng những chuyên gia trí tuệ nhân tạo trong thời gian tới. Sớm nhất là trong năm 2020, EU sẽ công bố một báo cáo tổng kết về vấn đề này.
Anny Hidvégi, một nhà quản lý chính sách thuộc nhóm quyền kỹ thuật số Access Now và đồng thời là một trong số 52 chuyên gia chịu trách nhiệm xây dựng bộ văn bản hướng dẫn của EU, cho biết danh sách đánh giá chính là phần quan trọng nhất của báo cáo: “Bộ văn bản này giúp đưa ra một góc nhìn thực tế, hướng tới tương lai về cách thức ngăn chặn cũng như giảm thiểu tác hại tiềm tàng của AI”.
“Theo quan điểm của chúng tôi, EU có đủ tiềm năng và trách nhiệm để trở thành tổ chức đi đầu trong công việc này. Nhưng bên cạnh đó chúng tôi cũng nghĩ rằng Liên minh châu Âu không nên chỉ dừng lại ở các nguyên tắc đạo đức. Họ nên tính đến việc yêu cầu các công ty khai thác AI tuân thủ pháp luật trong tương lai”, ông Hidvégi nói thêm.
Một số người khác lại tỏ ra hoài nghi về việc cố gắng của EU trong định hình cách AI toàn cầu được phát triển thông qua nghiên cứu đạo đức sẽ có thể mang lại nhiều tác dụng.
“Chúng tôi nghi ngờ về cách tiếp cận đang được tổ chức đứng đầu châu Âu thực hiện. Ý tưởng rằng bằng cách tạo ra một tiêu chuẩn vàng cho các hệ thống AI có đạo đức, EU sẽ có thể khẳng định được vị trí của mình trong sự phát triển của ngành công nghiệp AI toàn cầu là tương đối mông lung. Để trở thành kẻ dẫn đầu về việc định hình lên những quy tắc AI có đạo đức, trước tiên EU phải trở thành một nhà lãnh đạo trong chính lĩnh vực AI nói chung”, Eline Ch Pivot, một nhà phân tích chính sách cao cấp tại Trung tâm đổi mới dữ liệu châu Âu chia sẻ.
Bạn có suy nghĩ thế nào về vấn đề này? Hãy để lại ý kiến ở mục bình luận bên dưới nhé!