Tại Mỹ, các tập đoàn lớn như Amazon, Microsoft, IBM và Google đã tạm dừng bán phần mềm nhận dạng khuôn mặt cho cảnh sát bởi còn nhiều sai sót và điểm yếu.
Một trong số đó là lỗi ‘phân biệt chủng tộc’ bởi các kỹ sư phát triển thuật toán nhận diện khuôn mặt chủ yếu là người da trắng nên cơ sở dữ liệu chỉ liên quan đến người da trắng và người da đen dễ bị nhận dạng nhầm.
Chị Porcha Woodruff là một ví dụ việc “phân biệt chủng tộc’ của công nghệ nhận diện khuôn mặt.
Ngày 3-8, chị Porcha Woodruff (32 tuổi, cư trú ở TP Detroit, bang Michigan) gửi đơn kiện một nữ điều tra viên và thành phố Detroit vì đã bắt và giam giữ chị trái phép xảy ra gần nửa năm trước.
Khi đó, một vụ cướp xe hơi đã xảy ra ở trạm xăng. Để điều tra, sở Cảnh sát Detroit truy xuất camera tại trạm xăng có ghi lại hình ảnh kẻ tình nghi cướp xe và sau đó sử dụng phần mềm nhận diện khuôn mặt DataWorks Plus để đối chiếu. Kết quả tìm kiếm cho ra cái tên Porcha Woodruff từ giấy tờ tùy thân của chị bị thu giữ khi lái xe với bằng lái hết hạn vào năm 2015.
Và đến ngày 16-2, sáu cảnh sát đến nhà cầm theo lệnh bắt giữ chị Woodruff khi đó đang có bầu 8 tháng về tội cướp xe. Nhà chị bị cảnh sát khám xét, chị bị còng tay và đưa về thẩm vấn. Cảnh sát cũng thu giữ chiếc điện thoại iPhone của chị để tìm chứng cứ. Sau khoảng 11 bị giam giữ chị mới được tại ngoại.
Sau đó, chị tới viện khám và kết quả là "bị co thắt do căng thẳng", "nhịp tim chậm do mất nước". 15 ngày sau, vì không đủ bằng chứng nên tòa hủy cáo buộc với chị.
Thật ra hệ thống nhận dạng khuôn mặt đã nhầm và chị Woodruff bị bắt nhầm.
Ngoài chị Woodruff còn có 5 người khác khẳng định bị cảnh sát Detroit bắt oan do hệ thống nhận dạng khuôn mặt nhầm lẫn. Tất cả đều là người da đen.
Cách đây 3 năm giám đốc Sở Cảnh sát Detroit từng tiết lộ tỉ lệ sai sót lên đến 96% nếu chỉ sử dụng duy nhất hệ thống này mà không dùng thêm các phương pháp khác. Dù vậy hệ thống này vẫn được cảnh sát Detroit sử dụng tới 125 lần vào năm ngoái.
Sau lần nhận dạng sai vào năm 2019, Sở Cảnh sát Detroit đã hạn chế phạm vi sử dụng của hệ thống nhận dạng này, chỉ trong các vụ điều tra về tội phạm bạo lực hoặc xâm phạm gia cư.
Hệ thống nhận dạng khuôn mặt hoạt động nhờ trí tuệ nhân tạo (AI) song công nghệ liên quan đến AI lại còn nhiều sai sót có thể do dữ liệu không chuẩn.
Vào năm 2019, Viện Tiêu chuẩn và Công nghệ quốc gia (NIST), Mỹ sau khi nghiên cứu hàng chục thuật toán đã đưa ra kết luận rằng, xác suất không nhận dạng được khuôn mặt người da đen hoặc người châu Á so với khi nhận dạng người da trắng là cao hơn 100 lần. Các thuật toán được phát triển ở Mỹ thể hiện rõ ràng sự khác biệt này hơn so với các thuật toán được phát triển ở châu Á.
Ngoài ra, còn một số yếu tố khác khiến hệ thống nhận diện khuôn mặt hoạt động không chính xác, có thể nhầm lẫn người này với người kia như hình ảnh không chuẩn (độ phân giải xuống cấp, độ sáng không đủ), hoặc khuôn mặt thay đổi (già đi, có trang điểm, đeo kính).