Ngân hàng trực tuyến Starling Bank của Anh cảnh báo rằng, kẻ gian chỉ cần 3 giây âm thanh từ một video đăng trên mạng xã hội để dùng AI sao chép giọng nói của bạn, sau đó dùng nó tiếp cận bạn bè và người thân của nạn nhân để thực hiện các cuộc gọi lừa đảo, yêu cầu chuyển tiền.
Starling Bank đã phối hợp cùng cơ quan nghiên cứu Mortar Research thực hiện một cuộc khảo sát đối với 3.000 người vào hồi tháng 8 vừa qua cho thấy hơn 1/4 số người được hỏi cho biết họ đã trở thành mục tiêu của một vụ lừa đảo giả giọng bằng AI trong 12 tháng qua.
Cuộc khảo sát cũng cho thấy, 46% số người tham gia không biết có những trò lừa đảo như vậy và 8% dù nghi ngờ tính xác thực của cuộc gọi nhưng vẫn sẽ chuyển tiền theo yêu cầu của bạn bè hoặc thành viên gia đình.
Nhiều người hiện nay thường xuyên đăng nội dung trực tuyến có ghi âm giọng nói của bản thân lên mạng xã hội mà không bao giờ nghĩ rằng điều đó sẽ khiến họ dễ trở thành mục tiêu của những kẻ lừa đảo.
Starling Bank khuyến nghị các khách hàng thiết lập một "cụm từ an toàn", đơn giản, ngẫu nhiên, dễ nhớ và khác với các mật khẩu với những người thân yêu của họ để xác minh danh tính qua điện thoại. Khách hàng không nên chia sẻ cụm từ an toàn qua tin nhắn, vì tin nhắn có thể bị kẻ gian nhìn thấy hoặc nên xóa ngay sau khi đọc nếu làm.
Hình thức lừa đảo giả giọng bằng AI đã được Ngân hàng NAB của Úc đưa vào danh sách các thủ đoạn nguy hiểm hàng đầu mà người dân quốc gia châu Đại Dương này cần cảnh giác trong năm 2024.
Làm thế nào để tránh bị sao chép giọng nói?
Phó giáo sư Toby Murray của khoa khoa học máy tính và hệ thống thông tin của Đại học Melbourne, cho biết để phòng tránh bị sao chép giọng nói, người dùng có thể thiết lập quyền riêng tư cho tài khoản mạng xã hội của mình để chỉ bạn bè và người thân mới có thể nhìn thấy nội dung họ đăng tải.