cuoc-dua-chong-lai-tri-tue-nhan-tao-phuc-vu-lua-dao

Cuộc đua chống lại trí tuệ nhân tạo phục vụ lừa đảo

Debby Bodkin chia sẻ câu chuyện về người mẹ 93 tuổi của mình đã nhận một cuộc gọi với giọng nói giống hệt con gái bà: “Là con đây, mẹ… Con vừa gặp tai nạn.” Khi được hỏi đang ở đâu, giọng nói nhân tạo trả lời tên một bệnh viện. Rất may, cháu gái của bà cụ là người nghe máy, cô quyết định cúp máy và gọi cho Bodkin tại nơi làm việc. Bà vẫn an toàn. “Không phải lần đầu tiên kẻ lừa đảo gọi cho bà,” Bodkin nói. “Gần như ngày nào cũng có.”

Các vụ lừa đảo kiểu này ngày càng trở nên phổ biến, trong đó kẻ gian sử dụng giọng nói giả để dựng nên tình huống khẩn cấp, từ tai nạn đến viện phí, nhằm khiến nạn nhân chuyển tiền. Trên mạng xã hội, deepfake còn được dùng để giả mạo hình ảnh của người nổi tiếng hoặc chính trị gia, phục vụ mục đích lan truyền thông tin sai lệch.

Cuộc đua chống lại trí tuệ nhân tạo phục vụ lừa đảo- Ảnh 1.

Các công ty công nghệ trên toàn cầu đang nỗ lực chống lại làn sóng deepfake – những hình ảnh và giọng nói giả mạo cực kỳ chân thực được tạo ra bởi trí tuệ nhân tạo, đang ngày càng phổ biến và tinh vi. Ảnh: CNN.

Tình hình trở nên đáng lo ngại hơn khi đầu năm nay, cảnh sát Hồng Kông tiết lộ một nhân viên của một công ty đa quốc gia đã chuyển 200 triệu đô la Hồng Kông (tương đương khoảng 26 triệu USD) cho nhóm lừa đảo sau khi tham dự một cuộc họp qua video có sự hiện diện của các “đồng nghiệp” – thực chất là các hình đại diện do AI tạo ra.

Một nghiên cứu gần đây do công ty nhận dạng iBoom thực hiện cho thấy, chỉ 0,1% người dân Mỹ và Anh có thể nhận diện chính xác một hình ảnh hoặc video là deepfake. Giám đốc điều hành của công ty Pindrop Security, ông Vijay Balasubramaniyan, cho biết chỉ một thập kỷ trước, việc tạo ra giọng nói nhân tạo yêu cầu ít nhất 20 giờ ghi âm. Ngày nay, AI chỉ cần 5 giây mẫu giọng để tạo ra bản sao giọng nói gần như hoàn hảo.

Cuộc đua công nghệ chống lại deepfake

Trước thực trạng trên, các công ty công nghệ đã đẩy mạnh phát triển các công cụ phát hiện deepfake. Intel đã giới thiệu công nghệ “FakeCatcher”, có khả năng phân tích các thay đổi màu sắc của mạch máu trên khuôn mặt nhằm phân biệt hình ảnh thật và giả. Trong khi đó, Pindrop sử dụng phương pháp phân tích âm thanh từng giây để đối chiếu với các đặc điểm tự nhiên của giọng người thật.

Ông Nicos Vekiarides, giám đốc nền tảng xác thực Attestiv, nhấn mạnh tầm quan trọng của việc cập nhật công nghệ: “Trước đây, chúng ta còn thấy hình ảnh người có 6 ngón tay, nhưng giờ thì deepfake đã được cải tiến đến mức mắt thường khó nhận ra.”

Ông Balasubramaniyan dự đoán rằng phần mềm phát hiện nội dung do AI tạo ra sẽ sớm trở thành công cụ tiêu chuẩn trong mọi doanh nghiệp. Khi trí tuệ nhân tạo ngày càng xóa nhòa ranh giới giữa con người và máy móc, các công ty có khả năng tái thiết lập ranh giới đó sẽ giành lợi thế trên thị trường trị giá hàng tỷ USD trong tương lai.

Vekiarides cảnh báo rằng deepfake đang trở thành một “mối đe dọa an ninh mạng toàn cầu.” Các doanh nghiệp hoàn toàn có thể bị mất uy tín hoặc bị tấn công bởi những chiến dịch deepfake ngày càng tinh vi. Việc chuyển sang hình thức làm việc từ xa trong thời đại hậu đại dịch cũng khiến các công ty dễ bị kẻ xấu giả mạo thâm nhập thông qua các nền tảng trực tuyến.

Bên ngoài lĩnh vực doanh nghiệp, người tiêu dùng cũng bắt đầu tìm kiếm những giải pháp để bảo vệ cuộc sống cá nhân khỏi các trò lừa đảo deepfake. Hồi tháng 1, hãng điện thoại Trung Quốc Honor đã giới thiệu mẫu điện thoại “Magic7” tích hợp tính năng phát hiện deepfake nhờ AI. Cùng thời điểm, công ty khởi nghiệp Surf Security tại Anh cũng ra mắt trình duyệt web có thể đánh dấu những nội dung âm thanh hoặc video nhân tạo, nhắm đến đối tượng khách hàng là doanh nghiệp.

Giáo sư Siwei Lyu, chuyên ngành khoa học máy tính tại Đại học New York tại Buffalo, tin rằng deepfake rồi cũng sẽ giống như spam – một cơn ác mộng Internet mà người dùng sẽ dần kiểm soát được. “Thuật toán phát hiện sẽ giống như bộ lọc thư rác trong phần mềm email của chúng ta,” ông nói. “Dù hiện tại chưa đạt tới mức đó, nhưng ngày đó rồi sẽ đến.”

Leave a Reply

Your email address will not be published. Required fields are marked *