Cảnh báo chiêu trò dùng AI giả giọng người thân để lừa tiền

Cục A05 Bộ Công an đã làm việc với Bộ Thông tin và Truyền thông, Ngân hàng Nhà nước Việt Nam trong nâng cao chất lượng về định danh tài khoản điện thoại, tài khoản ngân hàng để làm sạch toàn bộ hệ thống cơ sở dữ liệu về tài khoản ngân hàng.
Cảnh báo chiêu trò dùng AI giả giọng người thân để lừa tiền
avata
Cryptoday
30/03/2023
23:00
Cryptoday trênGoogle News

Tại buổi họp báo Bộ Công an thông tin kết quả quý 1/2023 vào chiều 28/3, đại diện Công an TP. Hà Nội tội phạm trên không gian mạng hiện đang diễn biến phức tạp với nhiều thủ đoạn, trong đó có lợi dùng AI để lừa tiền. Công an TP. Hà Nội đã có nhiều cuộc họp, mời các ngân hàng, hội sở, điểm giao dịch để đưa ra biện pháp phòng ngừa.  

Tại điểm giao dịch, Công an TP hiện đã gắn biển cảnh báo đối với hành vi lừa đảo, đề nghị các cơ quan báo chí hỗ trợ thông tin đến người dân. Đại diện Cục An ninh mạng và phòng chống tội phạm sử dụng công nghệ cao (A05) cho biết kẻ xấu đã sử dụng công nghệ giả hình ảnh, giọng nói người quen của nạn nhân nhằm chiếm được lòng tin để vay, chuyển tiền. Cục A05 đã báo cáo lãnh đạo Bộ và có điện chỉ đạo đến Công an các đơn vị, địa phương tập trung nắm tình hình, tuyên truyền, phổ biến phương thức thủ đoạn phạm tội đến đông đảo quần chúng. 

Làm việc với Bộ Thông tin và Truyền thông, Ngân hàng Nhà nước Việt Nam, Cục A05 sẽ nâng cao chất lượng về định danh tài khoản ngân hàng, điện thoại cũng như làm sạch toàn bộ hệ thống cơ sở dữ liệu, thay thế bằng tài khoản chính chủ. Đại diện Cục A05 cũng khuyến nghị người dân thường xuyên cập nhật thêm những thông tin về phương thức lừa đảo mới trên các phương tiện truyền thông cũng như bảo mật thông tin liên quan đến tài khoản mạng xã hội. Người dân nếu thấy có dấu hiệu bất thường thì cần liên hệ trực tiếp để tránh trở thành nạn nhân của các vụ lừa đảo. 

AI
Kẻ xấu lợi dụng AI để ghép mặt, giả giọng người thân nạn nhân hòng trục lợi. Ảnh: Công an tỉnh Tuyên Quang.

Thời gian vừa qua, nhiều đối tượng đã dùng AI để giả hình ảnh, giả giọng nói người thân để lừa đảo. Đơn cử, trường hợp của chị V.T.M (26 tuổi, sinh sống ở Long Biên - Hà Nội). Chị M. cho biết tài khoản Facebook của cậu đã nhắn mẹ với nội dung chuyển 75 triệu đồng. Mẹ chị M. biết là người nhà nên cũng không chần chừ, bảo con gái chuyển tiền. 

Để chắc chắn không lừa đảo, chị M. đã video call cho cậu qua ứng dụng trò chuyện Messenger trên Facebook. Chị kể cách xưng hô hoàn toàn chính xác, dù hình ảnh chập chờn: “Mình xác thực bằng cách gọi điện, phía bên kia vẫn hiện mặt và nghe được giọng nói của cậu. Tuy nhiên, trong vòng chưa đến chục giây, đầu dây bên kia báo ‘Hiện cậu ở chỗ cậu đang ở chỗ sóng yếu khó nghe, nên là thôi nhắn tin đi con’"

Xác minh đúng là cậu mình, chị M. không chần chừ mà chuyển khoản ngay 75 triệu đồng. Kẻ giả danh lại tiếp tục đòi thêm 170 triệu nữa với lý do công việc. Nghi mình đã bị lừa, chị M. gọi lại nhưng đầu dây kia bắt máy, nhưng hỏi thêm thông tin thì bị chặn ngay sau đó. Sau đó, chị M. lập tức đi báo cho công an và phía ngân hàng. 

AI
Chị M. bị kẻ xấu lừa chuyển 75 triệu đồng bằng chiêu thức dùng AI làm giả gương mặt, giọng nói.

Theo dữ liệu từ Ủy ban Thương mại Liên bang Mỹ (FTC), giả mạo danh tính là hình thức lừa đảo phổ biến với 36.000 trường hợp ghi nhận vào năm 2022. Lừa đảo qua điện thoại chiếm 5.100 trường hợp gây thiệt hại 11 triệu USD. 

Mới đây, gia đình anh Perkin bị (39 tuổi, người Canada) đã trở thành nạn nhân của chiêu thức lừa đảo dùng AI này. Kẻ xấu tự nhận là luật sư và gọi cho bố mẹ anh, nói rằng anh đã gây ra vụ tai nạn nghiêm trọng và cần khoản tiền cho các chi phí pháp lý là 15.000 USD. Luật sư giả mạo đã đưa máy cho bố mẹ anh và họ lập tức tin vì giọng nói vô cùng gần gũi, chân thực hệt như giọng con trai của họ.

Công nghệ mà tội phạm đa phần sử dụng là Deepfake. Công nghệ này đã làm giả khuôn mặt người nổi tiếng thông qua thuật toán có khả năng thay thế đặc điểm nhận dạng của một cá nhân bằng người khác. Giờ đây, Deepfake có thể làm giả giọng nói với độ chính xác cao. Theo VTV, tỷ lệ phát hiện âm thanh là giả hay thật là 57%, nhất là trong môi trường có nhiều tiếng ồn thì càng khó để phân biệt được. 

AI
AI Deepfake làm giả gương mặt trông giống hệt người thật.

Tội phạm đã tận dụng điều này để giảm làm người thân vay tiền, giả làm con cái du học nước ngoài gọi điện cho bố mẹ nhờ chuyển tiền đóng học phí hay người thân bị tai nạn cần tiền cấp cứu… Để thực hiện chiêu trò này, các đối tượng tìm kiếm, thu thập thông tin cá nhân, hình ảnh, video có giọng nói được đăng công khai trên mạng xã hội để phục vụ cho kịch bản lừa đảo. 

Giới chuyên gia cho biết công cụ AI giả giọng nói ngày càng phổ biến nhưng vẫn chưa được kiểm soát triệt để. Chỉ với vài câu nói thu thập được từ trên mạng xã hội, kẻ xấu có thể tạo ra bản sao giọng nói gần như hoàn hảo của một người. “Chỉ cần bản ghi âm từ Facebook hay video trên Youtube, giọng bạn được sao chép trong 30 giây”, Giáo sư Hany Farid tại Đại học California nhận xét.

Chia sẻ với Channel News Asia, 2 chuyên gia bảo mật Matthew và Christopher Schwartz đến từ Học viện Công nghệ Rochester, Mỹ cho biết với những tiến bộ không ngừng trong thuật toán học sâu, cải tiến kỹ thuật khiến chất lượng giọng nói được tạo bởi máy tính ngày càng khó phân biệt với giọng người thật. 

logoMẠNG XÃ HỘI TIN TỨC BLOCKCHAIN, CÔNG NGHỆ, TÀI CHÍNH SỐĐịa chỉ: Tầng 6, Toà nhà ADG, 37 Lê Văn Thiêm, Thanh Xuân, Hà Nội - Điện thoại: 024 6687 6797 Chịu trách nhiệm nội dung: Nguyễn Minh

Giấy phép số: 497/GP - BTTTT, do Bộ Thông tin và Truyền thông cấp ngày 17/10/2022
© 2022 - Toàn bộ bản quyền thuộc về Cryptoday Việt Nam
Tải ứng dụng Cryptoday
downloaddownload