AI giả mạo giọng nói được sử dụng trong một vụ bắt cóc?

Trí tuệ nhân tạo (AI) đang được kẻ xấu sử dụng để giả mạo giọng nói người thân của nạn nhân trong những phi vụ bắt cóc tống tiền giả mạo.
AI giả mạo giọng nói được sử dụng trong một vụ bắt cóc?
avata
Cryptoday
01/05/2023
12:37
Cryptoday trênGoogle News

Cuộc gọi bắt cóc giả mạo kinh hoàng

Vào một buổi chiều, sau khi vừa bước ra khỏi phòng tập khiêu vũ, điện thoại của bà Jennifer DeStefano bất chợt rung lên. Người gọi không rõ danh tính và bà định không bắt máy. Tuy nhiên, cô con gái lớn 15 tuổi Brianna đang xa nhà vì tập luyện cho cuộc thi trượt tuyết sắp diễn ra. Bà Jennifer lo sợ con bé gặp vấn đề về y tế và quyết định nghe điện thoại.

"Mẹ ơi, con gặp rắc rối lớn rồi", tiếng la hét và khóc nức nở vang lên ở đầu dây bên kia. "Chuyện gì đã xảy ra, con gặp vấn đề gì?", bà Jennifer bắt đầu hoảng sợ. Tiếng khóc vẫn tiếp tục và giọng của một người đàn ông lạ mặt cất lên.

"Nghe cho kỹ đây, tôi đang giữ con gái của bà. Cứ thử gọi cảnh sát hay bất kỳ ai xem, tôi sẽ tiêm ma túy vào con bé, giở trò đồi bại trước khi bán nó đến Mexico. Bà sẽ không bao giờ nhìn thấy con mình nữa", giọng nam trầm ra lệnh. Bà Jennifer như chết lặng, chạy vào phòng tập nhảy, run rẩy và la hét cầu cứu mọi người. "Tôi cảm thấy như mình sắp chết đuối", bà nhớ lại.

Cô con gái Brianna (trái) và bà Jennifer DeStefano (phải)
Cô con gái Brianna (trái) và bà Jennifer DeStefano (phải).

Một loạt sự kiện đã diễn ra sau đó, bao gồm: yêu cầu đòi tiền chuộc 1 triệu USD, cuộc gọi 911... Tuy nhiên, vụ bắt cóc sau đó đã bị vạch trần là 1 vụ lừa đảo. Cô bé Brianna gọi điện và thông báo với bà Jennifer không hề có vấn đề gì cả và không hiểu mọi chuyện ồn ào đang xảy ra là do đâu.

Dù mọi chuyện đã qua nhưng bà Jennifer, hiện đang sinh sống ở bang Arizona, sẽ không bao giờ quên được 4 phút kinh hoàng đó. "Người mẹ nào cũng hiểu rõ con đẻ của mình như thế nào. Chỉ cần nghe thấy tiếng con khóc vọng ra trong một tòa nhà, một người mẹ có thể biết đó là con của mình", bà chia sẻ. 

Cùng tìm hiểu tất cả những bài viết về giả mạo ở đây.

AI khiến những vụ bắt cóc giả mạo chân thực hơn?

Trong đoạn ghi âm cuộc gọi 911 do sở cảnh sát Scottsdale cung cấp, một bà mẹ tại phòng tập khiêu vũ cố gắng giải thích cho người điều phối của FBI chuyện gì đã xảy ra. "Một người mẹ nhận được 1 cuộc điện thoại từ kẻ bắt cóc con gái cô ấy và hắn ta đòi tiền chuộc 1 triệu USD", người phụ nữ thông báo cho điều tra viên FBI. Giọng nói của bà Jennifer có thể được nghe thấy: "Tôi muốn được nói chuyện với con gái mình!"

Các trò lừa đảo gần đây đã tích hợp các chương trình trí tuệ nhân tạo (AI) rẻ tiền cho phép sao chép giọng nói và tạo ra những đoạn hội thoại nghe giống thật. Giáo sư chuyên ngành khoa học máy tính Hany Farid của trường đại học California nhận xét: "Mối đe dọa này không chỉ là giả thuyết. Chúng ta đang chứng kiến những kẻ lừa đảo vũ khí hóa các công cụ AI".   

Với sự trợ giúp của các ứng dụng AI, việc giả mạo giọng nói chỉ mất chưa đến 5 USD/tháng. FTC cảnh báo mọi người không nên chia sẻ bài đăng có giọng nói lên mạng xã hội vì những kẻ lừa đảo có thể sử dụng chúng: "Những kẻ lừa đảo có thể sử dụng AI để sao chép giọng nói người thân của bạn. Tất cả những gì chúng cần là 1 đoạn âm thanh ngắn có chứa giọng nói của họ. Khi kẻ lừa đảo gọi điện, giọng nói bạn nghe thấy sẽ khá giống như người thân".

Cryptoday - cryptoday-cryptoday-co-con-gai-brianna-trai-va-ba-jennifer-destefano-phai_E9yRVp1XXi_2023050112.jpeg
Những chương trình tích hợp AI giả mạo giọng nói xuất hiện ngày càng nhiều.

Trước khi vụ việc xảy ra, bà Jennifer không hề biết đến những vụ giả mạo bắt cóc sử dụng AI. Bà khẳng định giọng nói nghe thấy trong cuộc điện thoại là y hệt như của con gái mình. Ngày vụ việc xảy ra, bà Jennifer đã thuyết phục được kẻ lừa đảo giảm mức tiền chuộc xuống còn 50.000 USD. 

Trong lúc kẻ lừa đảo chỉ định địa điểm nhận tiền chuộc, một người đến và đưa cho bà Jennifer điện thoại. "Mẹ ơi, con vừa mới ngủ dậy. Con không biết chuyện gì đã xảy ra nhưng con an toàn", giọng nói của Brianna cất lên ở đầu dây bên kia. Bà Jennifer bật khóc, cúp máy và gọi cảnh sát. 

Sau khi sự việc diễn ra, bà Jennifer trở nên cảnh giác hơn khi trả lời các cuộc gọi không xác định. Bà hiếm khi nói gì cho đến khi đầu dây bên kia cất lời. Bà sợ giọng nói của mình sẽ bị giả mạo và kẻ xấu sử dụng nó trong những vụ lừa đảo tương tự trong tương lai.

Xem thêm: Dùng AI giả mạo nhà vô địch F1 Michael Schumacher, tổng biên tập bị đuổi việc.

Cách ngăn chặn những vụ giả mạo bắt cóc tống tiền là gì?

Đặc vụ FBI Siobhan Johnson cho biết các gia đình Mỹ mất trung bình 11.000 USD cho mỗi vụ lừa đảo bắt cóc giả mạo. Theo dữ liệu từ Ủy bản Thương mại Liên bang (FTC), vào năm 2022, người Mỹ đã mất đến 2,6 tỷ USD trong các vụ lừa đảo mạo danh. Những vụ lừa đảo giọng nói đa phần bắt nguồn từ Mexico và nhắm đến khu vực tây nam nước Mỹ. 

Khi cuộc gọi khủng bố tinh thần xảy ra, cha mẹ hoặc người thân thường không đủ tỉnh táo để nhận biết giọng nói họ nghe thấy có phải là thật hay không. Đặc vụ Johnson thừa nhận bản chất vấn đề không phải AI mà là những kẻ xấu lợi dụng công nghệ này. Sau đó, đặc vụ này đã đưa ra một số lời khuyên để ngăn ngừa những vụ việc tương tự diễn ra.

Đặc vụ FBI Siobhan Johnson
Đặc vụ FBI Siobhan Johnson.

"Đầu tiên, không đăng thông tin về các chuyến đi sắp tới trên phương tiện truyền thông xã hội. Điều đó tạo cơ hội cho những kẻ lừa đảo lựa chọn gia đình bạn làm mục tiêu. Thứ hai, hãy tạo một mật khẩu chung mà chỉ những thành viên trong gia đình của bạn biết. Nếu có ai đó gọi điện và tuyên bố đã bắt cóc con bạn, hãy yêu cầu chúng hỏi đứa trẻ mật khẩu này", đặc vụ Johnson phát biểu.

Đặc vụ này tiếp tục: "Nếu nhận được 1 cuộc gọi giả mạo giọng nói, cố gắng câu giờ để thông báo cho cơ quan thực thi pháp luật. Viết một ghi chú cho người khác trong nhà để họ biết được chuyện gì đang xảy ra và tìm kiếm sự trợ giúp từ cảnh sát. Tiếp theo, bạn cần cảnh giác khi cung cấp thông tin tài chính cho người lạ qua điện thoại. Những kẻ xấu thường đòi tiền chuộc thông qua thẻ quà tặng, tiền điện tử hoặc chuyển khoản ngân hàng. Quan trọng nhất, đừng vội tin vào giọng nói bạn nghe thấy. Nếu không thể liên lạc với người thân, hãy nhờ 1 thành viên gia đình, bạn bè hoặc người gần đó liên lạc với họ giúp bạn".

logoMẠNG XÃ HỘI TIN TỨC BLOCKCHAIN, CÔNG NGHỆ, TÀI CHÍNH SỐĐịa chỉ: Tầng 6, Toà nhà ADG, 37 Lê Văn Thiêm, Thanh Xuân, Hà Nội - Điện thoại: 024 6687 6797 Chịu trách nhiệm nội dung: Nguyễn Minh

Giấy phép số: 497/GP - BTTTT, do Bộ Thông tin và Truyền thông cấp ngày 17/10/2022
© 2022 - Toàn bộ bản quyền thuộc về Cryptoday Việt Nam
Tải ứng dụng Cryptoday
downloaddownload