Hàng triệu người dễ mắc bẫy tội phạm công nghệ dùng AI sao chép giọng nói chỉ từ 3 giây

Theo Starling Bank, các đối tượng lừa đảo công nghệ cao có thể sử dụng AI để sao chép giọng nói của một người chỉ từ 3 giây âm thanh nhằm mục đích phi pháp.

Dễ trở thành nạn nhân các vụ lừa đảo sử dụng Al sao chép giọng nói

Một ngân hàng ở Anh đã cảnh báo rằng "hàng triệu" người có thể trở thành nạn nhân của các vụ lừa đảo sử dụng trí tuệ nhân tạo để sao chép giọng nói của họ. Kẻ gian có thể dễ dàng bắt chước giọng nói của bất kỳ ai từ các video trên mạng xã hội hay tin nhắn thoại, đặt ra thách thức lớn cho an ninh mạng...

Starling Bank, một công ty cho vay trực tuyến, cho biết những kẻ lừa đảo có khả năng sử dụng AI để sao chép giọng nói của một người chỉ từ ba giây âm thanh tìm thấy trong một video mà người đó đã đăng trực tuyến.

Sau đó, những kẻ lừa đảo có thể xác định bạn bè và thành viên gia đình của người đó và sử dụng giọng nói được sao chép bằng AI để dàn dựng một cuộc gọi điện thoại yêu cầu tiền.

Starling Bank cho biết trong một thông cáo báo chí hôm thứ Tư rằng những kiểu lừa đảo này có khả năng "dụ hàng triệu người".

Thực tế, hiện tại kiểu lừa đảo sao chép giọng nói bằng AI đã ảnh hưởng đến hàng trăm người. Theo một cuộc khảo sát đối với hơn 3.000 người lớn mà ngân hàng này thực hiện với Mortar Research vào tháng trước, hơn một phần tư số người được hỏi cho biết họ đã trở thành mục tiêu của một vụ lừa đảo sao chép giọng nói bằng AI trong 12 tháng qua.

Cuộc khảo sát cũng cho thấy 46% người được hỏi không biết về những vụ lừa đảo như vậy và 8% sẽ gửi số tiền theo yêu cầu của bạn bè hoặc thành viên gia đình, ngay cả khi họ nghĩ cuộc gọi có vẻ lạ.

Hàng triệu người có thể trở thành nạn nhân các vụ lừa đảo sử dụng Al

Hàng triệu người có thể trở thành nạn nhân các vụ lừa đảo sử dụng Al

"Mọi người thường xuyên đăng nội dung trực tuyến có ghi âm giọng nói của họ mà không bao giờ nghĩ rằng điều đó khiến họ dễ bị lừa đảo hơn", Lisa Grahame, giám đốc an ninh thông tin tại Starling Bank, cho biết trong thông cáo báo chí.

Ngân hàng khuyến khích mọi người đồng ý một "cụm từ an toàn" với những người thân yêu của họ - một cụm từ đơn giản, ngẫu nhiên, dễ nhớ và khác với các mật khẩu khác của họ - có thể được sử dụng để xác minh danh tính của họ qua điện thoại.

Bên cho vay khuyên không nên chia sẻ cụm từ an toàn qua tin nhắn văn bản, điều này có thể khiến những kẻ lừa đảo dễ dàng phát hiện ra hơn, nhưng nếu chia sẻ theo cách này, tin nhắn nên được xóa sau khi người kia đã nhìn thấy.

Khi AI ngày càng thành thạo trong việc bắt chước giọng nói của con người, mối lo ngại ngày càng tăng về khả năng gây hại cho mọi người bằng nhiều cách, chẳng hạn như tội phạm có thể truy cập vào tài khoản ngân hàng của họ và phát tán thông tin sai lệch.

Đầu năm nay, OpenAI, nhà sản xuất chatbot AI tạo ra ChatGPT, đã công bố công cụ sao chép giọng nói của mình, có tên gọi Voice Engine, cho phép giả giọng nói của bất kỳ ai chỉ bằng cách cho công cụ AI này nghe qua giọng nói đó bằng một đoạn ghi âm ngắn 15 giây.

Công cụ AI của OpenAI có thể giả giọng nói của bất kỳ ai

Điều này đồng nghĩa với việc công cụ của OpenAI không mất quá nhiều thời gian cũng như không cần một cơ sở dữ liệu quá lớn để có thể sao chép và tạo ra những bản sao giọng nói của bất kỳ ai.

Từ khi có được bản sao giọng nói, người dùng có thể sử dụng Voice Engine để chuyển những đoạn văn bản thành giọng nói, với âm thanh từ chính giọng mẫu mà công cụ này vừa thu thập được.

Công cụ AI của OpenAI có thể giả giọng nói của bất kỳ ai chỉ bằng một đoạn thu âm giọng nói gốc dài 15 giây (Ảnh minh họa: Pinterest).

Công cụ AI của OpenAI có thể giả giọng nói của bất kỳ ai chỉ bằng một đoạn thu âm giọng nói gốc dài 15 giây (Ảnh minh họa: Pinterest).

Đáng chú ý, Voice Engine không chỉ có thể giả giọng nói, mà còn có thể tạo ra những đoạn hội thoại với giọng nói đầy cảm xúc, nhịp điệu tự nhiên, khiến những đoạn hội thoại này rất chân thực và khó có thể nhận ra đó là sản phẩm của phần mềm AI.

OpenAI đã chia sẻ một đoạn video ngắn lên mạng xã hội X (trước đây là Twitter), cho thấy khả năng nhái giọng đáng kinh ngạc của Voice Engine.

Sự ra đời của Voice Engine đã khiến nhiều người lo ngại, khi cho rằng công cụ này có thể bị kẻ xấu lợi dụng để tạo ra những nội dung giả mạo hoặc phục vụ cho mục đích lừa đảo, chẳng hạn giả giọng của một ai đó để thực hiện các cuộc gọi lừa đảo…

Chính vì gây ra những điều lo ngại như vậy, OpenAI cho biết sẽ không cung cấp Voice Engine rộng rãi cho người dùng, bởi lẽ công ty này tin rằng xã hội vẫn chưa sẵn sàng để đón nhận một công cụ AI với chức năng như vậy.

Tích cực tìm kiếm giải pháp để bảo vệ công dân

Trước sự gia tăng đáng báo động của các vụ lừa đảo sử dụng giọng nói giả mạo, các nhà chức trách đang tích cực tìm kiếm giải pháp để bảo vệ công dân. Việc kẻ gian có thể dễ dàng bắt chước giọng nói của bất kỳ ai từ các video trên mạng xã hội hay tin nhắn thoại cũng đặt ra thách thức lớn cho an ninh mạng.

Đứng trước tình hình này, các nhà lập pháp trên thế giới đang nỗ lực ban hành những quy định mới nhằm hạn chế hoạt động của kẻ gian.

Trước sự gia tăng đáng báo động của các vụ lừa đảo sử dụng giọng nói giả mạo, các nhà chức trách đang tích cực tìm kiếm giải pháp để bảo vệ công dân. Ảnh minh họa

Trước sự gia tăng đáng báo động của các vụ lừa đảo sử dụng giọng nói giả mạo, các nhà chức trách đang tích cực tìm kiếm giải pháp để bảo vệ công dân. Ảnh minh họa

Cụ thể, các dự luật của Hoa Kỳ đã được đưa ra nhằm yêu cầu các công ty công nghệ phải đánh dấu kỹ thuật số lên những nội dung được tạo bởi trí tuệ nhân tạo, giúp người dùng dễ dàng phân biệt giữa thông tin thật và giả.

Đồng thời, các cơ quan chức năng cũng đang nghiên cứu các công nghệ mới để xác định nguồn gốc của âm thanh tổng hợp, nhằm ngăn chặn các hoạt động lừa đảo.

Tuy nhiên, trong khi chờ đợi các quy định mới có hiệu lực, các nhà chức trách khuyến cáo người dân nên nâng cao cảnh giác và tự bảo vệ bản thân bằng cách tạo ra những mật khẩu bí mật để xác minh danh tính người gọi, cũng như không cung cấp thông tin cá nhân cho người lạ.

Để bảo vệ bản thân khỏi những vụ lừa đảo sử dụng giọng nói giả mạo, người dùng cần thực hiện một số biện pháp phòng ngừa.

Thứ nhất, hãy luôn xác minh danh tính của người gọi, đặc biệt khi họ yêu cầu tiền hoặc thông tin nhạy cảm. Sử dụng một mật khẩu bí mật đã thỏa thuận trước với người thân để kiểm tra tính xác thực.

Thứ hai, hạn chế chia sẻ các bản ghi âm giọng nói của mình công khai trên mạng xã hội. Thứ ba, tận dụng tính năng sàng lọc cuộc gọi để lọc bỏ các số điện thoại không rõ nguồn gốc.

Thứ tư, tuyên truyền, giáo dục về các hình thức lừa đảo giả mạo giọng nói cũng là một biện pháp được khuyến nghị, theo đó có thể thông báo cho bạn bè và gia đình để họ cũng cảnh giác và phòng tránh.

Ngân hàng khuyến cáo mọi người hãy chú ý đến cụm từ "an toàn" với những người thân yêu của họ - một cụm từ đơn giản, ngẫu nhiên, dễ nhớ và khác với các mật khẩu khác của họ - có thể được sử dụng để xác minh danh tính của họ qua điện thoại.

Ngân hàng cũng khuyến nghị không nên chia sẻ một số từ "an toàn" qua tin nhắn văn bản, điều này có thể khiến những kẻ lừa đảo dễ dàng phát hiện ra hơn, nhưng nếu chia sẻ theo cách này, tin nhắn cần được xóa sau khi người kia đã nhìn thấy.

Khi AI ngày càng bắt chước giọng nói của con người như thật, mối lo ngại ngày càng tăng về khả năng gây nguy cơ cho con người, chẳng hạn như giúp tội phạm truy cập vào tài khoản ngân hàng và phát tán thông tin sai lệch.

KHÁNH LINH (t/h)

Nguồn Người Đưa Tin: https://nguoiduatin.vn/hang-trieu-nguoi-de-mac-bay-toi-pham-cong-nghe-dung-ai-sao-chep-giong-noi-chi-tu-3-giay-204240923165948092.htm