Cảnh báo gia tăng lừa đảo bằng công nghệ Deepfake

Hiện nay, bằng công nghệ Deepfake (công nghệ ứng dụng AI), các đối tượng lừa đảo đã tạo ra những đoạn video với hình ảnh, khuôn mặt nhân vật giống hệt như hình ảnh người quen của nạn nhân, cùng với giọng nói đã được ghi âm sẵn, khiến nạn nhân tin tưởng, sau đó vay mượn của nạn nhân những khoản tiền lớn nhằm chiếm đoạt tài sản.

Sau khi nhận được cuộc gọi hình ảnh ngắn ngủi của em gái ở nước ngoài qua ứng dụng messenger, bà Đặng Thị Mai (phường Nguyễn Trãi, quận Hà Đông) nhận được tin nhắn nhờ rút sổ tiết kiệm và chuyển vào tài khoản lạ để trả nợ gấp. Tiền chuyển đi, bà mới chợt nhận ra sự việc có dấu hiệu lừa đảo và đi trình báo cơ quan công an.

Bà Đặng Thị Mai cho biết: "Tôi thấy đó là một cuộc điện thoại video có hình ảnh em tôi, giọng nói thì cũng giống. Sau khi tôi hỏi đã đi ngủ chưa, ở đầu dây bên kia trả lời mạng yếu quá, nghe không rõ, hình ảnh thì nhòe nên tôi đề nghị nhắn tin. Đầu dây bên kia bảo tôi rút sổ tiết kiệm để trả nợ cho người tên là Nguyễn Văn Linh. Sau đó khi chuyển qua ngân hàng, họ mới bảo phải hỏi rõ, lúc đó tôi mới nghĩ có thể mình bị lừa".

Các hội nhóm buôn bán video Deepfake hoạt động công khai trên facebook.

Các hội nhóm buôn bán video Deepfake hoạt động công khai trên facebook.

Chỉ cần gõ từ khóa deepfake trên Facebook, bạn sẽ tìm thấy ngay group Trao đổi buôn bán video về loại công nghệ này. Tại đây, các đối tượng ngang nhiên mời chào người mua về phần mềm giả danh hình ảnh, giọng nói của một cá nhân với chi phí không hề rẻ.

Một đối tượng đang bán phần mềm Deepfake công khai hướng dẫn và chào bán phần mềm: "Bạn chỉ cần cho một cái ảnh của người nào đấy mà bạn muốn fake, sau đó phần mềm sẽ tạo ra hình ảnh giống tới 95%, với giá mình đang bán là 17 triệu, bản mình đang bán là vĩnh viễn, bao update, miễn phí cài đặt, khi mà gặp lỗi gì thì bạn điện cho nhân viên bên mình để xử lý".

Tuy hình ảnh giống người thật tới 95%, nhưng vẫn có những dấu hiệu cho thấy một cuộc gọi video có thể là giả mạo. Bên cạnh thời gian gọi ngắn, thường ngắt giữa chừng, biểu hiện khuôn mặt của người gọi thiếu cảm xúc, tư thế lúng túng, không tự nhiên, hướng đầu và cơ thể không nhất quán, hoặc màu da bất thường, ánh sáng kì lạ và bóng đổ không đúng vị trí. Ngoài ra, âm thanh sẽ không đồng nhất với hình ảnh, có nhiều tiếng ồn hoặc không có âm thanh. Cuối cùng, mục tiêu chung nhắm đến là dụ chuyển tiền.

Trung tá Nguyễn Minh Hoàn, Phòng An ninh mạng và phòng, chống tội phạm sử dụng công nghệ cao - Công an TP. Hà Nội khuyến cáo: "Người dân tuyệt đối không nên chia sẻ những thông tin cá nhân hoặc các thông tin về tài khoản lên không gian mạng hoặc cho những người lạ mà mình tiếp xúc, nên thường xuyên tăng cường bảo mật cho những tài khoản mạng xã hội và tài khoản cá nhân".

Việc sử dụng công nghệ deepfake để lừa đảo trên không gian mạng có thể sẽ gia tăng trong thời gian tới. Bởi vậy, người dân cần nâng cao cảnh giác, bình tĩnh và chủ động xác thực bằng cách gọi điện thoại trực tiếp, hoặc gọi video ít nhất trên một phút để xác nhận rằng người mình đang nói chuyện là người thật, chứ không phải là sản phẩm của công nghệ. Bên cạnh đó, người dân nên theo dõi và cập nhật các thông tin, tình huống, dấu hiệu về lừa đảo trực tuyến trên các phương tiện thông tin đại chúng để phòng tránh.

Minh Thúy

Nguồn Hà Nội TV: https://hanoionline.vn/video/canh-bao-gia-tang-lua-dao-bang-cong-nghe-deepfake-267555.htm