Sự nguy hiểm từ AI tạo ảnh đồi trụy

Khuôn mặt của hàng tỷ người thật, đăng tải trên mạng xã hội, vô tình trở thành nguyên liệu cho AI tạo ảnh khiêu dâm.

“Hôm nay tôi cảm thấy xinh”, bài đăng của Claudia trên Reddit viết. Đính kèm là một bức ảnh phụ nữ có tóc mái đen, thẳng và đôi mắt xanh. Chiếc áo của nhân vật để hở một khoảng ngực nhưng không quá nhiều. Claudia cũng hứa hẹn sẽ bán ảnh khỏa thân cho những người nhắn tin riêng.

Claudia thực ra chỉ là các bức ảnh do AI tạo ra. Dù vậy, 2 sinh viên khoa học máy tính vận hành tài khoản nói với Rolling Stone rằng họ đã kiếm được 100 USD bằng cách bán những bức ảnh khỏa thân của "Claudia" cho người dùng mạng xã hội.

Bây giờ, tài khoản đã bị bại lộ nhưng họ vẫn tiếp tục đăng những bức ảnh khiêu dâm trên các subreddit bao gồm r/normalnudes và r/amihot.

 Các nhóm bán ảnh khiêu dâm do AI tạo ra nói rằng hình ảnh không có hại vì hoàn toàn là hư cấu, nhưng thực tế hình ảnh bắt nguồn từ quá trình đào tạo mô hình sử dụng hàng tỷ hình ảnh người thật. Ảnh: Rolling Stone.

Các nhóm bán ảnh khiêu dâm do AI tạo ra nói rằng hình ảnh không có hại vì hoàn toàn là hư cấu, nhưng thực tế hình ảnh bắt nguồn từ quá trình đào tạo mô hình sử dụng hàng tỷ hình ảnh người thật. Ảnh: Rolling Stone.

“Tài khoản này chỉ là một thử nghiệm để xem có thể đánh lừa mọi người bằng những bức ảnh AI hay không”, nhóm đứng sau Claudia, từ chối tiết lộ tên thật, cho biết. Họ cho rằng Claudia cũng giống như các vtuber, hay nhân vật ảo.

Biến tướng của công nghệ AI tạo ảnh

Claudia được tạo ra bởi Stable Diffusion, mô hình AI tạo ra hình ảnh từ yêu cầu dưới dạng văn bản. Trong trường hợp này, yêu cầu văn bản là "ảnh selfie của một người phụ nữ trong nhà cô ấy, không trang điểm với mái tóc đen, thẳng, mái bằng, dài ngang vai, phông nền đơn giản”.

Một trong những bức ảnh mà "Claudia" đăng lên Reddit để quảng cáo dịch vụ ảnh khỏa thân. Ảnh: Reddit.

Một trong những bức ảnh mà "Claudia" đăng lên Reddit để quảng cáo dịch vụ ảnh khỏa thân. Ảnh: Reddit.

Đây chỉ là một trong nhiều trường hợp nội dung khiêu dâm được tạo ra thông qua công nghệ AI. Trên Civitai, một công cụ được quảng cáo là “Mô hình Stable Diffusion dành cho những kẻ bệnh hoạn” có thể tạo ra “ảnh khiêu dâm chân thực" đã được tải xuống hơn 77.000 lần trong 3 tháng qua. Một số hình ảnh mẫu đã được tạo ra từ các yêu cầu “đôi mắt đen mơ màng”, “ham muốn” và “tuổi teen”.

Stability AI, công ty phát triển Stable Diffusion, cấm sử dụng công cụ để tạo ra những hình ảnh "mà một người bình thường có thể đánh giá là tục tĩu hoặc khiêu dâm”. Nhưng công ty này cho phép tải công cụ tạo ảnh xuống máy tính cá nhân, do đó không có cách nào ngăn cản người dùng tạo ra bất kỳ hình ảnh gì họ muốn.

Một người xem ảnh khiêu dâm AI, yêu cầu ẩn danh, nói với The Washington Post rằng đã sử dụng các công cụ Stable Diffusion để tạo ra những bức ảnh phụ nữ trưởng thành mặc tã. “Tôi không nghĩ những người xem những thứ này quan tâm thật giả", người này cho biết.

Nhiều người lo ngại về deepfake, hình ảnh hoặc video sử dụng khuôn mặt của một người mà không có sự đồng ý của nhân vật. Những nội dung này dễ tìm thấy trên Reddit, Discord, Twitter. Thậm chí có các dịch vụ làm ảnh deepfake khiêu dâm ghép mặt theo yêu cầu, thường có giá từ 5 USD, theo NBC.

Trong khi nội dung khiêu dâm deepfake rõ ràng là bất hợp pháp, vì đã sử dụng hình ảnh của một cá nhân, mối nguy từ các hình ảnh khiêu dâm hoàn toàn do AI tạo ra lại không rõ ràng như vậy.

Mối nguy hiểm cho bất kỳ ai có ảnh trên mạng

“Deepfake là vấn đề nguy hiểm nhưng khá rõ ràng trắng đen, ảnh khiêu dâm hư cấu do AI tạo ra thì phức tạp hơn", Hany Farid, giáo sư khoa học máy tính tại Đại học California, Berkeley, cho biết.

 Hình ảnh phụ nữ do AI tạo ra được đưa lên nền tảng Civitai để làm sản phẩm mẫu. Ảnh: The Washington Post.

Hình ảnh phụ nữ do AI tạo ra được đưa lên nền tảng Civitai để làm sản phẩm mẫu. Ảnh: The Washington Post.

Những người thu lợi từ ảnh khiêu dâm AI lập luận rằng hình ảnh chỉ là hư cấu, cũng tương tự như các nhân vật hoạt hình hay ca sĩ, diễn viên ảo. “Người mua những bức ảnh hài lòng với giao dịch mua của họ vì họ đang tìm kiếm khiêu dâm, chúng tôi cũng chưa bao giờ nói rằng đó là những bức ảnh người thật", nhóm Claudia nói.

Nhưng trong khi hình ảnh là hư cấu và do AI tạo ra, thì hàng tỷ hình ảnh được sử dụng để đào tạo các mô hình AI đều là ảnh người thật, và hầu hết mọi người sẽ không cho phép sử dụng chân dung của mình theo cách này. Farid cho rằng sự thiếu đồng thuận này là một trong các vấn đề đạo đức.

Có thể xảy ra trường hợp người dùng đăng ảnh trên Facebook và sau đó nhận thấy một khuôn mặt do AI tạo ra có những nét rất giống mình, trong khi chưa có sự đồng ý của "chính chủ", chuyên gia cho biết.

Thông thường các trang nội dung người lớn có quy trình xác minh để đảm bảo rằng những người đóng góp nội dung không ở độ tuổi vị thành niên hoặc bị lợi dụng. Quy trình này hiện gần như không thể thực hiện được với các nội dung AI, đây cũng là lý do các sản phẩm như Claudia chỉ được bán "trao tay" trên mạng xã hội.

"Mục đích đằng sau quá trình xác minh này là đảm bảo không ai bị lợi dụng. Với nội dung AI, không thể xác nhận sự đồng thuận", một nguồn tin trong ngành công nghiệp nội dung người lớn cho biết.

Hoàng Nam

Nguồn Znews: https://zingnews.vn/su-nguy-hiem-tu-ai-tao-anh-doi-truy-post1421837.html