Bức ảnh deepfake gây kinh ngạc

Nếu như trước kia, người nổi tiếng sợ những hình ảnh riêng tư của mình bị paparazzi công bố, giờ đây, họ còn lo AI có thể ghép khuôn mặt mình vào các bức ảnh không có thật.

 Hình ảnh Giáo hoàng Francis mặc áo phao trắng do AI tạo ra. Ảnh: CBS News.

Hình ảnh Giáo hoàng Francis mặc áo phao trắng do AI tạo ra. Ảnh: CBS News.

Vào tuần trước, một bức ảnh Giáo hoàng Francis mặc một chiếc áo phao lớn màu trắng đậm chất thời trang được chia sẻ rộng rãi trên mạng xã hội. Bức ảnh này không có thật, mà được tạo nên bởi phiên bản cập nhật của Midjourney - công cụ dựa trên trí tuệ nhân tạo (AI).

Đối với nhiều người, đây có thể là một trò đùa vui vẻ. Tuy nhiên, các chuyên gia về AI cho rằng trò đùa này có thể dẫn đến những hậu quả xấu trong tương lai, theo Wall Street Journal.

Nhiều nhà nghiên cứu chỉ ra bức ảnh là chỉ dấu cho thấy một “làn sóng tin giả” có thể sắp ập đến nhân loại, với các bức ảnh “nhân tạo” giờ đây giống thật hơn bao giờ hết. Ngay cả các chuyên gia đôi khi cũng không thể phân biệt giữa thật và giả.

“Tôi nghĩ (bức ảnh) rất xuất sắc”, ông Jeff Hancock, giáo sư truyền thông tại Đại học Stanford (Mỹ), nói. “Mọi thứ đều vừa vặn. Không có chỗ biến dạng nào có thể nhận thấy rõ ràng”.

Những bức ảnh nhân tạo

AI đang tham gia vào mọi khía cạnh của đời sống con người, từ làm việc nhà tới giáo dục hay y tế. Các công cụ như Midjourney, ChatGPT, DALL-E hay Stable Diffusion đang được mọi người sử dụng để “nhờ” AI viết ra các đoạn văn và thiết kế các bức ảnh, trước khi chia sẻ chúng rộng rãi trên các nền tảng trực tuyến.

Trong bối cảnh này, hình ảnh của những người nổi tiếng càng ngày càng dễ bị lợi dụng. Hồi năm ngoái, tài tử Leonardo DiCaprio và tỷ phú Elon Musk từng thấy mặt mình xuất hiện trên các quảng cáo mà chưa được xin phép trước. Trong khi đó, khuôn mặt diễn viên Emma Watson bị ghép vào các video gợi dục nhờ công nghệ deepfake.

“Một kẻ xấu trên Internet giờ đây có thể tạo ra những hình ảnh lừa đảo mà chỉ cần một vài động tác gõ phím và bấm chuột”, ông Andrew Owens, phó giáo sư về kỹ thuật điện và khoa học máy tính tại Đại học Michigan (Mỹ), chỉ ra.

 Tỷ phú Elon Musk từng bị sử dụng hình ảnh khuôn mặt để quảng cáo. Ảnh: Wall Street Journal.

Tỷ phú Elon Musk từng bị sử dụng hình ảnh khuôn mặt để quảng cáo. Ảnh: Wall Street Journal.

Tuần trước, hàng loạt hình ảnh về cảnh tượng cựu Tổng thống Mỹ Donald Trump bị bắt giữ được chia sẻ rộng rãi trên các nền tảng mạng xã hội. Trên thực tế, ông Trump không bị bắt, và các hình ảnh được tạo ra bởi các nền tảng AI - bao gồm Midjourney, công cụ chế ra hình ảnh Giáo hoàng Francis mặc áo phao trắng.

Khi các công cụ chế ảnh nhờ AI tiếp tục được cải thiện, những điểm yếu của các bức ảnh “nhân tạo” - như bàn tay thừa ngón hay đôi mắt bất bình thường - sẽ dần được khắc phục.

Ông Abhishek Gupta, nhà sáng lập kiêm nhà nghiên cứu chính tại Viện Đạo đức AI Montreal (Canada), cho rằng nếu người xem biết trước bức ảnh là giả, họ có thể cảnh giác và nhận ra những điểm bất thường. Tuy nhiên, tình hình sẽ khác khi họ không biết trước.

“Nếu bạn chỉ đang tìm kiếm, bạn sẽ cười thầm và tiếp tục lướt xuống thay vì đặt ra câu hỏi với bức ảnh”, ông Gupta nói.

Thật giả lẫn lộn

AI cũng đang khiến con người nghi ngờ cả những điều thực sự xảy ra. Khi Mickinzy Seneff, một sinh viên 21 tuổi tại Đại học California Santa Cruz (Mỹ), nhìn thấy video ngôi sao nhạc pop Harry Styles hôn người mẫu Emily Ratajkowski trên Twitter, cô cảm thấy có điểm bất thường.

Sau đó, cô thấy một bài đăng khác trên Twitter nhận định rằng đoạn video được sản xuất bởi AI. Seneff ban đầu tin tưởng bài đăng này. Theo cô, chất lượng của video quá kém, trong khi các nhân vật hành xử không tự nhiên.

Phải đến khi xem kỹ các bức ảnh khác từ nhiều góc độ khác nhau, Seneff mới tin đây là thật. “Tôi cảm thấy sợ hãi vì những thứ do AI tạo ra quá thật, trong khi những điều có thật lại bị cho là AI”, cô chia sẻ.

Cả Styles và Ratajkowski đều không bình luận về các hình ảnh, vốn xuất hiện lần đầu trên tờ Daily Mail.

 Hình ảnh ông Trump bị bắt giữ, cũng do AI tạo ra. Ảnh: Times.

Hình ảnh ông Trump bị bắt giữ, cũng do AI tạo ra. Ảnh: Times.

Lo ngại của Seneff không phải không có cơ sở. Năm 2019, một cuộc đảo chính đã nổ ra tại Gabon sau khi có tin đồn tổng thống nước này đã qua đời - và đoạn video chúc mừng năm mới được ông đăng tải trên mạng xã hội là sản phẩm của deepfake.

Theo giới chuyên gia, một khi gương mặt của các nhân vật trong ảnh không rõ ràng, khó có thể khẳng định chắc chắn bức ảnh có thật hay không. Trên lý thuyết, việc tạo ra những bức ảnh tĩnh ghi lại cảnh người nổi tiếng hẹn hò với nhau không mấy khó khăn.

“Với khả năng mạnh mẽ của máy tính, chúng ta có thể khiến các bức ảnh làm những gì mình muốn”, giáo sư Ari Lightman tại Đại học Cernegie Mellon (Mỹ) nói. “Chúng ta có thể xếp đặt chúng theo những cách nhất định hay lựa chọn trang phục - giống như với chiếc áo của giáo hoàng”.

Tuy nhiên, tạo ra những đoạn video đủ tốt để đánh lừa con người vẫn là nhiệm vụ tương đối khó đối với AI do mắt người có khả năng phát hiện những chuyển động bất thường dù là nhỏ nhất.

Tác hại của những tấm ảnh, đoạn phim giả tạo bởi AI không chỉ dừng lại trong việc xâm phạm quyền riêng tư của người nổi tiếng. Bà Baobao Zhang, chuyên gia khoa học chính trị tại Địa học Syracuse (Mỹ), cho biết bà từng thấy những bức ảnh giả mô phỏng sự kiện lịch sử có thật trên Reddit.

“Tôi nghĩ đây là nguy cơ thực sự trên mạng xã hội”, bà Zhang nói.

Trong khi đó, ông Lightman quan ngại AI có thể tạo ra những hình ảnh giúp các đối tượng xấu thao túng nền kinh tế. Ví dụ, hình ảnh vị giám đốc điều hành làm gì đó đáng ngờ có thể khiến cổ phiếu của cả một công ty sụt giảm giá trị. “Sẽ có lúc tác hại của tin giả với xã hội sẽ rõ ràng hơn”, ông bi quan.

Việt Hà

Nguồn Znews: https://zingnews.vn/buc-anh-deepfake-gay-kinh-ngac-post1418942.html