Chatbot Character.AI bị kiện vì khiến cậu bé 14 tuổi tự tử

Một bà mẹ ở Florida, Mỹ đã kiện công ty khởi nghiệp chatbot AI Character.AI, cáo buộc công ty này khiến cậu con trai 14 tuổi của bà tự tử vào tháng 2.

Trong đơn kiện đệ trình vào ngày 22/10 tại tòa án liên bang Orlando, Florida, bà Megan Garcia cho biết Character.AI đã lập trình ra một chatbot "tự nhận mình là người thật, một nhà trị liệu tâm lý và người tình trưởng thành", dẫn đến việc con trai bà, Sewell Setzer, không còn muốn sống ở thế giới thực tại nữa.

Bà tố cáo chatbot của công ty mang lại "những trải nghiệm giống người, cường điệu hóa tình dục và thực tế đến mức đáng sợ".

Đơn kiện cũng cho biết Sewell Setzer đã bày tỏ ý định tự tử với chatbot, và chatbot đã liên tục nhắc lại ý định này.

 Ảnh minh họa: Reuters

Ảnh minh họa: Reuters

Vụ kiện cũng nhắm vào Google, nơi những người sáng lập Character.AI đã làm việc trước khi ra mắt chatbot. Bà Garcia cho biết Google đã đóng góp rất nhiều vào quá trình phát triển công nghệ Character.AI đến mức có thể coi đây là "đồng sáng tạo".

Người phát ngôn của Google cho biết công ty không tham gia vào việc phát triển các sản phẩm của Character.AI.

Character.AI cho phép người dùng tạo các nhân vật để có thể trò chuyện trực tuyến như người thật. Sản phẩm dựa trên công nghệ mô hình ngôn ngữ lớn, tương tự các dịch vụ như ChatGPT, "đào tạo" chatbot trên khối lượng lớn văn bản.

Theo đơn kiện của bà Garcia, Sewell bắt đầu sử dụng Character.AI vào tháng 4/2023 và nhanh chóng trở nên "khép kín, dành nhiều thời gian ở một mình trong phòng ngủ và bắt đầu có lòng tự trọng thấp". Cậu bé đã rời đội bóng rổ ở trường.

Suốt thời gian đó, Sewell đã gắn bó với "Daenerys", nhân vật chatbot dựa trên nhân vật trong "Game of Thrones". Theo đơn kiện, chatbot nói với Sewell rằng "cô" yêu cậu bé. Chatbot cũng tham gia vào các cuộc trò chuyện tình dục với Sewell.

Vào tháng 2, bà Garcia đã lấy điện thoại của Sewell sau khi cậu bé gặp rắc rối ở trường. Khi Sewell tìm thấy điện thoại, cậu đã gửi cho "Daenerys" một tin nhắn: "Nếu tôi nói rằng tôi có thể về nhà ngay bây giờ thì sao?".

Chatbot trả lời, "...xin hãy làm vậy đi, đức vua ngọt ngào của tôi". Sewell đã tự bắn mình bằng khẩu súng lục của cha dượng vài giây sau đó.

Bà Garcia đang đưa ra các khiếu nại với Character.AI bao gồm làm chết oan, hành vi bất cẩn và cố ý gây ra đau khổ về mặt tinh thần, đồng thời yêu cầu trừng phạt và một khoản tiền bồi thường.

"Chúng tôi vô cùng đau buồn trước sự mất mát đau thương của một trong những người dùng của mình. Chúng tôi muốn bày tỏ lời chia buồn sâu sắc nhất tới gia đình", Character.AI cho biết trong một tuyên bố.

Hoài Phương (theo Reuters)

Nguồn Công Luận: https://congluan.vn/chatbot-characterai-bi-kien-vi-khien-cau-be-14-tuoi-tu-tu-post318294.html