Trí tuệ nhân tạo: Mối đe dọa diệt vong và nghịch lý thời đại AI

CEO Sam Altman của OpenAI cho rằng công nghệ làm nền tảng cho sản phẩm nổi tiếng nhất của công ty trí tuệ nhân tạo này có thể dẫn đến sự kết thúc của nền văn minh nhân loại. Vậy tại sao ông và công ty của mình vẫn đang phát triển thứ 'vũ khí đáng sợ' này?

Vào tháng 5, CEO Altman đã nộp đơn lên Thượng viện Mỹ ở Washington, DC, với lời kêu gọi khẩn cấp tới các nhà lập pháp rằng: Bên cạnh việc tận dụng tính ưu việt của AI, thì chúng ta cũng cần sớm tạo ra các quy định chặt chẽ để giảm thiểu nguy cơ nó chế ngự loài người.

 Giao diện ChatGPT trên trang web. Ảnh: Shutterstock

Giao diện ChatGPT trên trang web. Ảnh: Shutterstock

“Rủi ro sâu sắc đối với xã hội và nhân loại”

Với sự ra mắt ChatGPT của OpenAI vào cuối năm ngoái, Altman, 38 tuổi, đã nổi lên chỉ sau một đêm với tư cách là người sáng tạo ra một loạt công cụ AI mới có thể tạo ra hình ảnh và văn bản theo yêu cầu của người dùng, một công nghệ được gọi là AI sáng tạo.

Không lâu sau khi phát hành, ChatGPT đã trở thành một cái tên quen thuộc. Các giám đốc đã sử dụng nó để soạn thảo email, mọi người xây dựng các trang web mà không có kinh nghiệm viết code trước đó và nó đã vượt qua các kỳ thi từ các trường luật và kinh doanh. Nó có khả năng cách mạng hóa gần như mọi ngành công nghiệp, bao gồm giáo dục, tài chính, nông nghiệp, truyền thông, báo chí và sức khỏe, từ phẫu thuật đến phát triển vắc xin y học.

Nhưng chính những công cụ đó đã làm dấy lên mối lo ngại về mọi thứ, từ gian lận trong trường học và tình trạng mất việc làm - thậm chí là cả mối đe dọa sự tồn vong của nhân loại.

Ví dụ, sự trỗi dậy của AI đã khiến các nhà kinh tế cảnh báo về thị trường lao động. Theo ước tính của Goldman Sachs, có tới 300 triệu việc làm toàn thời gian trên toàn thế giới cuối cùng có thể được tự động hóa theo cách nào đó bằng AI. Theo báo cáo tháng 4 của Diễn đàn Kinh tế Thế giới, khoảng 14 triệu việc làm có thể biến mất chỉ trong 5 năm tới.

Ngoài ra, trong lời điều trần trước Quốc hội Mỹ, Altman cho biết khả năng AI được sử dụng để thao túng cử tri và nhắm mục tiêu vào thông tin sai lệch là một trong “lĩnh vực mà tôi quan tâm nhất”.

Hai tuần sau phiên điều trần, Altman đã cùng hàng trăm nhà khoa học, nhà nghiên cứu và lãnh đạo doanh nghiệp hàng đầu về AI đã ký một lá thư nêu rõ: “Giảm thiểu nguy cơ tuyệt chủng khỏi AI phải là ưu tiên toàn cầu, bên cạnh các rủi ro quy mô xã hội khác như đại dịch và chiến tranh hạt nhân”.

Lời cảnh báo đã được đưa tin rộng rãi trên báo chí và truyền thông. Và ngày càng nhiều người cho rằng cần phải xem xét những kịch bản tận thế như vậy một cách nghiêm túc hơn.

Nhưng có một nghịch lý lớn ở Thung lũng Silicon: Các CEO của một số công ty công nghệ lớn nhất đang nói với công chúng rằng AI có khả năng gây ra sự tuyệt chủng của loài người, song họ vẫn chạy đua đầu tư và triển khai công nghệ này đến hàng tỷ người dùng.

Altman từ lâu đã thể hiện mình là người quan tâm đến những rủi ro do AI gây ra và ông đã cam kết sẽ tiến về phía trước một cách có trách nhiệm. Ông là một trong số các CEO công nghệ gặp gỡ các nhà lãnh đạo Nhà Trắng, bao gồm Tổng thống Joe Biden và Phó Tổng thống Kamala Harris, để nhấn mạnh tầm quan trọng của việc phát triển AI có đạo đức và có trách nhiệm.

Tuy nhiên, như thế là chưa đủ. Những người khác muốn Altman và OpenAI hành động thận trọng hơn. Ngay cả Elon Musk, người đã giúp thành lập OpenAI trước khi tách khỏi nhóm, cùng hàng chục nhà lãnh đạo công nghệ, giáo sư và nhà nghiên cứu đã kêu gọi các phòng thí nghiệm trí tuệ nhân tạo như OpenAI ngừng đào tạo các hệ thống AI mạnh nhất trong ít nhất 6 tháng, với lý do “rủi ro sâu sắc đối với xã hội và nhân loại”.

Altman cho biết ông đồng ý với các phần của bức thư, bao gồm cả việc “mức an toàn phải tăng lên”, nhưng cho biết việc tạm dừng sẽ không phải là “cách tối ưu” để giải quyết các thách thức.

OpenAI vẫn đang đặt chân vào bàn đạp ga. Gần đây nhất, OpenAI và nhà thiết kế iPhone Jony Ive được cho là đang đàm phán để huy động 1 tỷ USD từ tập đoàn SoftBank của Nhật Bản cho một thiết bị AI thay thế điện thoại thông minh.

Liệu có thể tin vào Sam?

Khi bắt đầu OpenAI, Altman nói với CNN vào năm 2015 rằng ông muốn định hướng con đường của AI, thay vì lo lắng về những tác hại tiềm ẩn và không làm gì cả. “Tôi ngủ ngon hơn khi biết rằng bây giờ tôi có thể có một số ảnh hưởng”, ông tuyên bố.

Dẫu vậy, Altman cho biết ông vẫn lo ngại về công nghệ. “Tôi đã chuẩn bị cho sự sống còn”, ông ấy nói trong một bài báo năm 2016 trên tờ New Yorker, đồng thời lưu ý một số tình huống thảm họa có thể xảy ra, bao gồm cả “AI tấn công chúng ta”.

 CEO Sam Altman của OpenAI phát biểu trước Thượng viện Mỹ vào ngày 16 tháng 5 tại Washington, Mỹ. Ảnh: AP

CEO Sam Altman của OpenAI phát biểu trước Thượng viện Mỹ vào ngày 16 tháng 5 tại Washington, Mỹ. Ảnh: AP

“Nhưng tôi có súng, vàng, thuốc kháng sinh, pin, nước, mặt nạ phòng độc... và một vùng đất rộng lớn ở Big Sur mà tôi có thể bay tới”, ông tuyên bố và ám chỉ rằng cá nhân ông vẫn có thể sống sót nếu thảm họa xảy ra. Đó rõ ràng là một tuyên bố ích kỷ.

Có lẽ trong nỗ lực sâu rộng nhất cho đến nay, Tổng thống Biden vừa công bố một sắc lệnh hành pháp vào đầu tuần này, yêu cầu các nhà phát triển hệ thống AI mạnh mẽ chia sẻ kết quả kiểm tra độ an toàn của họ với chính quyền liên bang trước khi chúng được công bố ra công chúng, để xem liệu chúng gây nguy hiểm cho an ninh quốc gia, rủi ro về kinh tế hoặc sức khỏe hay không.

Sau phiên điều trần tại Thượng viện Mỹ, Emily Bender, giáo sư tại Đại học Washington và giám đốc Phòng thí nghiệm Ngôn ngữ học tính toán, bày tỏ lo ngại về tương lai của AI ngay cả khi nó được quản lý chặt chẽ. “Nếu họ thành thật tin rằng điều này có thể dẫn đến sự tuyệt chủng của loài người thì tại sao không dừng lại?”, bà tuyên bố.

Margaret O'Mara, nhà sử học công nghệ và giáo sư tại Đại học Washington, cho biết việc hoạch định chính sách tốt cần được thông tin từ nhiều quan điểm và lợi ích, không chỉ bởi một hoặc một vài người và được định hình dựa trên lợi ích của công chúng. O'Mara cho biết: “Thách thức với AI là chỉ có rất ít người và công ty thực sự hiểu cách nó hoạt động và ý nghĩa của việc sử dụng nó, giống như bom nguyên tử vậy”.

Bởi vậy, sẽ thật rủi ro nếu thế giới trông cậy vào Altman sẽ hành động vì lợi ích tốt nhất của nhân loại với một công nghệ mà chính ông ấy thừa nhận có thể là vũ khí hủy diệt hàng loạt và đã chuẩn bị sẵn nơi trú ẩn khi thảm họa xảy ra. Vả lại, dù thể nào ông ấy cũng chỉ là một con người, không phải siêu nhân hay đấng cứu thế!

Hoàng Hải (theo CNN, FT, Reuters)

Nguồn Công Luận: https://congluan.vn/tri-tue-nhan-tao-moi-de-doa-diet-vong-va-nghich-ly-thoi-dai-ai-post270736.html