"Với bức tranh như chúng ta thấy hiện nay, có thể hình dung trong vòng 10 năm tới, hệ thống AI sẽ vượt qua trình độ kỹ năng chuyên gia trong hầu hết lĩnh vực và thực hiện nhiều hoạt động hiệu quả như một trong những tập đoàn lớn nhất hiện nay", nhóm lãnh đạo OpenAI, gồm Sam Altman, Greg Brockman và nhà khoa học trưởng Ilya Sutskever, mở đầu bài viết chung trên website công ty.
OpenAI nhấn mạnh các mô hình trí tuệ nhân tạo siêu phàm, hay siêu trí tuệ, có thể gây ra "nguy cơ hiện hữu" cho nhân loại trong một thập kỷ tới. Do đó, cần giảm thiểu rủi ro từ AI, nhưng không phải hạn chế mà là "phải có sự phối hợp và đối xử đặc biệt".
"Siêu trí tuệ sẽ mạnh hơn các công nghệ khác mà nhân loại từng đối mặt", bài nêu. "Chúng ta cuối cùng sẽ cần đến một tổ chức để kiểm soát siêu trí tuệ, tương tự Cơ quan Năng lượng Nguyên tử Quốc tế ở lĩnh vực nguyên tử. Bất kỳ nỗ lực phát triển AI nào cũng cần tuân theo cơ quan quốc tế có thẩm quyền".
Sam Altman nhiều lần cảnh báo về AI. Bản thân công nghệ này là một sự tiến bộ, nhưng nó có thể trở thành hiểm họa nếu rơi vào tay kẻ xấu, hoặc "có thể đi chệch hướng, tạo sai lầm và gây hại đáng kể cho thế giới nếu không được điều chỉnh hợp lý". Trong phiên điều trần trước Quốc hội Mỹ ngày 16/5, ông bày tỏ mong muốn hợp tác với chính phủ để ngăn chặn các kịch bản xấu trong tương lai, thúc đẩy việc thành lập một cơ quan giám sát công nghệ này.
Alman cũng kêu gọi những công ty đang phát triển AI công khai mô hình và dữ liệu cơ bản. Họ phải có giấy phép hoạt động và chứng minh được sự an toàn của sản phẩm trước khi phát hành ra công chúng. Các mô hình AI cũng cần được kiểm toán độc lập.
Sự xuất hiện của hàng loạt mô hình AI tạo sinh thời gian qua đang tạo ra những thay đổi lớn trong xã hội. Các công cụ này có thể tự sinh ra văn bản và hình ảnh trực quan, giúp bác sĩ giao tiếp với bệnh nhân, trả lời nhanh những câu hỏi phức tạp... Tuy nhiên, cuộc chạy đua giữa các công ty công nghệ lớn làm gia tăng mối lo ngại.
Tuần trước, CEO Google Sundar Pichai cũng đề nghị các nhà chức trách khẩn trương điều chỉnh quy tắc liên quan đến AI vì đây là "công nghệ sâu sắc nhất mà nhân loại đang phát triển ngày nay".
Hồi tháng 3, Elon Musk và nhiều chuyên gia công nghệ ký vào một lá thư kêu gọi ngừng phát triển mô hình AI mạnh hơn GPT-4 trong sáu tháng. Geoffrey Hinton, một trong những người tiên phong về AI, tuyên bố rời Google để có thể công khai cảnh báo về sự nguy hiểm của công nghệ này.