AI có thể gây thảm họa ‘cấp độ hạt nhân’?
Theo một cuộc khảo sát của Đại học Stanford, hơn một phần ba các nhà nghiên cứu tin rằng trí tuệ nhân tạo (AI) có thể dẫn đến một “thảm họa cấp độ hạt nhân”, nhấn mạnh những lo ngại trong lĩnh vực này về những rủi ro do công nghệ tiến bộ nhanh chóng gây ra.
Cuộc khảo sát này là một trong những phát hiện được nêu bật trong Báo cáo chỉ số AI năm 2023, do Viện trí tuệ nhân tạo lấy con người làm trung tâm của Stanford phát hành, khám phá những phát triển, rủi ro và cơ hội mới nhất trong lĩnh vực AI đang phát triển.
Các tác giả của báo cáo cho biết: “Các hệ thống này thể hiện khả năng trả lời câu hỏi và tạo văn bản, hình ảnh và bộ mã không thể tưởng tượng được cách đây một thập kỷ và chúng vượt trội trên nhiều tiêu chuẩn. Tuy nhiên, chúng rất dễ bị ảo giác, thường có thành kiến và có thể bị lừa phục vụ các mục tiêu bất chính, làm nổi bật những thách thức đạo đức phức tạp liên quan đến việc triển khai chúng”.
Báo cáo của Standford, được công bố vào đầu tháng này, được đưa ra trong bối cảnh ngày càng có nhiều lời kêu gọi quy định về AI sau những tranh cãi từ một vụ tự sát liên quan đến chatbot cho đến các video deepfake về Tổng thống Ukraine Volodymyr Zelenskyy dường như đã đầu hàng trước các lực lượng Nga xâm lược.
Tháng trước, Elon Musk và đồng sáng lập Apple Steve Wozniak nằm trong số 1.300 người ký vào một bức thư ngỏ kêu gọi tạm dừng 6 tháng việc đào tạo các hệ thống AI vượt quá khả năng của chatbot GPT-4 vì “các hệ thống AI mạnh mẽ chỉ nên được phát triển một khi chúng ta tin tưởng rằng tác động của chúng sẽ tích cực và rủi ro của chúng sẽ có thể kiểm soát được”.
Trong cuộc khảo sát được nêu bật trong Báo cáo chỉ số AI năm 2023, 36% các nhà nghiên cứu cho biết các quyết định do AI đưa ra có thể dẫn đến thảm họa cấp độ hạt nhân, trong khi 73% cho biết chúng có thể sớm dẫn đến “sự thay đổi xã hội mang tính cách mạng”.
Cuộc khảo sát đã thu thập ý kiến từ 327 chuyên gia về xử lý ngôn ngữ tự nhiên, một nhánh của khoa học máy tính để phát triển các chatbot như GPT-4, từ tháng 5 đến tháng 6 năm ngoái, trước khi ChatGPT được phát hành vào tháng 11.
Báo cáo của Stanford cũng lưu ý rằng số lượng “sự cố và tranh cãi” liên quan đến AI đã tăng 26 lần trong thập kỷ qua.
Các động thái của chính phủ để điều chỉnh và kiểm soát AI đang đạt được thành công.
Cơ quan quản lý không gian mạng của Trung Quốc trong tuần này đã công bố dự thảo quy định cho AI tổng quát, công nghệ đằng sau GPT-4 và các đối thủ trong nước như Tongyi Qianwen của Alibaba và ERNIE của Baidu, để đảm bảo công nghệ này tuân thủ “giá trị cốt lõi của chủ nghĩa xã hội” và không làm suy yếu chính phủ.
Liên minh châu Âu đã đề xuất “Đạo luật Trí tuệ Nhân tạo” để quản lý loại AI nào được chấp nhận sử dụng và loại nào nên bị cấm.
Sự cảnh giác của công chúng Mỹ về AI vẫn chưa chuyển thành các quy định của liên bang, nhưng chính quyền Biden tuần này đã thông báo khởi động các cuộc tham vấn cộng đồng về cách đảm bảo rằng “các hệ thống AI là hợp pháp, hiệu quả, có đạo đức, an toàn và đáng tin cậy”.
Duy Thuận