Elon Musk và giới chuyên gia kêu gọi tạm dừng phát triển các hệ thống AI

Elon Musk và một nhóm các chuyên gia trí tuệ nhân tạo (AI) và giám đốc điều hành ngành đang kêu gọi tạm dừng sáu tháng trong việc phát triển các hệ thống mạnh hơn GPT-4 mới ra mắt của OpenAI, trong một bức thư ngỏ viện dẫn những rủi ro tiềm ẩn đối với xã hội và nhân loại.

Bức thư do tổ chức phi lợi nhuận Future of Life Institute phát hành và có chữ ký của hơn 1.000 người bao gồm cả Elon Musk, kêu gọi tạm dừng phát triển AI tiên tiến cho đến khi các giao thức an toàn dùng chung cho các thiết kế như vậy được phát triển, triển khai và kiểm toán bởi các chuyên gia độc lập.

Bức thư viết: “Các hệ thống AI mạnh mẽ chỉ nên được phát triển khi chúng tôi tin tưởng rằng tác động của chúng sẽ tích cực và rủi ro của chúng sẽ có thể kiểm soát được”. Bức thư nêu chi tiết những rủi ro tiềm ẩn đối với xã hội và nền văn minh do các hệ thống AI cạnh tranh với con người gây ra dưới hình thức gián đoạn kinh tế và chính trị, đồng thời kêu gọi các nhà phát triển hợp tác với các nhà hoạch định chính sách về quản trị và cơ quan quản lý.

Những người đồng ký kết bao gồm Giám đốc điều hành Stability AI Emad Mostaque, các nhà nghiên cứu tại DeepMind thuộc sở hữu của Alphabet, cũng như các nahf nghiên cứu AI lớn như Yoshua Bengio và Stuart Russell.

Theo sổ đăng ký minh bạch của Liên minh Châu Âu, Viện Tương lai của Cuộc sống chủ yếu được tài trợ bởi Quỹ Musk, cũng như Nhóm Founders Pledge có trụ sở tại London và Quỹ Cộng đồng Thung lũng Silicon.

Những lo ngại này được đưa ra khi lực lượng cảnh sát EU Europol vào thứ Hai đã nêu lên quan ngại về đạo đức và pháp lý đối với AI tiên tiến như ChatGPT, cảnh báo về khả năng lạm dụng hệ thống trong các nỗ lực lừa đảo, thông tin sai lệch và tội phạm mạng.

Trong khi đó, chính phủ Vương quốc Anh đã công bố các đề xuất về khung pháp lý “có thể thích ứng” xung quanh AI.

Cách tiếp cận của chính phủ, được nêu trong một bài báo chính sách được xuất bản vào thứ Tư, sẽ phân chia trách nhiệm quản lý trí tuệ nhân tạo (AI) giữa các cơ quan quản lý về nhân quyền, sức khỏe và an toàn cũng như cạnh tranh, thay vì tạo ra một cơ quan mới dành riêng cho công nghệ.

Sam Altman, giám đốc điều hành của OpenAI, đã không ký vào bức thư, theo một phát ngôn viên của Future of Life nói với Reuters. OpenAI đã không trả lời ngay lập tức yêu cầu bình luận.

Gary Marcus, giáo sư tại Đại học New York, người đã ký bức thư, cho biết: “Bức thư không hẳn hoàn hảo, nhưng tinh thần là đúng: chúng ta cần chậm lại cho đến khi hiểu rõ hơn về các tác động của AI. Chúng có thể gây ra tác hại nghiêm trọng… những người chơi lớn đang ngày càng trở nên bí mật về những gì họ đang làm, điều này khiến xã hội khó có thể chống lại bất kỳ tác hại nào có thể xảy ra”.

Bách Nam