Meta công bố robot Trí tuệ nhân tạo có thể học hỏi từ con người

Meta đã công bố hai tiến bộ trong việc phát triển robot Trí tuệ nhân tạo (AI) có thể thực hiện “các kỹ năng cảm biến đầy thách thức”.
Trong một thông cáo báo chí vào thứ Sáu, công ty đã thông báo rằng họ đã phát triển một cách để robot học hỏi từ các tương tác của con người trong thế giới thực “bằng cách đào tạo vỏ não thị giác nhân tạo từ một số lượng lớn các video”.
Các video đến từ bộ dữ liệu mã nguồn mở của Meta, trong đó cho thấy mọi người đang thực hiện các công việc hàng ngày như “đi chợ và nấu bữa trưa”.
Một cách mà nhóm Nghiên cứu trí tuệ nhân tạo trên Facebook (FAIR) của Meta đang làm việc để huấn luyện robot là phát triển vỏ não thị giác nhân tạo, mà ở người là vùng não cho phép các cá nhân chuyển đổi thị giác thành chuyển động.
Bộ dữ liệu được sử dụng để dạy robot, có tên Ego4D, chứa “các video kéo dài hàng nghìn giờ ” từ những người tham gia nghiên cứu thực hiện các hoạt động hàng ngày như nấu ăn, thể thao, dọn dẹp và thủ công.
Theo thông cáo báo chí, nhóm FAIR đã tạo ra “CortexBench”, bao gồm “17 nhiệm vụ cảm biến khác nhau trong mô phỏng, vận động, điều hướng cũng như thao tác khéo léo và di động”.
Công ty cho biết: “Môi trường trực quan trải dài từ các mặt phẳng phẳng vô hạn đến cài đặt trên mặt bàn cho đến các bản quét 3D chân thực của không gian trong nhà trong thế giới thực”.
Video do Meta chia sẻ cho thấy robot di chuyển các vật thể khác nhau từ vị trí này sang vị trí khác.
Nhóm FAIR cho biết họ có thể đạt được điều này bằng cách dạy robot Spot “di chuyển xung quanh một ngôi nhà không nhìn thấy, nhặt các đồ vật không đúng chỗ và đặt chúng vào đúng vị trí”. Khi được thử nghiệm, robot Spot đã sử dụng “khái niệm học được về những ngôi nhà trông như thế nào” để hoàn thành nhiệm vụ sắp xếp lại các đồ vật.
Như Nam