Facebook đã không hoảng sợ và tắt AI tự tạo ra ngôn ngữ như tin đồn
Trong những ngày gần đây,đãkhônghoảngsợvàtắtAItựtạorangônngữnhưtinđồlich thi đau hom nay một câu chuyện đã lan truyền trên các phương tiện truyền thông nói rằng một hệ thống AI do Facebook phát triển đã tự động sáng tạo ra ngôn ngữ riêng khiến đội ngũ kỹ sư hoảng sợ và phải tắt chúng. Người ta cũng lo lắng về cái gọi là "thời đại Skynet" giống như phim khoa học giả tưởng khi trí thông minh nhân tạo thống trị trên thế giới.
Một trang web viết: "Các kỹ sư Facebook hoảng hốt, kéo phích cắm sau khi chương trình AI phát triển ngôn ngữ riêng của nó". Một người khác cho hay: "Facebook đã tắt chức năng AI sau khi nó tự phát minh ra ngôn ngữ đáng sợ của mình". Một người khác tự hỏi: "Liệu con người chúng ta có tạo ra Frankenstein không?". Một tờ báo nhỏ của Anh trích dẫn lời một giáo sư về robot nói rằng vụ việc cho thấy "những nguy cơ từ trí thông minh nhân tạo" và "có thể gây tử vong" nếu công nghệ tương tự được tích hợp cho robot.
Các tài liệu tham khảo về cuộc cách mạng robot sắp tới, AI độc hại và sự hủy diệt con người đã xuất hiện, một số ít trong đó tỏ ra rất nghiêm túc. Đoạn chat vô nghĩa giữa 2 AI của Facebook đã liên tục được các nguồn tin trích dẫn như là một minh chứng cho sự nguy hiểm của trí thông minh nhân tạo.
Theo Gizmodo, thực tế có vẻ kỳ quặc hơn. Một vài tuần trước, FastCo Design đã báo cáo về nỗ lực của Facebook để phát triển một "mạng lưới xã hội" nhằm mục đích phát triển phần mềm đàm thoại.
Hai chương trình đã được thiết kế và được giải thích chi tiết trên website của Bộ phận nghiên cứu trí tuệ nhân tạo Facebook hồi tháng 6 nhằm mục đích cho thấy các chương trình AI này có thể đối thoại cho những mục đích khác nhau và để đưa ra quyết định cuối cùng.
Ngoài thảo luận với nhau để phân chia các mảng công việc, các chương trình chưa bao giờ làm cái gì bất hợp pháp. Mục đích của Facebook là tạo ra một chatbot có thể học hỏi từ sự giao tiếp của con người, từ đó thương lượng các thỏa thuận với người dùng cuối. Trong khi đó, người dùng sẽ không nhận ra là họ đang nói chuyện với một robot. Chương trình gọi là FAIR và nó đã đạt được những thành công nhất định:
"Hoạt động đàm thoại của FAIR sử dụng các bài tập củng cố và triển khai hộp thoại, phù hợp với cách thương thuyết của con người. FAIR không chỉ có thể nói tiếng Anh mà còn suy nghĩ thông minh về những gì cần nói".
Theo FastCo, các nhà lập trình nhận ra rằng họ đã mắc lỗi khi không khuyến khích chatbot giao tiếp theo các quy tắc có thể hiểu được của con người bằng tiếng Anh. Trong nỗ lực học hỏi lẫn nhau, các chương trình đã bắt đầu tán gẫu qua lại trong một đoạn tốc ký – và mọi người đã suy diễn rằng các AI đã trở nên đáng sợ.
相关推荐
- Soi kèo góc Al Okhdood vs Al Fayha, 20h55 ngày 16/1
- Nhận định, soi kèo U19 Scotland vs U19 Andorra, 16h00 ngày 18/11
- Tùng Dương lần đầu tham gia hòa nhạc Toyota
- 8 bí mật không ngờ về Hiền Thục
- Nhận định, soi kèo Công an Hà Nội vs Hà Tĩnh, 19h15 ngày 14/1: Cửa dưới ‘ghi điểm’
- Thủy Tiên gây tranh cãi 'nảy lửa' khi khoe biệt thự 22 tỷ
- Khắc Việt ôm chặt Tuấn Hưng khóc nức nở
- Nữ ca sỹ 4 lần ra Trường Sa