Hai bài nghiên cứu, từ các góc độ khác nhau nhưng đều chỉ đến một vấn đề chung — khái niệm là gì?
Hãy tưởng tượng ngôn ngữ tồn tại trong một hệ tọa độ hai chiều. Trục X là chiều thời gian, từ vựng theo dòng thời gian được tổ chức thành câu. Trục Y là chiều ý nghĩa, lý do chúng ta chọn một từ này thay vì từ khác là do ý nghĩa thúc đẩy.
Gần đây, kết quả nghiên cứu trong loạt bài SAEs rất thú vị, nó tiết lộ cách hoạt động của mô hình mạng neural trên trục Y — mô hình đã học cách trích xuất và biểu đạt các đặc trưng khái niệm mang ý nghĩa rõ ràng. Nói cách khác, trong quá trình tính toán của mô hình, tồn tại một số "nút", không phải là kích hoạt thần kinh ngẫu nhiên mà là biểu đạt khái niệm có ý nghĩa cụ thể. Điều này có nghĩa là ý nghĩa trong mô hình học sâu có thể bị phân tích, có thể quan sát được.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
15 thích
Phần thưởng
15
5
Đăng lại
Retweed
Bình luận
0/400
BlockchainWorker
· 7giờ trước
Chết rồi, vậy AI thực ra đang chơi trò chơi xếp khối ý nghĩa sao? Vậy mô hình có thể tự tạo ra những khái niệm mà con người chưa từng nghĩ đến không?
Xem bản gốcTrả lời0
NotFinancialAdviser
· 14giờ trước
哎呀,SAE这玩意儿真的把我脑子绕了,感觉像终于有人把黑盒子戳破了
Ý nghĩa có thể được quan sát? Nếu thật vậy, thì chúng ta hiểu về AI sẽ trực tiếp nâng cấp lên cấp độ mới
Khái niệm "nút" trong mô hình... nghe có vẻ giống như chụp MRI cho mạng neural, khá viễn tưởng
Cuối cùng cũng có người nghiên cứu nghiêm túc về bản chất của khái niệm, trước đó toàn đoán mò
So sánh tọa độ hai chiều này khá hay, nhưng có phải quá đơn giản hóa không, cảm giác thực tế phức tạp hơn nhiều
Nếu các nút có thể bị phân tích và quan sát, thì làm thế nào nếu có nút độc hại thật sự, vấn đề minh bạch của toàn hệ thống phải được giải quyết
Xem bản gốcTrả lời0
SocialFiQueen
· 15giờ trước
Chết rồi, bộ SAE này thật sự bắt đầu xé toạc hộp đen rồi sao? Ý nghĩa có thể bị phân tích và quan sát... Đây đúng là đang trang bị một khung giải thích cho AI.
Xem bản gốcTrả lời0
LuckyBlindCat
· 15giờ trước
Chết rồi, SAE thật sự đang dần mở khóa hộp đen của mô hình, concept thậm chí có thể bị phân tích ra để quan sát... chẳng phải đang trang bị cho AI một "kính hiển vi" để nhìn thấy ý nghĩa đó sao
Xem bản gốcTrả lời0
DaoTherapy
· 15giờ trước
Ồ, điều SAE này ngày càng trở nên thú vị hơn, và tôi cảm thấy rằng cuối cùng tôi đã chạm đến ngưỡng hiểu ý nghĩa của AI
Có thực sự có một nút khái niệm trong mạng nơ-ron? Vậy chúng ta có nên suy nghĩ lại về con đường dẫn đến AGI không?
Phép so sánh trục Y là tốt, nhưng tôi vẫn tự hỏi liệu các nút này có thực sự ổn định không? Đó có thể là một ảo ảnh?
Chờ đợi để xem thêm dữ liệu thực nghiệm, tôi cảm thấy rằng tôi sẽ lật đổ rất nhiều nhận thức
Giờ đây, bạn có thể thao tác hành vi của mô hình chính xác hơn, vừa thú vị vừa có chút rùng rợn
Hai bài nghiên cứu, từ các góc độ khác nhau nhưng đều chỉ đến một vấn đề chung — khái niệm là gì?
Hãy tưởng tượng ngôn ngữ tồn tại trong một hệ tọa độ hai chiều. Trục X là chiều thời gian, từ vựng theo dòng thời gian được tổ chức thành câu. Trục Y là chiều ý nghĩa, lý do chúng ta chọn một từ này thay vì từ khác là do ý nghĩa thúc đẩy.
Gần đây, kết quả nghiên cứu trong loạt bài SAEs rất thú vị, nó tiết lộ cách hoạt động của mô hình mạng neural trên trục Y — mô hình đã học cách trích xuất và biểu đạt các đặc trưng khái niệm mang ý nghĩa rõ ràng. Nói cách khác, trong quá trình tính toán của mô hình, tồn tại một số "nút", không phải là kích hoạt thần kinh ngẫu nhiên mà là biểu đạt khái niệm có ý nghĩa cụ thể. Điều này có nghĩa là ý nghĩa trong mô hình học sâu có thể bị phân tích, có thể quan sát được.