Dua makalah penelitian, dari sudut pandang yang berbeda namun mengarah ke satu pertanyaan yang sama—apa itu konsep?
Bayangkan bahasa ada dalam sistem koordinat dua dimensi. Sumbu X adalah dimensi waktu, di mana kosakata diorganisasi menjadi kalimat seiring waktu mengalir. Sumbu Y adalah dimensi makna, di mana pilihan kita terhadap suatu kata dibandingkan dengan yang lain didorong oleh makna.
Baru-baru ini, hasil penelitian dari seri SAEs sangat menarik, karena mengungkapkan bagaimana model jaringan saraf bekerja di sumbu Y—model belajar mengekstrak dan mengekspresikan fitur konsep yang memiliki makna yang jelas. Dengan kata lain, dalam proses perhitungan model terdapat "simpul" tertentu, yang bukan sekadar aktivasi neural acak, melainkan ekspresi konsep yang memiliki makna tertentu. Ini berarti makna dalam model pembelajaran mendalam dapat dipecah dan diamati.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
14 Suka
Hadiah
14
4
Posting ulang
Bagikan
Komentar
0/400
NotFinancialAdviser
· 6jam yang lalu
哎呀, SAE ini benar-benar membuat saya bingung, rasanya seperti akhirnya ada yang memecahkan kotak hitam
Apakah maknanya bisa diamati? Jika benar begitu, pemahaman kita tentang AI langsung meningkat ke tingkat yang lebih tinggi
Konsep "node" internal model... terdengar seperti melakukan MRI pada jaringan saraf, cukup sci-fi
Akhirnya ada yang serius meneliti esensi konsep, sebelumnya semua cuma tebakan
Perbandingan koordinat dua dimensi memang bagus, tapi mungkin terlalu menyederhanakan, rasanya situasi nyata jauh lebih kompleks
Jika node bisa dipecah dan diamati, lalu bagaimana jika ada node berbahaya, masalah transparansi sistem harus diselesaikan
Lihat AsliBalas0
SocialFiQueen
· 6jam yang lalu
Wtf, apakah SAE ini benar-benar mulai menembus kotak hitam? Maknanya bisa dianalisis dan diamati... Ini benar-benar memberikan kerangka yang dapat dijelaskan untuk AI.
Lihat AsliBalas0
LuckyBlindCat
· 6jam yang lalu
Wtf, SAE ini benar-benar secara bertahap memecahkan kotak hitam model, konsepnya bahkan bisa dipecah dan diamati... Bukankah ini seperti memasang "mikroskop" makna pada AI?
Lihat AsliBalas0
DaoTherapy
· 6jam yang lalu
Aduh, hal-hal tentang SAE ini semakin menarik, rasanya akhirnya kita sudah menyentuh ambang pemahaman AI
Benarkah ada node concept di dalam jaringan saraf? Kalau begitu, apakah kita harus memikirkan kembali jalur implementasi AGI?
Perumpamaan sumbu Y ini bagus, tapi aku tetap ingin tahu apakah node-node ini benar-benar stabil? Apakah ini hanya ilusi?
Menunggu data eksperimen lebih banyak, rasanya banyak pemahaman yang harus direvisi
Sekarang kita bisa mengendalikan perilaku model dengan lebih tepat, sangat menegangkan sekaligus sedikit menakutkan
Dua makalah penelitian, dari sudut pandang yang berbeda namun mengarah ke satu pertanyaan yang sama—apa itu konsep?
Bayangkan bahasa ada dalam sistem koordinat dua dimensi. Sumbu X adalah dimensi waktu, di mana kosakata diorganisasi menjadi kalimat seiring waktu mengalir. Sumbu Y adalah dimensi makna, di mana pilihan kita terhadap suatu kata dibandingkan dengan yang lain didorong oleh makna.
Baru-baru ini, hasil penelitian dari seri SAEs sangat menarik, karena mengungkapkan bagaimana model jaringan saraf bekerja di sumbu Y—model belajar mengekstrak dan mengekspresikan fitur konsep yang memiliki makna yang jelas. Dengan kata lain, dalam proses perhitungan model terdapat "simpul" tertentu, yang bukan sekadar aktivasi neural acak, melainkan ekspresi konsep yang memiliki makna tertentu. Ini berarti makna dalam model pembelajaran mendalam dapat dipecah dan diamati.