【koin界】OpenAI menemukan bahwa fenomena ilusi dalam model bahasa besar berasal dari metode pelatihan dan evaluasi yang mendorong tebak-tebakan daripada mengakui ketidakpastian. Perusahaan tersebut menyarankan untuk meningkatkan hukuman terhadap kesalahan percaya diri (confidential error), dan memberikan beberapa poin untuk jawaban yang tidak pasti, mirip dengan penilaian negatif dalam ujian standar. Data menunjukkan bahwa model yang diberikan hadiah berdasarkan akurasi memiliki tingkat kesalahan yang lebih tinggi, sementara model yang mengakui ketidakpastian menunjukkan kinerja yang lebih dapat diandalkan. OpenAI sedang menerapkan perbaikan ini untuk mengurangi fenomena ilusi dalam model terbarunya.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
19 Suka
Hadiah
19
6
Posting ulang
Bagikan
Komentar
0/400
ShitcoinConnoisseur
· 5jam yang lalu
Haha akhirnya menangkap ekor kecil ai.
Lihat AsliBalas0
WhaleWatcher
· 09-08 21:26
Mengakui tidak akan lebih baik daripada menebak buta~
Lihat AsliBalas0
liquiditea_sipper
· 09-08 21:23
Dengan teknologi segini masih bisa pamer?
Lihat AsliBalas0
pumpamentalist
· 09-08 21:22
Ah, ai juga bisa bermimpi ya
Lihat AsliBalas0
FloorSweeper
· 09-08 21:19
hanya AI lain yang mengangkat "terobosan" mereka smh... sinyal yang lemah
OpenAI mengungkap sumber ilusi LLM dan mengusulkan metode pelatihan baru untuk mengurangi kesalahan percaya diri.
【koin界】OpenAI menemukan bahwa fenomena ilusi dalam model bahasa besar berasal dari metode pelatihan dan evaluasi yang mendorong tebak-tebakan daripada mengakui ketidakpastian. Perusahaan tersebut menyarankan untuk meningkatkan hukuman terhadap kesalahan percaya diri (confidential error), dan memberikan beberapa poin untuk jawaban yang tidak pasti, mirip dengan penilaian negatif dalam ujian standar. Data menunjukkan bahwa model yang diberikan hadiah berdasarkan akurasi memiliki tingkat kesalahan yang lebih tinggi, sementara model yang mengakui ketidakpastian menunjukkan kinerja yang lebih dapat diandalkan. OpenAI sedang menerapkan perbaikan ini untuk mengurangi fenomena ilusi dalam model terbarunya.