【coin界】OpenAI keşfetti ki, büyük dil modellerindeki halüsinasyon fenomeni, belirsizliği kabul etmek yerine tahminleri teşvik eden eğitim ve değerlendirme yöntemlerinden kaynaklanmaktadır. Şirket, güvenilir hatalar (confidential error) için ceza uygulamasının artırılmasını ve belirsiz cevaplara kısmi puan verilmesini öneriyor, bu da standart testlerdeki negatif puanlamaya benziyor. Veriler, doğruluk ödülleri alan modellerin hata oranının daha yüksek olduğunu, belirsizliği kabul eden modellerin ise daha güvenilir performans sergilediğini gösteriyor. OpenAI, en son modelindeki halüsinasyon fenomenini azaltmak için bu iyileştirmeleri uygulamaya koyuyor.
View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
19 Likes
Reward
19
6
Repost
Share
Comment
0/400
ShitcoinConnoisseur
· 36m ago
Haha, nihayet AI'nın küçük kuyruğunu yakaladım.
View OriginalReply0
WhaleWatcher
· 22h ago
Kabul etmek, kör tahminden çok daha iyi olmayacak~
View OriginalReply0
liquiditea_sipper
· 22h ago
Bu kadar teknoloji ile hâlâ övünüyor musun?
View OriginalReply0
pumpamentalist
· 22h ago
Aha, ai de rüya görebilir.
View OriginalReply0
FloorSweeper
· 22h ago
sadece başka bir yapay zekanın "buluşlarını" abartması smh... zayıf sinyaller
OpenAI, LLM yanılsamalarının kökenini ortaya koydu ve aşırı güven hatalarını azaltmak için yeni bir eğitim yöntemi önerdi.
【coin界】OpenAI keşfetti ki, büyük dil modellerindeki halüsinasyon fenomeni, belirsizliği kabul etmek yerine tahminleri teşvik eden eğitim ve değerlendirme yöntemlerinden kaynaklanmaktadır. Şirket, güvenilir hatalar (confidential error) için ceza uygulamasının artırılmasını ve belirsiz cevaplara kısmi puan verilmesini öneriyor, bu da standart testlerdeki negatif puanlamaya benziyor. Veriler, doğruluk ödülleri alan modellerin hata oranının daha yüksek olduğunu, belirsizliği kabul eden modellerin ise daha güvenilir performans sergilediğini gösteriyor. OpenAI, en son modelindeki halüsinasyon fenomenini azaltmak için bu iyileştirmeleri uygulamaya koyuyor.