OpenAI, AI halüsinasyonlarının kök nedenlerini açıklayan ve bunları azaltmak için çözümler öneren "Dil Modelleri Neden Halüsinasyon Görür" başlıklı bir makale yayımladı.
- Dil modelleri, standart eğitim ve değerlendirme prosedürlerinin belirsizliği kabul etmekten çok tahmin yapmayı ödüllendirmesi nedeniyle yanıltıcı sonuçlar verir.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
13 Likes
Reward
13
6
Repost
Share
Comment
0/400
GasWastingMaximalist
· 18h ago
Her gün halüsinasyon görmek mümkün mü?
View OriginalReply0
TideReceder
· 18h ago
Tahminlerimin hepsi doğru, hahah
View OriginalReply0
WinterWarmthCat
· 18h ago
Bir sonraki sefer AI'ye boşuna uydurmaması gerektiğini öğret.
View OriginalReply0
AirdropLicker
· 18h ago
Ahaha, AI kendi kendini kurtarmaya başladı.
View OriginalReply0
ZKProofster
· 18h ago
*teknik olarak* şaşırtıcı değil. bu yüzden resmi doğrulama protokollerine ihtiyacımız var smh
OpenAI, AI halüsinasyonlarının kök nedenlerini açıklayan ve bunları azaltmak için çözümler öneren "Dil Modelleri Neden Halüsinasyon Görür" başlıklı bir makale yayımladı.
- Dil modelleri, standart eğitim ve değerlendirme prosedürlerinin belirsizliği kabul etmekten çok tahmin yapmayı ödüllendirmesi nedeniyle yanıltıcı sonuçlar verir.