【moeda】OpenAI descobriu que o fenômeno de alucinação em grandes modelos de linguagem se origina de seus métodos de treinamento e avaliação, que incentivam suposições em vez de reconhecer a incerteza. A empresa sugere aumentar a penalização por erros de confiança (confidential error) e atribuir pontos parciais a respostas incertas, semelhante à pontuação negativa em testes padronizados. Os dados mostram que modelos recompensados pela precisão têm uma taxa de erro mais alta, enquanto modelos que reconhecem a incerteza apresentam um desempenho mais confiável. A OpenAI está implementando essas melhorias para reduzir o fenômeno de alucinação em seu modelo mais recente.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
19 gostos
Recompensa
19
6
Republicar
Partilhar
Comentar
0/400
ShitcoinConnoisseur
· 1h atrás
Haha, finalmente consegui pegar a pontinha da AI.
Ver originalResponder0
WhaleWatcher
· 22h atrás
Reconhecer não é muito melhor do que adivinhar~
Ver originalResponder0
liquiditea_sipper
· 23h atrás
Com essa tecnologia toda, ainda estão a gabar-se?
Ver originalResponder0
pumpamentalist
· 23h atrás
Ah, até a inteligência artificial sonha!
Ver originalResponder0
FloorSweeper
· 23h atrás
apenas mais uma IA a exagerar seus "avanços" smh... sinais fracos
OpenAI revela a origem das alucinações LLM e propõe um novo método de treino para reduzir erros de confiança.
【moeda】OpenAI descobriu que o fenômeno de alucinação em grandes modelos de linguagem se origina de seus métodos de treinamento e avaliação, que incentivam suposições em vez de reconhecer a incerteza. A empresa sugere aumentar a penalização por erros de confiança (confidential error) e atribuir pontos parciais a respostas incertas, semelhante à pontuação negativa em testes padronizados. Os dados mostram que modelos recompensados pela precisão têm uma taxa de erro mais alta, enquanto modelos que reconhecem a incerteza apresentam um desempenho mais confiável. A OpenAI está implementando essas melhorias para reduzir o fenômeno de alucinação em seu modelo mais recente.