【moeda】OpenAI descobriu que o fenômeno de alucinação em grandes modelos de linguagem se origina de seus métodos de treinamento e avaliação, que incentivam suposições em vez de reconhecer a incerteza. A empresa sugere aumentar a penalização por erros de confiança (confidential error) e atribuir pontos parciais a respostas incertas, semelhante à pontuação negativa em testes padronizados. Os dados mostram que modelos recompensados pela precisão têm uma taxa de erro mais alta, enquanto modelos que reconhecem a incerteza apresentam um desempenho mais confiável. A OpenAI está implementando essas melhorias para reduzir o fenômeno de alucinação em seu modelo mais recente.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
19 Curtidas
Recompensa
19
6
Repostar
Compartilhar
Comentário
0/400
ShitcoinConnoisseur
· 36m atrás
Haha, finalmente consegui pegar a pontinha da AI.
Ver originalResponder0
WhaleWatcher
· 22h atrás
Reconhecer não é muito melhor do que adivinhar~
Ver originalResponder0
liquiditea_sipper
· 22h atrás
Com essa tecnologia toda, ainda estão a gabar-se?
Ver originalResponder0
pumpamentalist
· 22h atrás
Ah, até a inteligência artificial sonha!
Ver originalResponder0
FloorSweeper
· 22h atrás
apenas mais uma IA a exagerar seus "avanços" smh... sinais fracos
OpenAI revela a origem das alucinações LLM e propõe um novo método de treino para reduzir erros de confiança.
【moeda】OpenAI descobriu que o fenômeno de alucinação em grandes modelos de linguagem se origina de seus métodos de treinamento e avaliação, que incentivam suposições em vez de reconhecer a incerteza. A empresa sugere aumentar a penalização por erros de confiança (confidential error) e atribuir pontos parciais a respostas incertas, semelhante à pontuação negativa em testes padronizados. Os dados mostram que modelos recompensados pela precisão têm uma taxa de erro mais alta, enquanto modelos que reconhecem a incerteza apresentam um desempenho mais confiável. A OpenAI está implementando essas melhorias para reduzir o fenômeno de alucinação em seu modelo mais recente.