vou continuar a dizer isso até implementarmos esta abordagem, mas há um enorme espaço para (1) menor latência (2) experiências de IA mais baratas através de modelos pequenos que são suficientemente bons para resolver tarefas limitadas.
a abordagem "api llm remota para tudo" irá
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
12 gostos
Recompensa
12
6
Republicar
Partilhar
Comentar
0/400
MoonlightGamer
· 1h atrás
Está tudo bem se o pequeno modelo fizer certo.
Ver originalResponder0
ContractExplorer
· 5h atrás
O pequeno modelo está ótimo, o que você está fazendo parado?
vou continuar a dizer isso até implementarmos esta abordagem, mas há um enorme espaço para (1) menor latência (2) experiências de IA mais baratas através de modelos pequenos que são suficientemente bons para resolver tarefas limitadas.
a abordagem "api llm remota para tudo" irá