A evolução da IA é de nível exponencial, nada linear
A nova publicação do DeepSeek apresenta o sistema de raciocínio DualPath, que quase duplica a capacidade de processamento de cargas de trabalho de agentes inteligentes 27 de fevereiro de notícias, enquanto a indústria aguarda ansiosamente o novo modelo flagship DeepSeek V4, a equipa do DeepSeek lançou silenciosamente um novo artigo académico. O novo artigo apresenta um sistema de raciocínio inovador chamado DualPath, especificamente otimizado para o desempenho de inferência de grandes modelos (LLM) sob cargas de trabalho de agentes inteligentes. Ao introduzir o mecanismo de “leitura de KV-Cache de duplo caminho (semelhante a uma memória cache)”, redistribui a carga na rede de armazenamento, elevando o throughput de inferência offline até 1,87 vezes, e aumentando em média o número de agentes em execução por segundo em serviços online em 1,96 vezes. Na introdução do artigo, é mencionado que os grandes modelos estão a evoluir rapidamente de chatbots de uma única rodada e modelos de raciocínio independentes para sistemas de agentes — capazes de planear autonomamente, chamar ferramentas e resolver tarefas reais através de múltiplas interações. Esta mudança de paradigma na aplicação impulsiona uma transformação significativa na carga de trabalho de inferência de grandes modelos: de uma interação tradicional humano-grande modelo para uma interação humano-grande modelo-ambiente, com dezenas ou até centenas de rodadas de interação.$BTC {spot}(BTCUSDT)
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
A evolução da IA é de nível exponencial, nada linear
A nova publicação do DeepSeek apresenta o sistema de raciocínio DualPath, que quase duplica a capacidade de processamento de cargas de trabalho de agentes inteligentes
27 de fevereiro de notícias, enquanto a indústria aguarda ansiosamente o novo modelo flagship DeepSeek V4, a equipa do DeepSeek lançou silenciosamente um novo artigo académico. O novo artigo apresenta um sistema de raciocínio inovador chamado DualPath, especificamente otimizado para o desempenho de inferência de grandes modelos (LLM) sob cargas de trabalho de agentes inteligentes. Ao introduzir o mecanismo de “leitura de KV-Cache de duplo caminho (semelhante a uma memória cache)”, redistribui a carga na rede de armazenamento, elevando o throughput de inferência offline até 1,87 vezes, e aumentando em média o número de agentes em execução por segundo em serviços online em 1,96 vezes. Na introdução do artigo, é mencionado que os grandes modelos estão a evoluir rapidamente de chatbots de uma única rodada e modelos de raciocínio independentes para sistemas de agentes — capazes de planear autonomamente, chamar ferramentas e resolver tarefas reais através de múltiplas interações. Esta mudança de paradigma na aplicação impulsiona uma transformação significativa na carga de trabalho de inferência de grandes modelos: de uma interação tradicional humano-grande modelo para uma interação humano-grande modelo-ambiente, com dezenas ou até centenas de rodadas de interação.$BTC
{spot}(BTCUSDT)