Resultados da pesquisa por "LLM"
2026-03-17
13:08

A Tether lança o framework BitNet LoRA, suportando o treino de grandes modelos em dispositivos móveis

Gate News informa que, a 17 de março, QVAC Fabric, subsidiária da Tether, lançou a primeira estrutura de micro-ajuste LoRA multiplataforma global dirigida ao BitNet da Microsoft (LLM de um bit), reduzindo significativamente os requisitos de memória de GPU e poder computacional para treino de grandes modelos. A estrutura suporta micro-ajuste LoRA e aceleração de inferência em Intel, AMD, Apple Silicon série M e GPUs móveis (incluindo Adreno, Mali e Apple Bionic).
Mais
07:09

Cofundador da Sentry questiona se LLM retarda a velocidade de desenvolvimento, afirmando que OpenClaw gera código excessivo e é difícil de salvar

O cofundador da Sentry, David Cramer, afirma que os grandes modelos de linguagem não melhoraram a produtividade, mas pelo contrário, resultaram na geração de código complexo que atrasa a velocidade de desenvolvimento. Ele questiona a abordagem de geração automática de código, argumentando que a qualidade da produção é inferior, especialmente em desenvolvimento incremental e consistência de estilo. Com base em sua experiência pessoal, ele aponta que a construção de software continua a ser difícil, e as mudanças ao nível psicológico afetaram as suas contribuições.
Mais
11:02

O Instituto de Tecnologia da Informação e Comunicação da China, em colaboração com universidades, descobriu e corrigiu a vulnerabilidade crítica de injeção de comandos OpenClaw

O Instituto de Telecomunicações da China e equipas universitárias descobriram uma vulnerabilidade de injeção de comandos acionada por LLM no módulo bash-tools do framework de código aberto OpenClaw durante uma auditoria. Os atacantes podem executar comandos remotos maliciosos através de engenharia social e roubar dados. O processo de divulgação de vulnerabilidades foi iniciado e foram apresentadas recomendações de correção.
Mais
09:32

Fundador Conjunto da AMI Labs Xie Saining: LLM é, em certa medida, "anti-Bitter Lesson", o modelo mundial é o futuro

Xie Saining criticou em entrevista a actual trajectória de desenvolvimento de IA centrada em grandes modelos de linguagem, argumentando que restringe a aprendizagem da IA sobre o mundo real e enfatizando as vantagens dos modelos de mundo. Ele acredita que criar agentes inteligentes capazes de sobreviver na realidade é mais desafiador, mencionando que AMII Labs se concentra na recolha de dados reais e planeia lançar óculos de IA inteligentes e robôs no futuro.
Mais
06:07

Subnet Bittensor concluiu pré-treinamento LLM de 720 mil milhões de parâmetros, TAO subiu 54,8% nas últimas duas semanas

A subnet Bittensor Templar completou o pré-treinamento do modelo de linguagem descentralizado Covenant-72B com 72 mil milhões de parâmetros a 10 de março. O modelo apresentou um desempenho excecional no teste MMLU, superando múltiplos modelos de referência centralizados. O projeto atraiu a colaboração de mais de 70 nós, com todos os pesos e pontos de verificação lançados sob licença Apache. Impactado por esta notícia, a Bittensor e o seu token registaram ganhos generalizados.
Mais
TAO-2,27%
03:37

ETH Zurich testou a capacidade de consenso de blockchain do AI Agent: taxa de sucesso de apenas 41,6%

A equipa de investigação do ETH Zürich testou a capacidade de consenso bizantino do Agente LLM, descobrindo que mesmo sem nós maliciosos, a taxa de consenso eficaz é de apenas 41,6%. À medida que o número de nós aumenta, a dificuldade de alcançar um acordo também aumenta, e a situação piora ainda mais com a adição de nós maliciosos. A conclusão do estudo indica que, atualmente, o Agente LLM não é confiável para consenso fiável, devendo a implantação descentralizada ser abordada com cautela.
Mais
ETH-5,6%
03:07

Andrej Karpathy lança projeto de código aberto autoresearch, que executa automaticamente cem vezes experimentos de treino de LLM

O fundador da Eureka Labs, Andrej Karpathy, lançou em código aberto em 8 de março o projeto autoresearch, que adota o modelo "humano escreve Markdown, IA escreve código", permitindo que os desenvolvedores definam direções de pesquisa através de program.md, com a IA otimizando o código de forma autônoma. Pode realizar cerca de 12 experimentos por hora, com 83 experimentos apresentados, dos quais 15 tiveram melhorias eficazes. O projeto é baseado em GPU NVIDIA e PyTorch, foi testado em H100 e segue a licença MIT.
Mais
06:54

A plataforma de agentes de IA Clawnch e a Bankr estabeleceram uma parceria, com a Bankr tornando-se o lançador subjacente para a emissão de seus tokens

Clawnch e Bankr estabelecem uma parceria estratégica, com a Bankr a tornar-se na plataforma subjacente para a emissão de tokens do Clawnch. Ao mesmo tempo, a gateway LLM da Bankr será uma parte central do novo projeto OpenClawnch do Clawnch. Esta colaboração visa fortalecer a infraestrutura do Clawnch, com as taxas de emissão de projetos a serem ajustadas de forma moderada.
Mais
03:10

Minara Skill v2 lançado: a solução tudo-em-um para o Web4.0 financeiro digital, a "alma" do AI Agent

A Minara lançou o Minara Skill v2, que aprimora as capacidades de finanças digitais do AI Agent, suportando gestão de ativos multi-chain, depósitos com cartão de crédito e outras funcionalidades, além de possibilitar transações Gasless, reduzindo a barreira de entrada. Ao mesmo tempo, integrou um LLM local para melhorar a privacidade nas conversas e a tomada de decisões de negociação.
Mais