Resultados da pesquisa por "LLM"
10:27

EdgeX Labs lança oficialmente o EdgeX Cloud

Mensagem ChainCatcher, a EdgeX Labs lançou oficialmente o EdgeX Cloud. EdgeX Cloud é uma plataforma de computação em nuvem GPU projetada para Agentes de IA e grandes modelos de linguagem. EdgeX Cloud foca na construção de vantagens de custo, baixos custos de operação e suporte a múltiplos modelos, e as capacidades principais incluem: Ambiente de execução pré-configurado para LLM e Agente; Escalonamento elástico automático + Computação híbrida de nuvem e borda; Cobrança conforme a demanda para evitar desperdício de poder computacional; Implantação local/privada, atendendo a cenários sensíveis; Esta publicação significa que a infraestrutura de IA está a tornar-se mais rápida, mais leve e mais acessível.
Mais
CLOUD1.15%
13:47

Parceiro da a16z: Produtos LLM têm o potencial de serem disruptivos para o negócio de pesquisa

O sócio da a16z, Andrew Chen, levantou a questão nas redes sociais se o ChatGPT da OpenAI tem um potencial comercial surpreendente, enquanto discute o número médio de pesquisas por pessoa e a receita por exibição única, bem como o desempenho após a adoção do modelo de monetização de anúncios. Ele acredita que produtos com uma base de usuários semelhante à do navegador Firefox geram uma receita anual próxima de 1 bilhão de dólares em seu pico, e se o ChatGPT for gratuito, o número de usuários ativos mensais pode aumentar significativamente. Ao mesmo tempo, ele aponta que produtos semelhantes ao Large Language Models (LLM) têm o potencial de se tornar disruptores no setor de buscas.
Mais
  • 3
  • 1
07:22

O JPMorgan Chase lançou internamente uma ferramenta de IA exclusiva para analistas

BlockBeats News, on July 26th, according to Cointelegraph, investment banking giant JPMorgan is launching an internal version of an AI-powered product similar to ChatGPT called LLM Suite. This tool is primarily designed to assist analysts in writing, generating ideas, and summarizing documents. JPMorgan states that LLM Suite is a "ChatGPT-like product" that can work in collaboration with other internal systems handling sensitive financial information to enhance "general productivity".
17:33

AO lança o plano "AI on AO" e apresenta um grande modelo de linguagem de código aberto na cadeia

O ecossistema AO lançou o plano 'AI on AO', que apresenta grandes modelos de linguagem de código aberto na cadeia (LLM), não apenas LLMs, para a cadeia. Usando o Apus Network e o armazenamento permanente na cadeia Arweave, está construindo uma rede descentralizada e não confiável de GPU dedicada a fornecer capacidade de computação confiável, eficiente e de baixo custo para treinamento e inferência de AI. Os dados de AI na AO podem ser carregados no Arweave por meio do ArDrive.
Mais
AR2.19%
05:23
Dados do dia 12 de junho da Jinshi mostram que, de acordo com a pesquisa do instituto global de pesquisa de mercado TrendForce, o primeiro trimestre viu o início da temporada fraca tradicional para terminais de consumo. Embora houvesse ocasionais pedidos urgentes na cadeia de fornecimento, na maioria dos casos, era apenas reposição de estoque para clientes individuais, resultando em um impulso ligeiramente fraco. Ao mesmo tempo, a demanda por aplicações automotivas e de controle industrial foi afetada por fatores como inflação, conflitos geopolíticos e energia. Somente os servidores de IA se destacaram como um ponto brilhante na cadeia de fornecimento do primeiro trimestre, devido ao investimento maciço de gigantes CSP globais e à onda de construção de grandes modelos de linguagem (LLM) por parte das empresas. Com base nesses fatores, o valor trimestral da produção dos dez principais fabricantes de wafer do mundo no primeiro trimestre caiu 4,3% para 29,2 bilhões de dólares.
06:40
金十数据5月21日讯,A Lenovo lançou o primeiro PC da próxima geração com Qualcomm Snapdragon XElite - Lenovo YogaSlim7x e Lenovo ThinkPad T14s Gen6. De acordo com as informações, esses dois AIPC's com o novo processador Snapdragon XElite estão equipados com CPU Oryon de 12 núcleos, GPU Adreno e HexagonNPU dedicada. Com as novas funcionalidades avançadas da Microsoft e Copilot+, os usuários podem usar a função de modelo de linguagem de grande escala (LLM) mesmo offline.
12:18
🚀 A Competição Descentralizada de Dados de IA e LLM: #MASA# Trading está ao vivo, com recompensas de $40.000 em disputa! ⏳ 10h00min de 11 de abril de 18 (UTC) ✅ Negocie $MASA$ para compartilhar recompensas de $20.000 ✅ Exclusivo para Novos Utilizadores, Partilhe $10.000 Prize Pool ✅ Convide novos usuários, ganhe uma parte de $10.000 Detalhes: https://www.gate.io/article/35861 #Gateio# #MASA# #Trade#
MASA-0.48%
  • 13
00:50
PANews, 19 de março, a Nvidia anunciou hoje o lançamento da plataforma NVIDIA Blackwell para capacitar uma nova era de computação. A plataforma permite que instituições em todo o mundo construam e executem IA generativa em tempo real em modelos de linguagem de grande porte (LLMs) de trilhões de parâmetros com custo e consumo de energia até 25x menores do que a geração anterior. A arquitetura de GPU Blackwell é alimentada por seis tecnologias transformadoras de computação acelerada que permitirão avanços no processamento de dados, simulação de engenharia, automação de projeto eletrônico, design de drogas auxiliado por computador, computação quântica e IA generativa. O superchip NVIDIA GB200 Grace Blackwell conecta duas GPUs NVIDIA B200 Tensor Core a CPUs NVIDIA Grace por meio de uma interconexão chip-to-chip de 900GB/s de ultrabaixa potência. Em comparação com as GPUs NVIDIA H100 Tensor Core, o superchip GB200 oferece desempenho até 30x mais rápido para cargas de trabalho de inferência LLM e custo e consumo de energia até 25x mais baixos. Além disso, a NVIDIA também lançou um modelo de base geral para o campo da robótica chamado GR00T durante a conferência GTC em San Jose, EUA. Além disso, a Nvidia introduziu um novo computador para robótica, o Thor, que foi especificamente otimizado para desempenho, consumo de energia e tamanho. De acordo com relatos, a Nvidia espera que, através desta iniciativa, os robôs tenham cérebros mais inteligentes, para que possam fazer ações naturais de imitação observando o comportamento humano, o que melhorará muito a coordenação e flexibilidade das ações.
CORE1.96%
GTC-8.09%
09:00
A PANews informou em 13 de março que o Mirror L2 mudou oficialmente seu nome para Mirror Staking Protocol, que se concentrará mais em fornecer uma solução de staking BTC verdadeiramente descentralizada e segura para projetos BTC L2, garantindo que o BTC seja 100% transferido com segurança para L2 e compartilhado no BTC L2. O Mirror Staking Protocol usa o algoritmo Overlap Packet Multisig (MSG), que é gerenciado por centenas ou milhares de nós, equilibrando efetivamente a taxa de staking BTC, segurança e descentralização. O algoritmo foi publicado nos principais artigos da conferência. Esta também é uma prática de design de blockchain modular, gerando mBTC que é 1:1 atrelado ao BTC é compatível com EVM e foi habilitado com um mecanismo de retomada. O Mirror fornece uma solução de staking BTC absolutamente segura e descentralizada para projetos BTC L2, e os projetos Mirror e BTC L2 estão em um relacionamento colaborativo upstream e downstream. Se o projeto BTC L2 for comparado a um fabricante de veículos elétricos, o Mirror fornece um pacote de baterias, e se o projeto BTC L2 for um modelo grande (LLM), o Mirror é o centro de poder de computação. Mirror planeja construir TVL e ecossistema ao lado de outros projetos BTC L2 através da campanha "Stake Once, Earn Twice".
BTC0.36%
Depositar mais
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)