Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Introdução à negociação de futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Launchpad
Chegue cedo para o próximo grande projeto de token
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
0G Labs Relata Progresso Revolucionário em IA Descentralizada de 107B, Destacando Treino Eficiente em Custos e Planos de Código Aberto
Resumidamente
0G Labs anunciou que treinou o modelo DiLoCoX de 107 bilhões de parâmetros—mais grande do que o sistema da Bittensor—usando uma abordagem descentralizada eficiente em custos, e iniciou o retraining aberto com total transparência e planeamento de lançamento de código aberto.
O modelo, conhecido como DiLoCoX-107B, foi treinado em julho de 2025 usando tecnologia desenvolvida em parceria com a China Mobile, a maior operadora de rede móvel do mundo. Segundo uma pesquisa revisada por pares publicada no arXiv, o sistema atingiu níveis de eficiência de comunicação 357 vezes superiores aos métodos tradicionais AllReduce ao operar sobre conexões de internet padrão de 1 Gbps, sugerindo que o treinamento avançado de IA pode ser viável sem depender de infraestrutura de data center de alto custo.
Os resultados iniciais indicaram que arquiteturas de computação distribuída podem competir com abordagens centralizadas nos níveis mais altos de desenvolvimento de modelos. Enquanto empresas como OpenAI, Google e Meta investem pesadamente em grandes clusters de GPU, a 0G Labs relatou que sua estrutura distribuída poderia reduzir custos em aproximadamente 95%, com base em dados citados pela Forbes. O sistema opera através de nós descentralizados conectados por infraestrutura de internet amplamente disponível.
Em comparação, o modelo Covenant-72B da Bittensor, desenvolvido na sua rede Subnet 3 por um grupo de colaboradores, foi descrito como um avanço notável no campo de IA descentralizada. No entanto, a 0G Labs afirmou que seu trabalho anterior já demonstrou a viabilidade de treinar modelos em maior escala, apoiado por validação revisada por pares.
A empresa anunciou ainda que iniciou uma nova fase envolvendo o retraining público do DiLoCoX-107B, enfatizando transparência e uma estratégia de lançamento de código aberto. Este esforço visa estabelecer padrões mais claros para práticas verificáveis de desenvolvimento de IA.
Infraestrutura Completa para IA Verificável
Ao contrário de sistemas desenvolvidos principalmente para fins experimentais, o DiLoCoX-107B está integrado numa infraestrutura mais ampla baseada em blockchain, projetada para agentes de IA. Isto inclui uma pilha de produção com uma blockchain de camada um compatível com EVM, recursos de computação descentralizada, capacidades de armazenamento distribuído e uma camada de disponibilidade de dados de alto desempenho, posicionada como significativamente mais rápida e mais econômica do que soluções comparáveis, como as associadas à Ethereum.
A empresa afirmou que essa infraestrutura destina-se a suportar não apenas o treinamento de modelos, mas também inferência verificável, armazenamento seguro e processos de liquidação na cadeia, refletindo requisitos operacionais mais amplos para ecossistemas de agentes de IA.
O sistema incorpora várias abordagens técnicas, incluindo paralelismo de pipeline, coordenação de duplo otimizador entre atualizações locais e globais, sincronização atrasada para permitir treinamento contínuo e compressão adaptativa de gradiente para reduzir a sobrecarga de comunicação, mantendo a precisão do desempenho.
A 0G Labs indicou que o processo de retraining está atualmente em andamento e que todos os dados, metodologias e resultados relevantes serão divulgados ao longo de sua duração. O modelo final deverá ser lançado sob uma licença de código aberto, com acesso completo aos artefatos de treinamento.