Com $30 milhões em financiamento e apoiado por capital de primeira linha, como Hack VC, Multicoin Capital, Delphi Digital e Solana Lab, io.net não parece muito "de base". Os rótulos de poder de computação da GPU e revolução de IA estão longe de serem realistas, muitas vezes associados a conotações de alta qualidade.
No entanto, no meio das animadas discussões da comunidade, pistas cruciais são frequentemente ignoradas, especialmente no que diz respeito à transformação profunda que a io.net poderá trazer à rede global de poder de computação. Ao contrário da posição "elite" da AWS, Azure e GCP, a io.net segue essencialmente uma rota populista:
O objetivo é complementar a demanda de poder de computação "mid-tail + long-tail" ignorada, agregando recursos ociosos de GPU. Ao criar uma rede de computação distribuída descentralizada de nível empresarial, a io.net capacita uma gama mais ampla de usuários pequenos e médios com inovação em IA. Alcança uma "re-liberação de produtividade" de baixo custo e altamente flexível para inovação global em IA.
Qual é o recurso central de produtividade na atual onda de IA e na futura era da economia digital?
Sem dúvida, é poder de computação.
De acordo com os dados da Precedence Research, prevê-se que o mercado global de hardware de inteligência artificial cresça a uma taxa de crescimento anual composta (CAGR) de 24,3%, ultrapassando os 473,53 mil milhões de dólares até 2033.
Mesmo deixando de lado esses números preditivos, a partir de perspetivas lógicas incrementais e de ações, é evidente que duas principais contradições persistirão no futuro desenvolvimento do mercado de poder de computação:
Em primeiro lugar, na dimensão incremental, para além da rápida expansão dos modelos de conteúdo gerado por IA (AIGC), inúmeros cenários de IA nas suas fases iniciais explosivas, como a saúde, a educação e a condução inteligente, estão a desdobrar-se rapidamente. Todos estes cenários requerem vastos recursos de computação. Portanto, a atual escassez de recursos de poder de computação GPU no mercado não só persistirá, como continuará a expandir-se.
Em outras palavras, de uma perspectiva de oferta e demanda, no futuro previsível, a demanda de mercado por poder de computação, sem dúvida, excederá em muito a oferta. A curva de demanda deverá mostrar uma tendência exponencial de crescimento a curto prazo.
No lado da oferta, no entanto, devido às leis físicas e aos fatores práticos de produção, quer se trate de melhorias na tecnologia de processo ou de expansões de fábricas em grande escala, no máximo, apenas um crescimento linear pode ser alcançado. Isso significa inevitavelmente que o gargalo de poder de computação no desenvolvimento de IA persistirá por um longo tempo.
Entretanto, com recursos limitados de poder de computação enfrentando graves gargalos de crescimento, Amazon Web Services (AWS), Microsoft Azure e Google Cloud Platform (GCP) ocupam coletivamente mais de 60% da quota de mercado de computação em nuvem, criando um mercado claro para vendedores.
Estas empresas acumulam chips de GPU de alto desempenho, monopolizando uma vasta quantidade de poder de computação. Os jogadores de médio porte e pequenos e médios demandantes de longa cauda não só carecem de poder de negociação, mas também têm de lidar com altos custos de capital, barreiras de entrada KYC e termos restritivos de locação. Além disso, os gigantes tradicionais de serviços de cloud, impulsionados por considerações de lucro, muitas vezes negligenciam as necessidades de negócios diferenciadas dos utilizadores de “médio porte + longa cauda” (tais como requisitos de locação mais curtos, imediatos e em menor escala).
Na realidade, no entanto, uma grande quantidade de poder de computação de GPU é deixada inutilizada fora das redes de computação dos gigantes de serviços de nuvem. Por exemplo, dezenas de milhares de Centros de Dados de Internet (IDC) independentes globalmente desperdiçam recursos em pequenas tarefas de treinamento. Isso inclui vasto poder de computação ocioso em fazendas de mineração de criptomoedas e projetos como Filecoin, Render e Aethir.
De acordo com estimativas oficiais da io.net, a taxa de inatividade de placas gráficas nos IDCs apenas nos EUA excede 60%. Isso cria um paradoxo irônico de desajuste entre oferta e procura: mais de metade dos recursos de poder de computação de dezenas de milhares de pequenos e médios centros de dados e fazendas de mineração de criptomoedas são desperdiçados diariamente, falhando em gerar receitas eficazes, enquanto empreendedores de IA de médio porte e long tail suportam altos custos e altas barreiras de entrada dos serviços de computação de gigantes de nuvem, com suas diversas necessidades inovadoras não atendidas.
Esta marcante contrastação revela a principal contradição no atual desenvolvimento global da IA e mercado global de poder de computação — por um lado, a inovação em IA é generalizada e a demanda de poder de computação está continuamente a expandir. Por outro lado, as necessidades de poder de computação de jogadores de médio porte e de cauda longa e os recursos de GPU inativos não estão a ser eficazmente satisfeitos, permanecendo fora do mercado atual de poder de computação.
Esta questão não se resume apenas ao conflito entre as crescentes exigências de poder de computação dos empreendedores de IA e o crescimento defasado do poder de computação. É também a discrepância entre a grande maioria dos empreendedores de IA de nível intermediário e long tail, operadores de poder de computação e o desequilíbrio entre oferta e procura, que excede em muito o âmbito das soluções dos fornecedores centralizados de serviços de cloud.
Portanto, o mercado está a pedir novas soluções. Imagine se esses operadores com poder de computação pudessem alugar flexivelmente a sua capacidade de computação durante os tempos ociosos. Isso não forneceria um cluster computacional de baixo custo semelhante à AWS?
Construir uma rede de computação em larga escala é extremamente caro. Isso levou ao surgimento de plataformas especificamente projetadas para combinar recursos computacionais inativos com startups de IA de pequeno e médio porte. Essas plataformas agregam recursos computacionais inativos dispersos e os combinam com necessidades específicas em setores como saúde, direito e finanças para treinar modelos pequenos e grandes.
Não só pode atender às diversas necessidades de computação da cauda média a longa, mas também complementa os serviços de computação existentes dos gigantes centralizados de nuvem:
Gigantes da nuvem com vastos recursos de computação lidam com treinamento de modelos grandes e computação de alto desempenho para demandas urgentes e pesadas.
Mercados de computação em nuvem descentralizada como io.net atendem a pequenas computações de modelo, ajuste fino de modelos grandes, implantação de inferência e necessidades mais diversificadas e de baixo custo.
Essencialmente, oferece um equilíbrio dinâmico entre a relação custo-eficácia e a qualidade computacional, alinhando-se com a lógica económica da otimização da alocação de recursos no mercado. Assim, redes de computação distribuída como io.net oferecem essencialmente uma solução “IA+Crypto”. Utilizam um quadro colaborativo descentralizado combinado com incentivos de tokens para satisfazer a procura significativa mas insuficiente no mercado de IA de médio a longo prazo. Isto permite às equipas de IA pequenas e médias personalizar e adquirir serviços de computação GPU conforme necessário, o que as grandes nuvens não podem fornecer, alcançando assim uma “libertação da produtividade” no mercado global de poder de computação e desenvolvimento de IA.
Em termos mais simples, io.net não é um concorrente direto da AWS, Azure ou GCP. Em vez disso, é um aliado complementar que otimiza a alocação global de recursos de computação e expande o mercado. Eles atendem a diferentes camadas de necessidades de 'custo-efetividade & qualidade computacional'. É até possível que io.net, agregando jogadores de oferta e demanda de médio a longo prazo, possa criar uma participação de mercado comparável aos três principais gigantes de nuvem existentes.
io.net tem como objetivo remodelar as relações de produção do mercado de poder de computação de médio e longo prazo através da colaboração distribuída Web3 e incentivos de token. Como resultado, é reminiscente de plataformas de economia compartilhada como Uber e Didi, funcionando como uma plataforma de negociação de correspondência para o poder de computação da GPU.
Antes do surgimento da Uber e da Didi, a experiência do usuário de "chamar um carro sob demanda" era praticamente inexistente. A rede de carros particulares era vasta, mas caótica, com carros inativos e desorganizados. Para pegar uma carona, os usuários tinham que chamar um táxi na beira da estrada ou solicitar um despacho do centro de táxis da cidade, o que era demorado, altamente incerto e predominantemente um mercado de vendedores - hostil para a maioria das pessoas comuns.
Este cenário é semelhante ao estado atual do mercado de poder de computação. Como mencionado anteriormente, os demandantes de poder de computação de médio e longo prazo não apenas carecem de poder de barganha, mas também enfrentam altos custos de capital, barreiras de entrada de KYC e termos de locação rigorosos.
Então, como exatamente a io.net alcança sua posição como um "hub global de poder de computação GPU e mercado de correspondência"? Que tipo de arquitetura de sistema e serviços funcionais são necessários para ajudar os usuários de médio e longo prazo a obter recursos de poder de computação?
A principal característica do io.net é a sua plataforma leve de poder de computação. Semelhante ao Uber ou Didi, não envolve a operação real de alto risco de hardware de GPU ou outros ativos pesados. Em vez disso, conecta o poder de computação do varejo de médio a longo prazo (frequentemente considerado poder de computação secundário pelos principais provedores de nuvem como a AWS) com a demanda através de correspondência, revitalizando recursos de computação anteriormente ociosos (carros privados) e a demanda de AI de médio prazo por poder de computação (passageiros).
Por um lado, o io.net conecta dezenas de milhares de GPUs ociosas (carros privados) de pequenas e médias IDCs, fazendas de mineração e projetos de criptografia. Por outro lado, liga as necessidades de poder de computação de milhões de pequenas e médias empresas (passageiros). O io.net atua como intermediário, semelhante a um corretor que combina inúmeras ordens de compra e venda.
Ao agregar poder de computação ocioso a baixo custo e com configurações de implantação mais flexíveis, io.net ajuda os empreendedores a treinar modelos de IA pequenos e médios mais personalizados, melhorando significativamente a utilização de recursos. As vantagens são claras: independentemente das condições de mercado, desde que haja uma discrepância de recursos, a demanda por uma plataforma correspondente é robusta.
Tanto o lado da oferta quanto o lado da procura no mid-tail têm pontos fracos semelhantes de fraca capacidade de negociação e baixa autonomia ao enfrentar grandes clouds como a AWS. io.net revitaliza a oferta e a procura do mid-to-long-tail, proporcionando uma plataforma de correspondência que permite que ambos os lados concluam transações a preços melhores e com configurações mais flexíveis do que as grandes clouds como a AWS.
Desta perspetiva, semelhante a plataformas como o Taobao, a aparição precoce de poder de computação de baixa qualidade é um padrão de desenvolvimento inevitável da economia da plataforma. A io.net também estabeleceu um sistema de reputação tanto para fornecedores como para demandantes, acumulando pontuações com base no desempenho de computação e na participação na rede para ganhar recompensas ou descontos.
Além de ser uma plataforma de correspondência entre oferta e procura no varejo, o io.net aborda as necessidades de cenários de computação em larga escala, como os necessários pelos modelos modernos, que envolvem múltiplas GPUs trabalhando juntas. A eficácia desta plataforma depende não apenas de quantos recursos de GPU ociosos ela pode agregar, mas também de quão estreitamente conectado está o poder de computação distribuído na plataforma.
Isso significa que io.net precisa criar uma arquitetura de computação "descentralizada mas centralizada" para sua rede distribuída, que abrange recursos de computação pequenos e médios de diferentes regiões e escalas. Esta arquitetura deve suportar demandas de computação flexíveis, permitindo que várias GPUs distribuídas trabalhem dentro do mesmo framework para treinamento, garantindo que a comunicação e coordenação entre essas GPUs sejam rápidas e alcancem baixa latência utilizável.
Esta abordagem é fundamentalmente diferente de alguns projetos descentralizados de computação em nuvem que estão limitados a usar GPUs dentro do mesmo centro de dados. A realização técnica por trás da suíte de produtos do io.net, conhecida como os “Três Cavalos”, inclui o IO Cloud, o IO Worker e o IO Explorer.
Graças a esta arquitetura funcional, a io.net permite aos fornecedores de poder de computação partilhar facilmente recursos inativos, reduzindo significativamente a barreira de entrada. Os demandantes podem rapidamente formar clusters com as GPUs necessárias sem assinar contratos de longo prazo ou suportar os longos tempos de espera comuns nos serviços de nuvem tradicionais. Esta configuração fornece-lhes poder de supercomputação e tempos de resposta do servidor otimizados.
Ao discutir os cenários de serviço exclusivos da io.net em comparação com a AWS e outras nuvens principais, o foco está na demanda elástica leve onde as grandes nuvens podem não ser rentáveis. Esses cenários incluem áreas de nicho como treinamento de modelos para startups de AI pequenas e médias, ajuste fino de grandes modelos e outras aplicações diversas. Um cenário comumente ignorado, mas amplamente aplicável, é a inferência de modelos.
É bem conhecido que a formação precoce de modelos grandes como GPT requer milhares de GPUs de alto desempenho, poder de computação imenso e dados massivos por longos períodos. Esta é uma área onde a AWS, GCP e outras principais nuvens têm uma vantagem definitiva. No entanto, uma vez que o modelo é treinado, a demanda computacional primária muda para a inferência do modelo. Esta fase, que envolve o uso do modelo treinado para fazer previsões ou decisões, constitui 80%-90% das cargas de trabalho de computação de IA, como visto nas interações diárias com GPT e modelos semelhantes.
Curiosamente, o poder de computação necessário para a inferência é mais estável e menos intenso, muitas vezes precisando apenas de algumas dezenas de GPUs por alguns minutos para obter resultados. Este processo também tem requisitos mais baixos de latência de rede e concorrência. Além disso, a maioria das empresas de IA provavelmente não treinará seus próprios modelos grandes do zero; em vez disso, tendem a otimizar e ajustar modelos de primeira linha como o GPT. Esses cenários são naturalmente adequados para os recursos de computação ociosos distribuídos da io.net.
Além dos cenários de aplicação de alta intensidade e alto padrão, existe um mercado mais amplo e inexplorado para cenários leves do dia a dia. Estes podem parecer fragmentados, mas na realidade detêm uma maior quota de mercado. De acordo com um recente relatório do Bank of America, a computação de alto desempenho representa apenas cerca de 5% do mercado endereçável total (TAM) em centros de dados.
Em resumo, não é que a AWS ou GCP sejam caras, mas o io.net oferece uma solução mais econômica para essas necessidades específicas.
Por fim, a vantagem competitiva central de plataformas como io.net, voltadas para recursos de computação distribuída, reside nas suas capacidades de desenvolvimento de negócios (BD). Este é o fator determinante crítico para o sucesso.
Para além do fenómeno em que os chips de alto desempenho da Nvidia deram origem a um mercado de corretores de GPU, o principal desafio para muitos centros de dados de Internet (IDCs) de pequena e média dimensão e operadores de poder de computação é o problema de "um bom vinho ainda teme becos profundos", significando que até mesmo produtos excelentes precisam de uma promoção eficaz para serem descobertos.
Sob esta perspetiva, io.net detém uma vantagem competitiva única que é difícil de replicar por outros projetos no mesmo campo - uma equipa dedicada de Web2 BD baseada diretamente no Vale do Silício. Estes veteranos têm uma vasta experiência no mercado de poder de computação e compreendem os diversos cenários de clientes pequenos e médios. Além disso, têm um profundo entendimento das necessidades dos utilizadores finais de numerosos clientes Web2.
De acordo com os divulgações oficiais da io.net, mais de 20-30 empresas Web2 já manifestaram interesse em comprar ou alugar poder de computação. Estas empresas estão dispostas a explorar ou até mesmo experimentar serviços de computação mais baratos e flexíveis (algumas podem nem sequer conseguir garantir poder de computação na AWS). Cada um destes clientes requer pelo menos centenas a milhares de GPUs, o que se traduz em encomendas de poder de computação no valor de dezenas de milhares de dólares por mês.
Esta procura genuína por parte dos utilizadores pagantes atrairá essencialmente mais recursos de poder de computação inativo para fluir proativamente no lado da oferta, levando assim facilmente a um?
Com $30 milhões em financiamento e apoiado por capital de primeira linha, como Hack VC, Multicoin Capital, Delphi Digital e Solana Lab, io.net não parece muito "de base". Os rótulos de poder de computação da GPU e revolução de IA estão longe de serem realistas, muitas vezes associados a conotações de alta qualidade.
No entanto, no meio das animadas discussões da comunidade, pistas cruciais são frequentemente ignoradas, especialmente no que diz respeito à transformação profunda que a io.net poderá trazer à rede global de poder de computação. Ao contrário da posição "elite" da AWS, Azure e GCP, a io.net segue essencialmente uma rota populista:
O objetivo é complementar a demanda de poder de computação "mid-tail + long-tail" ignorada, agregando recursos ociosos de GPU. Ao criar uma rede de computação distribuída descentralizada de nível empresarial, a io.net capacita uma gama mais ampla de usuários pequenos e médios com inovação em IA. Alcança uma "re-liberação de produtividade" de baixo custo e altamente flexível para inovação global em IA.
Qual é o recurso central de produtividade na atual onda de IA e na futura era da economia digital?
Sem dúvida, é poder de computação.
De acordo com os dados da Precedence Research, prevê-se que o mercado global de hardware de inteligência artificial cresça a uma taxa de crescimento anual composta (CAGR) de 24,3%, ultrapassando os 473,53 mil milhões de dólares até 2033.
Mesmo deixando de lado esses números preditivos, a partir de perspetivas lógicas incrementais e de ações, é evidente que duas principais contradições persistirão no futuro desenvolvimento do mercado de poder de computação:
Em primeiro lugar, na dimensão incremental, para além da rápida expansão dos modelos de conteúdo gerado por IA (AIGC), inúmeros cenários de IA nas suas fases iniciais explosivas, como a saúde, a educação e a condução inteligente, estão a desdobrar-se rapidamente. Todos estes cenários requerem vastos recursos de computação. Portanto, a atual escassez de recursos de poder de computação GPU no mercado não só persistirá, como continuará a expandir-se.
Em outras palavras, de uma perspectiva de oferta e demanda, no futuro previsível, a demanda de mercado por poder de computação, sem dúvida, excederá em muito a oferta. A curva de demanda deverá mostrar uma tendência exponencial de crescimento a curto prazo.
No lado da oferta, no entanto, devido às leis físicas e aos fatores práticos de produção, quer se trate de melhorias na tecnologia de processo ou de expansões de fábricas em grande escala, no máximo, apenas um crescimento linear pode ser alcançado. Isso significa inevitavelmente que o gargalo de poder de computação no desenvolvimento de IA persistirá por um longo tempo.
Entretanto, com recursos limitados de poder de computação enfrentando graves gargalos de crescimento, Amazon Web Services (AWS), Microsoft Azure e Google Cloud Platform (GCP) ocupam coletivamente mais de 60% da quota de mercado de computação em nuvem, criando um mercado claro para vendedores.
Estas empresas acumulam chips de GPU de alto desempenho, monopolizando uma vasta quantidade de poder de computação. Os jogadores de médio porte e pequenos e médios demandantes de longa cauda não só carecem de poder de negociação, mas também têm de lidar com altos custos de capital, barreiras de entrada KYC e termos restritivos de locação. Além disso, os gigantes tradicionais de serviços de cloud, impulsionados por considerações de lucro, muitas vezes negligenciam as necessidades de negócios diferenciadas dos utilizadores de “médio porte + longa cauda” (tais como requisitos de locação mais curtos, imediatos e em menor escala).
Na realidade, no entanto, uma grande quantidade de poder de computação de GPU é deixada inutilizada fora das redes de computação dos gigantes de serviços de nuvem. Por exemplo, dezenas de milhares de Centros de Dados de Internet (IDC) independentes globalmente desperdiçam recursos em pequenas tarefas de treinamento. Isso inclui vasto poder de computação ocioso em fazendas de mineração de criptomoedas e projetos como Filecoin, Render e Aethir.
De acordo com estimativas oficiais da io.net, a taxa de inatividade de placas gráficas nos IDCs apenas nos EUA excede 60%. Isso cria um paradoxo irônico de desajuste entre oferta e procura: mais de metade dos recursos de poder de computação de dezenas de milhares de pequenos e médios centros de dados e fazendas de mineração de criptomoedas são desperdiçados diariamente, falhando em gerar receitas eficazes, enquanto empreendedores de IA de médio porte e long tail suportam altos custos e altas barreiras de entrada dos serviços de computação de gigantes de nuvem, com suas diversas necessidades inovadoras não atendidas.
Esta marcante contrastação revela a principal contradição no atual desenvolvimento global da IA e mercado global de poder de computação — por um lado, a inovação em IA é generalizada e a demanda de poder de computação está continuamente a expandir. Por outro lado, as necessidades de poder de computação de jogadores de médio porte e de cauda longa e os recursos de GPU inativos não estão a ser eficazmente satisfeitos, permanecendo fora do mercado atual de poder de computação.
Esta questão não se resume apenas ao conflito entre as crescentes exigências de poder de computação dos empreendedores de IA e o crescimento defasado do poder de computação. É também a discrepância entre a grande maioria dos empreendedores de IA de nível intermediário e long tail, operadores de poder de computação e o desequilíbrio entre oferta e procura, que excede em muito o âmbito das soluções dos fornecedores centralizados de serviços de cloud.
Portanto, o mercado está a pedir novas soluções. Imagine se esses operadores com poder de computação pudessem alugar flexivelmente a sua capacidade de computação durante os tempos ociosos. Isso não forneceria um cluster computacional de baixo custo semelhante à AWS?
Construir uma rede de computação em larga escala é extremamente caro. Isso levou ao surgimento de plataformas especificamente projetadas para combinar recursos computacionais inativos com startups de IA de pequeno e médio porte. Essas plataformas agregam recursos computacionais inativos dispersos e os combinam com necessidades específicas em setores como saúde, direito e finanças para treinar modelos pequenos e grandes.
Não só pode atender às diversas necessidades de computação da cauda média a longa, mas também complementa os serviços de computação existentes dos gigantes centralizados de nuvem:
Gigantes da nuvem com vastos recursos de computação lidam com treinamento de modelos grandes e computação de alto desempenho para demandas urgentes e pesadas.
Mercados de computação em nuvem descentralizada como io.net atendem a pequenas computações de modelo, ajuste fino de modelos grandes, implantação de inferência e necessidades mais diversificadas e de baixo custo.
Essencialmente, oferece um equilíbrio dinâmico entre a relação custo-eficácia e a qualidade computacional, alinhando-se com a lógica económica da otimização da alocação de recursos no mercado. Assim, redes de computação distribuída como io.net oferecem essencialmente uma solução “IA+Crypto”. Utilizam um quadro colaborativo descentralizado combinado com incentivos de tokens para satisfazer a procura significativa mas insuficiente no mercado de IA de médio a longo prazo. Isto permite às equipas de IA pequenas e médias personalizar e adquirir serviços de computação GPU conforme necessário, o que as grandes nuvens não podem fornecer, alcançando assim uma “libertação da produtividade” no mercado global de poder de computação e desenvolvimento de IA.
Em termos mais simples, io.net não é um concorrente direto da AWS, Azure ou GCP. Em vez disso, é um aliado complementar que otimiza a alocação global de recursos de computação e expande o mercado. Eles atendem a diferentes camadas de necessidades de 'custo-efetividade & qualidade computacional'. É até possível que io.net, agregando jogadores de oferta e demanda de médio a longo prazo, possa criar uma participação de mercado comparável aos três principais gigantes de nuvem existentes.
io.net tem como objetivo remodelar as relações de produção do mercado de poder de computação de médio e longo prazo através da colaboração distribuída Web3 e incentivos de token. Como resultado, é reminiscente de plataformas de economia compartilhada como Uber e Didi, funcionando como uma plataforma de negociação de correspondência para o poder de computação da GPU.
Antes do surgimento da Uber e da Didi, a experiência do usuário de "chamar um carro sob demanda" era praticamente inexistente. A rede de carros particulares era vasta, mas caótica, com carros inativos e desorganizados. Para pegar uma carona, os usuários tinham que chamar um táxi na beira da estrada ou solicitar um despacho do centro de táxis da cidade, o que era demorado, altamente incerto e predominantemente um mercado de vendedores - hostil para a maioria das pessoas comuns.
Este cenário é semelhante ao estado atual do mercado de poder de computação. Como mencionado anteriormente, os demandantes de poder de computação de médio e longo prazo não apenas carecem de poder de barganha, mas também enfrentam altos custos de capital, barreiras de entrada de KYC e termos de locação rigorosos.
Então, como exatamente a io.net alcança sua posição como um "hub global de poder de computação GPU e mercado de correspondência"? Que tipo de arquitetura de sistema e serviços funcionais são necessários para ajudar os usuários de médio e longo prazo a obter recursos de poder de computação?
A principal característica do io.net é a sua plataforma leve de poder de computação. Semelhante ao Uber ou Didi, não envolve a operação real de alto risco de hardware de GPU ou outros ativos pesados. Em vez disso, conecta o poder de computação do varejo de médio a longo prazo (frequentemente considerado poder de computação secundário pelos principais provedores de nuvem como a AWS) com a demanda através de correspondência, revitalizando recursos de computação anteriormente ociosos (carros privados) e a demanda de AI de médio prazo por poder de computação (passageiros).
Por um lado, o io.net conecta dezenas de milhares de GPUs ociosas (carros privados) de pequenas e médias IDCs, fazendas de mineração e projetos de criptografia. Por outro lado, liga as necessidades de poder de computação de milhões de pequenas e médias empresas (passageiros). O io.net atua como intermediário, semelhante a um corretor que combina inúmeras ordens de compra e venda.
Ao agregar poder de computação ocioso a baixo custo e com configurações de implantação mais flexíveis, io.net ajuda os empreendedores a treinar modelos de IA pequenos e médios mais personalizados, melhorando significativamente a utilização de recursos. As vantagens são claras: independentemente das condições de mercado, desde que haja uma discrepância de recursos, a demanda por uma plataforma correspondente é robusta.
Tanto o lado da oferta quanto o lado da procura no mid-tail têm pontos fracos semelhantes de fraca capacidade de negociação e baixa autonomia ao enfrentar grandes clouds como a AWS. io.net revitaliza a oferta e a procura do mid-to-long-tail, proporcionando uma plataforma de correspondência que permite que ambos os lados concluam transações a preços melhores e com configurações mais flexíveis do que as grandes clouds como a AWS.
Desta perspetiva, semelhante a plataformas como o Taobao, a aparição precoce de poder de computação de baixa qualidade é um padrão de desenvolvimento inevitável da economia da plataforma. A io.net também estabeleceu um sistema de reputação tanto para fornecedores como para demandantes, acumulando pontuações com base no desempenho de computação e na participação na rede para ganhar recompensas ou descontos.
Além de ser uma plataforma de correspondência entre oferta e procura no varejo, o io.net aborda as necessidades de cenários de computação em larga escala, como os necessários pelos modelos modernos, que envolvem múltiplas GPUs trabalhando juntas. A eficácia desta plataforma depende não apenas de quantos recursos de GPU ociosos ela pode agregar, mas também de quão estreitamente conectado está o poder de computação distribuído na plataforma.
Isso significa que io.net precisa criar uma arquitetura de computação "descentralizada mas centralizada" para sua rede distribuída, que abrange recursos de computação pequenos e médios de diferentes regiões e escalas. Esta arquitetura deve suportar demandas de computação flexíveis, permitindo que várias GPUs distribuídas trabalhem dentro do mesmo framework para treinamento, garantindo que a comunicação e coordenação entre essas GPUs sejam rápidas e alcancem baixa latência utilizável.
Esta abordagem é fundamentalmente diferente de alguns projetos descentralizados de computação em nuvem que estão limitados a usar GPUs dentro do mesmo centro de dados. A realização técnica por trás da suíte de produtos do io.net, conhecida como os “Três Cavalos”, inclui o IO Cloud, o IO Worker e o IO Explorer.
Graças a esta arquitetura funcional, a io.net permite aos fornecedores de poder de computação partilhar facilmente recursos inativos, reduzindo significativamente a barreira de entrada. Os demandantes podem rapidamente formar clusters com as GPUs necessárias sem assinar contratos de longo prazo ou suportar os longos tempos de espera comuns nos serviços de nuvem tradicionais. Esta configuração fornece-lhes poder de supercomputação e tempos de resposta do servidor otimizados.
Ao discutir os cenários de serviço exclusivos da io.net em comparação com a AWS e outras nuvens principais, o foco está na demanda elástica leve onde as grandes nuvens podem não ser rentáveis. Esses cenários incluem áreas de nicho como treinamento de modelos para startups de AI pequenas e médias, ajuste fino de grandes modelos e outras aplicações diversas. Um cenário comumente ignorado, mas amplamente aplicável, é a inferência de modelos.
É bem conhecido que a formação precoce de modelos grandes como GPT requer milhares de GPUs de alto desempenho, poder de computação imenso e dados massivos por longos períodos. Esta é uma área onde a AWS, GCP e outras principais nuvens têm uma vantagem definitiva. No entanto, uma vez que o modelo é treinado, a demanda computacional primária muda para a inferência do modelo. Esta fase, que envolve o uso do modelo treinado para fazer previsões ou decisões, constitui 80%-90% das cargas de trabalho de computação de IA, como visto nas interações diárias com GPT e modelos semelhantes.
Curiosamente, o poder de computação necessário para a inferência é mais estável e menos intenso, muitas vezes precisando apenas de algumas dezenas de GPUs por alguns minutos para obter resultados. Este processo também tem requisitos mais baixos de latência de rede e concorrência. Além disso, a maioria das empresas de IA provavelmente não treinará seus próprios modelos grandes do zero; em vez disso, tendem a otimizar e ajustar modelos de primeira linha como o GPT. Esses cenários são naturalmente adequados para os recursos de computação ociosos distribuídos da io.net.
Além dos cenários de aplicação de alta intensidade e alto padrão, existe um mercado mais amplo e inexplorado para cenários leves do dia a dia. Estes podem parecer fragmentados, mas na realidade detêm uma maior quota de mercado. De acordo com um recente relatório do Bank of America, a computação de alto desempenho representa apenas cerca de 5% do mercado endereçável total (TAM) em centros de dados.
Em resumo, não é que a AWS ou GCP sejam caras, mas o io.net oferece uma solução mais econômica para essas necessidades específicas.
Por fim, a vantagem competitiva central de plataformas como io.net, voltadas para recursos de computação distribuída, reside nas suas capacidades de desenvolvimento de negócios (BD). Este é o fator determinante crítico para o sucesso.
Para além do fenómeno em que os chips de alto desempenho da Nvidia deram origem a um mercado de corretores de GPU, o principal desafio para muitos centros de dados de Internet (IDCs) de pequena e média dimensão e operadores de poder de computação é o problema de "um bom vinho ainda teme becos profundos", significando que até mesmo produtos excelentes precisam de uma promoção eficaz para serem descobertos.
Sob esta perspetiva, io.net detém uma vantagem competitiva única que é difícil de replicar por outros projetos no mesmo campo - uma equipa dedicada de Web2 BD baseada diretamente no Vale do Silício. Estes veteranos têm uma vasta experiência no mercado de poder de computação e compreendem os diversos cenários de clientes pequenos e médios. Além disso, têm um profundo entendimento das necessidades dos utilizadores finais de numerosos clientes Web2.
De acordo com os divulgações oficiais da io.net, mais de 20-30 empresas Web2 já manifestaram interesse em comprar ou alugar poder de computação. Estas empresas estão dispostas a explorar ou até mesmo experimentar serviços de computação mais baratos e flexíveis (algumas podem nem sequer conseguir garantir poder de computação na AWS). Cada um destes clientes requer pelo menos centenas a milhares de GPUs, o que se traduz em encomendas de poder de computação no valor de dezenas de milhares de dólares por mês.
Esta procura genuína por parte dos utilizadores pagantes atrairá essencialmente mais recursos de poder de computação inativo para fluir proativamente no lado da oferta, levando assim facilmente a um?