Título original encaminhado: Caminho de Desenvolvimento Futuro de AI+Web3 (2): Capítulo de Infraestrutura
Nos últimos anos, a demanda por potência de computação tem experimentado um crescimento rápido, particularmente após o surgimento do grande modelo LLM. Este aumento na demanda por potência de computação para IA impactou significativamente o mercado de computação de alto desempenho. Dados da OpenAI revelam uma tendência notável desde 2012, com a potência de computação utilizada para treinar os maiores modelos de IA crescendo exponencialmente, duplicando a cada 3-4 meses em média, superando a taxa de crescimento prevista pela Lei de Moore. A crescente demanda por aplicações de IA resultou em uma rápida ascensão na necessidade de hardware de computação. Projeções indicam que até 2025, a demanda por hardware de computação impulsionada por aplicações de IA deverá aumentar aproximadamente 10% a 15%.
Impulsionada pela procura de potência de computação de IA, a fabricante de hardware de GPU NVIDIA testemunhou um crescimento contínuo na receita do centro de dados. No segundo trimestre de 2023, a receita do centro de dados atingiu 10,32 mil milhões de dólares, marcando um aumento de 141% em relação ao primeiro trimestre de 2023 e um notável aumento de 171% em relação ao mesmo período do ano anterior. No quarto trimestre do ano fiscal de 2024, o segmento do centro de dados representava mais de 83% da receita total, experimentando um crescimento simultâneo de 409%, com 40% atribuído a cenários de inferência de modelos grandes, indicando uma forte procura por potência de computação de alto desempenho.
Simultaneamente, a necessidade de vastas quantidades de dados impõe requisitos significativos de armazenamento e memória de hardware. Especialmente durante a fase de treinamento do modelo, entradas de parâmetros extensivos e armazenamento de dados são essenciais. Os chips de memória utilizados em servidores de IA incluem predominantemente memória de alta largura de banda (HBM), DRAM e SSD. Os ambientes de trabalho para servidores de IA devem oferecer capacidade aumentada, desempenho aprimorado, latência reduzida e tempos de resposta mais rápidos. De acordo com os cálculos da Micron, a quantidade de DRAM em servidores de IA excede a dos servidores tradicionais em oito vezes, enquanto a quantidade de NAND ultrapassa os padrões de servidores tradicionais em três vezes.
Tipicamente, a potência de computação é principalmente utilizada nas fases de treino, ajuste fino e inferência de modelos de IA, especialmente durante as fases de treino e ajuste fino. Devido ao aumento dos parâmetros de entrada de dados, requisitos computacionais e a maior demanda por interconectividade em computação paralela, há uma necessidade de hardware de GPU mais poderoso e interconectado, frequentemente na forma de clusters de GPU de alto desempenho. Conforme os modelos aumentam de tamanho, a complexidade computacional aumenta linearmente, necessitando de hardware mais avançado para atender às demandas do treino de modelos.
Tomando o GPT-3 como exemplo, com um cenário envolvendo cerca de 13 milhões de visitas de usuários independentes, a demanda de chips correspondente excederia 30.000 GPUs A100. Este custo de investimento inicial atingiria um impressionante $800 milhões, com custos estimados diários de inferência do modelo totalizando cerca de $700.000.
Simultaneamente, relatórios do setor indicam que no quarto trimestre de 2023, o fornecimento de GPUs da NVIDIA foi severamente restrito globalmente, levando a um desequilíbrio significativo entre oferta e demanda nos mercados em todo o mundo. A capacidade de produção da NVIDIA foi limitada por fatores como TSMC, embalagens HBM, CoWos, e a 'grave questão de escassez' da GPU H100 deverá persistir pelo menos até o final de 2024.
Portanto, o aumento da procura por GPUs de alta qualidade e as restrições de oferta têm impulsionado os preços elevados dos componentes de hardware atuais, como as GPUs. Especialmente para empresas como a NVIDIA, que ocupam uma posição central na cadeia da indústria, os preços elevados são ainda mais aumentados pela sua dominação monopolista, permitindo-lhes colher dividendos de valor adicionais. Por exemplo, o custo material do cartão acelerador de IA H100 da NVIDIA é aproximadamente $3,000, mas o seu preço de venda atingiu cerca de $35,000 em meados de 2023 e até ultrapassou os $40,000 no eBay.
Um relatório da Grand View Research indica que o tamanho do mercado global de IA em nuvem foi estimado em $62,63 biliões em 2023, prevendo-se que atinja $647,6 biliões até 2030, com uma taxa de crescimento anual composta de 39,6%. Estes números realçam o significativo potencial de crescimento dos serviços de IA em nuvem e a sua substancial contribuição para a cadeia global da indústria de IA.
De acordo com estimativas da a16z, uma parte substancial dos fundos no mercado AIGC (IA e Computação Global) flui, em última instância, para empresas de infraestrutura. Em média, as empresas de aplicativos alocam aproximadamente 20-40% de sua receita para inferência e ajuste fino para cada cliente. Essa despesa é tipicamente direcionada ao provedor de nuvem da instância de computação ou a um provedor de modelo de terceiros, que por sua vez dedica cerca da metade da receita à infraestrutura de nuvem. Como resultado, é razoável presumir que 10-20% da receita total gerada pelo AIGC é canalizada para os provedores de nuvem.
Além disso, uma parte significativa da demanda por poder de computação está centrada no treinamento de grandes modelos de IA, incluindo vários modelos extensos de LLM. Especialmente para startups de modelos, 80-90% dos custos são atribuídos ao poder de computação de IA. Coletivamente, a infraestrutura de computação de IA, abrangendo computação em nuvem e hardware, é antecipada para representar mais de 50% do valor inicial do mercado.
Como discutido anteriormente, o custo atual da computação centralizada de IA permanece elevado, principalmente devido à demanda crescente por infraestrutura de alto desempenho para treinamento de IA. No entanto, uma quantidade significativa de poder computacional ocioso existe no mercado, levando a um descompasso entre oferta e demanda. Os principais fatores que contribuem para esse desequilíbrio incluem:
Em resposta aos desafios delineados acima, a busca pelo design de chips de alto desempenho ou chips ASIC especializados adaptados para tarefas de IA é uma via proeminente que está a ser explorada por inúmeros desenvolvedores e grandes empresas. Outra abordagem envolve a utilização abrangente dos recursos de computação existentes para estabelecer uma rede de computação distribuída, com o objetivo de reduzir os custos de energia computacional através de aluguer, partilha e programação eficiente de recursos. Além disso, o mercado atualmente possui um excedente de GPUs e CPUs de consumo inativo. Embora as unidades individuais possam carecer de potência de computação robusta, elas podem atender eficazmente aos requisitos computacionais existentes em cenários específicos ou quando integradas com chips de alto desempenho. Crucialmente, garantir um suprimento amplo é essencial, pois os custos podem ser ainda mais reduzidos através da programação de rede distribuída.
Consequentemente, a mudança para o poder de computação distribuída emergiu como uma direção chave no avanço da infraestrutura de IA. Simultaneamente, dada a alinhamento conceitual entre Web3 e sistemas distribuídos, as redes de poder computacional descentralizado tornaram-se um foco primário na paisagem da infraestrutura Web3+IA. Atualmente, as plataformas de poder computacional descentralizado no mercado Web3 geralmente oferecem preços que são 80%-90% mais baixos do que os serviços de computação em nuvem centralizados.
Embora o armazenamento desempenhe um papel vital na infraestrutura de IA, o armazenamento centralizado apresenta vantagens distintas em termos de escala, usabilidade e baixa latência. No entanto, devido às notáveis eficiências de custo que oferecem, as redes de computação distribuída têm um potencial de mercado significativo e estão preparadas para colher benefícios substanciais com a expansão do mercado de IA em crescimento.
O setor de infraestrutura de IA distribuída apresenta uma demanda robusta e perspectivas significativas de crescimento a longo prazo, tornando-o uma área atraente para o capital de investimento. Atualmente, os principais projetos dentro da camada de infraestrutura da indústria AI+Web3 centram-se predominantemente em redes de computação descentralizadas. Esses projetos enfatizam custos baixos como uma vantagem chave, utilizam incentivos de token para expandir suas redes e priorizam o atendimento aos clientes de IA+Web3 como seu principal objetivo. Este setor compreende principalmente dois níveis-chave:
Oferecendo serviços a preços mais competitivos do que os serviços centralizados de computação em nuvem, mantendo instalações de suporte e experiências de usuário comparáveis, este projeto tem obtido reconhecimento de investidores proeminentes. No entanto, a complexidade técnica aumentada representa um desafio significativo. Atualmente, o projeto está na fase narrativa e de desenvolvimento, sem qualquer produto totalmente lançado até o momento.
Render Network é uma plataforma global de renderização baseada em blockchain que aproveita GPUs distribuídas para oferecer serviços de renderização 3D eficientes e econômicos aos criadores. Após a confirmação dos resultados da renderização pelo criador, a rede blockchain envia recompensas de tokens para os nós. A plataforma apresenta uma rede distribuída de escalonamento e alocação de GPU, atribuindo tarefas com base no uso do nó, reputação e outros fatores para otimizar a eficiência computacional, minimizar recursos ociosos e reduzir despesas.
O token nativo da plataforma, RNDR, serve como moeda de pagamento dentro do ecossistema. Os utilizadores podem utilizar o RNDR para liquidar as taxas de serviço de renderização, enquanto os prestadores de serviços ganham recompensas RNDR ao contribuir com poder computacional para completar tarefas de renderização. O preço dos serviços de renderização é ajustado dinamicamente em resposta à utilização atual da rede e a outras métricas relevantes.
A renderização prova ser um caso de uso bem adequado e estabelecido para a arquitetura de potência de computação distribuída. A natureza das tarefas de renderização permite a sua segmentação em múltiplas subtarefas executadas em paralelo, minimizando a comunicação e interação entre tarefas. Esta abordagem mitiga as desvantagens da arquitetura de computação distribuída, ao mesmo tempo que aproveita a extensa rede de nós de GPU para impulsionar a eficiência de custos.
A procura pela Render Network é substancial, tendo os utilizadores processado mais de 16 milhões de frames e quase 500.000 cenas na plataforma desde a sua criação em 2017. O volume de trabalhos de renderização e nós ativos continua a aumentar. Além disso, no primeiro trimestre de 2023, a Render Network introduziu um conjunto de ferramentas de IA de Estabilidade integradas nativamente, permitindo aos utilizadores incorporar operações de Difusão Estável. Esta expansão para além das operações de renderização significa uma jogada estratégica no domínio das aplicações de IA.
Gensyn opera como uma rede global de clusters de supercomputação especializada em computação de aprendizado profundo, utilizando o protocolo L1 da Polkadot. Em 2023, a plataforma garantiu $43 milhões em financiamento da Série A, liderado pela a16z. A estrutura arquitetural do Gensyn vai além do cluster de potência computacional distribuída da infraestrutura para abranger um sistema de verificação de camada superior. Este sistema garante que cálculos extensivos off-chain estejam alinhados com os requisitos on-chain através da verificação blockchain, estabelecendo uma rede de aprendizado de máquina sem confiança.
No que diz respeito à potência de computação distribuída, o Gensyn acomoda uma variedade de dispositivos, desde centros de dados com capacidade excedente até laptops pessoais com potenciais GPUs. Ele une esses dispositivos em um cluster virtual unificado acessível aos desenvolvedores para uso ponto a ponto sob demanda. O Gensyn tem como objetivo estabelecer um mercado onde os preços são ditados pelas forças de mercado, promovendo a inclusividade e permitindo que os custos de computação de ML atinjam níveis equitativos.
O sistema de verificação assume-se como um conceito fundamental para Gensyn, visando validar a precisão das tarefas de aprendizagem de máquinas conforme especificado. Introduz uma abordagem inovadora de verificação que engloba prova de aprendizagem probabilística, protocolo de posicionamento preciso baseado em gráficos e Truebit. Essas características técnicas essenciais do jogo de incentivo oferecem eficiência aprimorada em comparação com os métodos tradicionais de validação blockchain. Os participantes da rede incluem submissões, solucionadores, verificadores e denunciantes, facilitando coletivamente o processo de verificação.
Com base nos extensos dados de teste detalhados no white paper do protocolo Gensyn, as vantagens notáveis da plataforma incluem:
No entanto, em simultâneo, o poder computacional distribuído introduz um aumento inevitável no tempo de treino em comparação com o treino local, atribuído aos desafios de comunicação e rede. Com base nos dados de teste, o protocolo Gensyn incorre aproximadamente em 46% de sobrecarga de tempo no treino do modelo.
A rede Akash funciona como uma plataforma de computação em nuvem distribuída que integra vários elementos técnicos para permitir aos utilizadores implementar e gerir eficientemente aplicações num ambiente de nuvem descentralizada. Em essência, oferece aos utilizadores a capacidade de arrendar recursos de computação distribuída.
No centro da Akash encontra-se uma rede de fornecedores de serviços de infraestrutura dispersos globalmente, oferecendo recursos de CPU, GPU, memória e armazenamento. Estes fornecedores disponibilizam recursos para arrendamento de utilizadores através do cluster superior do Kubernetes. Os utilizadores podem implementar aplicações como contentores Docker para aproveitar os serviços de infraestrutura económicos. Além disso, a Akash implementa uma abordagem de "leilão invertido" para reduzir ainda mais os preços dos recursos. Segundo estimativas no site oficial da Akash, os custos de serviço da plataforma são aproximadamente 80% inferiores aos dos servidores centralizados.
io.net permanece como uma rede de computação descentralizada que interliga GPUs distribuídos globalmente para fornecer suporte computacional para treinamento e raciocínio de modelos de IA. Recentemente concluindo uma rodada de financiamento da Série A de $30 milhões, a plataforma agora ostenta uma avaliação de $1 bilhão.
Distinguido de plataformas como Render e Akash, io.net surge como uma rede de computação descentralizada robusta e escalável, intimamente ligada a múltiplos níveis de ferramentas de desenvolvedor. Suas principais características incluem:
Em relação aos preços, o site oficial io.net estima que suas taxas serão aproximadamente 90% mais baixas do que as dos serviços de computação em nuvem centralizados.
Além disso, o token nativo da io.net, IO coin, servirá principalmente como mecanismo de pagamento e recompensas dentro do ecossistema. Alternativamente, os demandantes podem adotar um modelo semelhante ao da Helium convertendo o IO coin na moeda estável “pontos IOSD” para transações.
Este artigo é reimpresso de [Blockchain Wanxiang], o título original é "AI+Web3 Futuro Desenvolvimento Estrada (2) ): Infraestrutura", os direitos autorais pertencem ao autor original [Wanxiang Blockchain]. Se houver objeções a esta reimpressão, por favor entre em contato com o Gate Equipa Learne eles vão lidar com isso prontamente.
Aviso de responsabilidade: As opiniões expressas neste artigo são exclusivamente as do autor e não constituem qualquer conselho de investimento.
As traduções do artigo para outros idiomas são feitas pela equipa Gate Learn. Sem mencionar Gate.io, o artigo traduzido não pode ser reproduzido, distribuído ou plagiado.
Título original encaminhado: Caminho de Desenvolvimento Futuro de AI+Web3 (2): Capítulo de Infraestrutura
Nos últimos anos, a demanda por potência de computação tem experimentado um crescimento rápido, particularmente após o surgimento do grande modelo LLM. Este aumento na demanda por potência de computação para IA impactou significativamente o mercado de computação de alto desempenho. Dados da OpenAI revelam uma tendência notável desde 2012, com a potência de computação utilizada para treinar os maiores modelos de IA crescendo exponencialmente, duplicando a cada 3-4 meses em média, superando a taxa de crescimento prevista pela Lei de Moore. A crescente demanda por aplicações de IA resultou em uma rápida ascensão na necessidade de hardware de computação. Projeções indicam que até 2025, a demanda por hardware de computação impulsionada por aplicações de IA deverá aumentar aproximadamente 10% a 15%.
Impulsionada pela procura de potência de computação de IA, a fabricante de hardware de GPU NVIDIA testemunhou um crescimento contínuo na receita do centro de dados. No segundo trimestre de 2023, a receita do centro de dados atingiu 10,32 mil milhões de dólares, marcando um aumento de 141% em relação ao primeiro trimestre de 2023 e um notável aumento de 171% em relação ao mesmo período do ano anterior. No quarto trimestre do ano fiscal de 2024, o segmento do centro de dados representava mais de 83% da receita total, experimentando um crescimento simultâneo de 409%, com 40% atribuído a cenários de inferência de modelos grandes, indicando uma forte procura por potência de computação de alto desempenho.
Simultaneamente, a necessidade de vastas quantidades de dados impõe requisitos significativos de armazenamento e memória de hardware. Especialmente durante a fase de treinamento do modelo, entradas de parâmetros extensivos e armazenamento de dados são essenciais. Os chips de memória utilizados em servidores de IA incluem predominantemente memória de alta largura de banda (HBM), DRAM e SSD. Os ambientes de trabalho para servidores de IA devem oferecer capacidade aumentada, desempenho aprimorado, latência reduzida e tempos de resposta mais rápidos. De acordo com os cálculos da Micron, a quantidade de DRAM em servidores de IA excede a dos servidores tradicionais em oito vezes, enquanto a quantidade de NAND ultrapassa os padrões de servidores tradicionais em três vezes.
Tipicamente, a potência de computação é principalmente utilizada nas fases de treino, ajuste fino e inferência de modelos de IA, especialmente durante as fases de treino e ajuste fino. Devido ao aumento dos parâmetros de entrada de dados, requisitos computacionais e a maior demanda por interconectividade em computação paralela, há uma necessidade de hardware de GPU mais poderoso e interconectado, frequentemente na forma de clusters de GPU de alto desempenho. Conforme os modelos aumentam de tamanho, a complexidade computacional aumenta linearmente, necessitando de hardware mais avançado para atender às demandas do treino de modelos.
Tomando o GPT-3 como exemplo, com um cenário envolvendo cerca de 13 milhões de visitas de usuários independentes, a demanda de chips correspondente excederia 30.000 GPUs A100. Este custo de investimento inicial atingiria um impressionante $800 milhões, com custos estimados diários de inferência do modelo totalizando cerca de $700.000.
Simultaneamente, relatórios do setor indicam que no quarto trimestre de 2023, o fornecimento de GPUs da NVIDIA foi severamente restrito globalmente, levando a um desequilíbrio significativo entre oferta e demanda nos mercados em todo o mundo. A capacidade de produção da NVIDIA foi limitada por fatores como TSMC, embalagens HBM, CoWos, e a 'grave questão de escassez' da GPU H100 deverá persistir pelo menos até o final de 2024.
Portanto, o aumento da procura por GPUs de alta qualidade e as restrições de oferta têm impulsionado os preços elevados dos componentes de hardware atuais, como as GPUs. Especialmente para empresas como a NVIDIA, que ocupam uma posição central na cadeia da indústria, os preços elevados são ainda mais aumentados pela sua dominação monopolista, permitindo-lhes colher dividendos de valor adicionais. Por exemplo, o custo material do cartão acelerador de IA H100 da NVIDIA é aproximadamente $3,000, mas o seu preço de venda atingiu cerca de $35,000 em meados de 2023 e até ultrapassou os $40,000 no eBay.
Um relatório da Grand View Research indica que o tamanho do mercado global de IA em nuvem foi estimado em $62,63 biliões em 2023, prevendo-se que atinja $647,6 biliões até 2030, com uma taxa de crescimento anual composta de 39,6%. Estes números realçam o significativo potencial de crescimento dos serviços de IA em nuvem e a sua substancial contribuição para a cadeia global da indústria de IA.
De acordo com estimativas da a16z, uma parte substancial dos fundos no mercado AIGC (IA e Computação Global) flui, em última instância, para empresas de infraestrutura. Em média, as empresas de aplicativos alocam aproximadamente 20-40% de sua receita para inferência e ajuste fino para cada cliente. Essa despesa é tipicamente direcionada ao provedor de nuvem da instância de computação ou a um provedor de modelo de terceiros, que por sua vez dedica cerca da metade da receita à infraestrutura de nuvem. Como resultado, é razoável presumir que 10-20% da receita total gerada pelo AIGC é canalizada para os provedores de nuvem.
Além disso, uma parte significativa da demanda por poder de computação está centrada no treinamento de grandes modelos de IA, incluindo vários modelos extensos de LLM. Especialmente para startups de modelos, 80-90% dos custos são atribuídos ao poder de computação de IA. Coletivamente, a infraestrutura de computação de IA, abrangendo computação em nuvem e hardware, é antecipada para representar mais de 50% do valor inicial do mercado.
Como discutido anteriormente, o custo atual da computação centralizada de IA permanece elevado, principalmente devido à demanda crescente por infraestrutura de alto desempenho para treinamento de IA. No entanto, uma quantidade significativa de poder computacional ocioso existe no mercado, levando a um descompasso entre oferta e demanda. Os principais fatores que contribuem para esse desequilíbrio incluem:
Em resposta aos desafios delineados acima, a busca pelo design de chips de alto desempenho ou chips ASIC especializados adaptados para tarefas de IA é uma via proeminente que está a ser explorada por inúmeros desenvolvedores e grandes empresas. Outra abordagem envolve a utilização abrangente dos recursos de computação existentes para estabelecer uma rede de computação distribuída, com o objetivo de reduzir os custos de energia computacional através de aluguer, partilha e programação eficiente de recursos. Além disso, o mercado atualmente possui um excedente de GPUs e CPUs de consumo inativo. Embora as unidades individuais possam carecer de potência de computação robusta, elas podem atender eficazmente aos requisitos computacionais existentes em cenários específicos ou quando integradas com chips de alto desempenho. Crucialmente, garantir um suprimento amplo é essencial, pois os custos podem ser ainda mais reduzidos através da programação de rede distribuída.
Consequentemente, a mudança para o poder de computação distribuída emergiu como uma direção chave no avanço da infraestrutura de IA. Simultaneamente, dada a alinhamento conceitual entre Web3 e sistemas distribuídos, as redes de poder computacional descentralizado tornaram-se um foco primário na paisagem da infraestrutura Web3+IA. Atualmente, as plataformas de poder computacional descentralizado no mercado Web3 geralmente oferecem preços que são 80%-90% mais baixos do que os serviços de computação em nuvem centralizados.
Embora o armazenamento desempenhe um papel vital na infraestrutura de IA, o armazenamento centralizado apresenta vantagens distintas em termos de escala, usabilidade e baixa latência. No entanto, devido às notáveis eficiências de custo que oferecem, as redes de computação distribuída têm um potencial de mercado significativo e estão preparadas para colher benefícios substanciais com a expansão do mercado de IA em crescimento.
O setor de infraestrutura de IA distribuída apresenta uma demanda robusta e perspectivas significativas de crescimento a longo prazo, tornando-o uma área atraente para o capital de investimento. Atualmente, os principais projetos dentro da camada de infraestrutura da indústria AI+Web3 centram-se predominantemente em redes de computação descentralizadas. Esses projetos enfatizam custos baixos como uma vantagem chave, utilizam incentivos de token para expandir suas redes e priorizam o atendimento aos clientes de IA+Web3 como seu principal objetivo. Este setor compreende principalmente dois níveis-chave:
Oferecendo serviços a preços mais competitivos do que os serviços centralizados de computação em nuvem, mantendo instalações de suporte e experiências de usuário comparáveis, este projeto tem obtido reconhecimento de investidores proeminentes. No entanto, a complexidade técnica aumentada representa um desafio significativo. Atualmente, o projeto está na fase narrativa e de desenvolvimento, sem qualquer produto totalmente lançado até o momento.
Render Network é uma plataforma global de renderização baseada em blockchain que aproveita GPUs distribuídas para oferecer serviços de renderização 3D eficientes e econômicos aos criadores. Após a confirmação dos resultados da renderização pelo criador, a rede blockchain envia recompensas de tokens para os nós. A plataforma apresenta uma rede distribuída de escalonamento e alocação de GPU, atribuindo tarefas com base no uso do nó, reputação e outros fatores para otimizar a eficiência computacional, minimizar recursos ociosos e reduzir despesas.
O token nativo da plataforma, RNDR, serve como moeda de pagamento dentro do ecossistema. Os utilizadores podem utilizar o RNDR para liquidar as taxas de serviço de renderização, enquanto os prestadores de serviços ganham recompensas RNDR ao contribuir com poder computacional para completar tarefas de renderização. O preço dos serviços de renderização é ajustado dinamicamente em resposta à utilização atual da rede e a outras métricas relevantes.
A renderização prova ser um caso de uso bem adequado e estabelecido para a arquitetura de potência de computação distribuída. A natureza das tarefas de renderização permite a sua segmentação em múltiplas subtarefas executadas em paralelo, minimizando a comunicação e interação entre tarefas. Esta abordagem mitiga as desvantagens da arquitetura de computação distribuída, ao mesmo tempo que aproveita a extensa rede de nós de GPU para impulsionar a eficiência de custos.
A procura pela Render Network é substancial, tendo os utilizadores processado mais de 16 milhões de frames e quase 500.000 cenas na plataforma desde a sua criação em 2017. O volume de trabalhos de renderização e nós ativos continua a aumentar. Além disso, no primeiro trimestre de 2023, a Render Network introduziu um conjunto de ferramentas de IA de Estabilidade integradas nativamente, permitindo aos utilizadores incorporar operações de Difusão Estável. Esta expansão para além das operações de renderização significa uma jogada estratégica no domínio das aplicações de IA.
Gensyn opera como uma rede global de clusters de supercomputação especializada em computação de aprendizado profundo, utilizando o protocolo L1 da Polkadot. Em 2023, a plataforma garantiu $43 milhões em financiamento da Série A, liderado pela a16z. A estrutura arquitetural do Gensyn vai além do cluster de potência computacional distribuída da infraestrutura para abranger um sistema de verificação de camada superior. Este sistema garante que cálculos extensivos off-chain estejam alinhados com os requisitos on-chain através da verificação blockchain, estabelecendo uma rede de aprendizado de máquina sem confiança.
No que diz respeito à potência de computação distribuída, o Gensyn acomoda uma variedade de dispositivos, desde centros de dados com capacidade excedente até laptops pessoais com potenciais GPUs. Ele une esses dispositivos em um cluster virtual unificado acessível aos desenvolvedores para uso ponto a ponto sob demanda. O Gensyn tem como objetivo estabelecer um mercado onde os preços são ditados pelas forças de mercado, promovendo a inclusividade e permitindo que os custos de computação de ML atinjam níveis equitativos.
O sistema de verificação assume-se como um conceito fundamental para Gensyn, visando validar a precisão das tarefas de aprendizagem de máquinas conforme especificado. Introduz uma abordagem inovadora de verificação que engloba prova de aprendizagem probabilística, protocolo de posicionamento preciso baseado em gráficos e Truebit. Essas características técnicas essenciais do jogo de incentivo oferecem eficiência aprimorada em comparação com os métodos tradicionais de validação blockchain. Os participantes da rede incluem submissões, solucionadores, verificadores e denunciantes, facilitando coletivamente o processo de verificação.
Com base nos extensos dados de teste detalhados no white paper do protocolo Gensyn, as vantagens notáveis da plataforma incluem:
No entanto, em simultâneo, o poder computacional distribuído introduz um aumento inevitável no tempo de treino em comparação com o treino local, atribuído aos desafios de comunicação e rede. Com base nos dados de teste, o protocolo Gensyn incorre aproximadamente em 46% de sobrecarga de tempo no treino do modelo.
A rede Akash funciona como uma plataforma de computação em nuvem distribuída que integra vários elementos técnicos para permitir aos utilizadores implementar e gerir eficientemente aplicações num ambiente de nuvem descentralizada. Em essência, oferece aos utilizadores a capacidade de arrendar recursos de computação distribuída.
No centro da Akash encontra-se uma rede de fornecedores de serviços de infraestrutura dispersos globalmente, oferecendo recursos de CPU, GPU, memória e armazenamento. Estes fornecedores disponibilizam recursos para arrendamento de utilizadores através do cluster superior do Kubernetes. Os utilizadores podem implementar aplicações como contentores Docker para aproveitar os serviços de infraestrutura económicos. Além disso, a Akash implementa uma abordagem de "leilão invertido" para reduzir ainda mais os preços dos recursos. Segundo estimativas no site oficial da Akash, os custos de serviço da plataforma são aproximadamente 80% inferiores aos dos servidores centralizados.
io.net permanece como uma rede de computação descentralizada que interliga GPUs distribuídos globalmente para fornecer suporte computacional para treinamento e raciocínio de modelos de IA. Recentemente concluindo uma rodada de financiamento da Série A de $30 milhões, a plataforma agora ostenta uma avaliação de $1 bilhão.
Distinguido de plataformas como Render e Akash, io.net surge como uma rede de computação descentralizada robusta e escalável, intimamente ligada a múltiplos níveis de ferramentas de desenvolvedor. Suas principais características incluem:
Em relação aos preços, o site oficial io.net estima que suas taxas serão aproximadamente 90% mais baixas do que as dos serviços de computação em nuvem centralizados.
Além disso, o token nativo da io.net, IO coin, servirá principalmente como mecanismo de pagamento e recompensas dentro do ecossistema. Alternativamente, os demandantes podem adotar um modelo semelhante ao da Helium convertendo o IO coin na moeda estável “pontos IOSD” para transações.
Este artigo é reimpresso de [Blockchain Wanxiang], o título original é "AI+Web3 Futuro Desenvolvimento Estrada (2) ): Infraestrutura", os direitos autorais pertencem ao autor original [Wanxiang Blockchain]. Se houver objeções a esta reimpressão, por favor entre em contato com o Gate Equipa Learne eles vão lidar com isso prontamente.
Aviso de responsabilidade: As opiniões expressas neste artigo são exclusivamente as do autor e não constituem qualquer conselho de investimento.
As traduções do artigo para outros idiomas são feitas pela equipa Gate Learn. Sem mencionar Gate.io, o artigo traduzido não pode ser reproduzido, distribuído ou plagiado.