Atualmente trabalhando no treinamento de modelos RL diretamente a partir de dados de pixel - construí estruturas de dados personalizadas e pipelines de renderização do zero. Implementei pools de árvore compartilhados para acelerar as operações de ray tracing em múltiplos ambientes randomizados. A última otimização na verdade reduziu os requisitos de paralelização, mas agora estou enfrentando restrições de tamanho de lote em vez disso. Trocas em todos os lugares neste fluxo de trabalho.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • 5
  • Repostar
  • Compartilhar
Comentário
0/400
BackrowObservervip
· 10h atrás
Por que é tão complicado? Alguém entende?
Ver originalResponder0
SelfRuggervip
· 10h atrás
A computação paralela está um pouco difícil de suportar.
Ver originalResponder0
LayerZeroJunkievip
· 10h atrás
Deslumbrante: Estrutura de construção direta para reforço de aprendizagem
Ver originalResponder0
GateUser-2fce706cvip
· 10h atrás
Ai, embora seja difícil, esta é uma oportunidade. Quanto mais cedo se posicionar, mais cedo colherá os frutos.
Ver originalResponder0
CryptoCrazyGFvip
· 10h atrás
A placa gráfica vai ser estragada de novo.
Ver originalResponder0
  • Marcar
Negocie criptomoedas a qualquer hora e em qualquer lugar
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)