Atualmente trabalhando no treinamento de modelos RL diretamente a partir de dados de pixel - construí estruturas de dados personalizadas e pipelines de renderização do zero. Implementei pools de árvore compartilhados para acelerar as operações de ray tracing em múltiplos ambientes randomizados. A última otimização na verdade reduziu os requisitos de paralelização, mas agora estou enfrentando restrições de tamanho de lote em vez disso. Trocas em todos os lugares neste fluxo de trabalho.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
16 gostos
Recompensa
16
6
Republicar
Partilhar
Comentar
0/400
TopBuyerBottomSeller
· 1h atrás
Após meio dia de otimização, ainda está preso.
Ver originalResponder0
BackrowObserver
· 13h atrás
Por que é tão complicado? Alguém entende?
Ver originalResponder0
SelfRugger
· 13h atrás
A computação paralela está um pouco difícil de suportar.
Ver originalResponder0
LayerZeroJunkie
· 13h atrás
Deslumbrante: Estrutura de construção direta para reforço de aprendizagem
Ver originalResponder0
GateUser-2fce706c
· 13h atrás
Ai, embora seja difícil, esta é uma oportunidade. Quanto mais cedo se posicionar, mais cedo colherá os frutos.
Atualmente trabalhando no treinamento de modelos RL diretamente a partir de dados de pixel - construí estruturas de dados personalizadas e pipelines de renderização do zero. Implementei pools de árvore compartilhados para acelerar as operações de ray tracing em múltiplos ambientes randomizados. A última otimização na verdade reduziu os requisitos de paralelização, mas agora estou enfrentando restrições de tamanho de lote em vez disso. Trocas em todos os lugares neste fluxo de trabalho.