Actuellement en train de travailler sur l'entraînement de modèles RL directement à partir des données de pixels - construit des structures de données personnalisées et des pipelines de rendu à partir de zéro. Implémenté des pools d'arbres partagés pour accélérer les opérations de ray tracing à travers plusieurs environnements randomisés. La dernière optimisation a en fait réduit les exigences de parallélisation, mais maintenant je rencontre des contraintes de taille de lot à la place. Des compromis partout dans ce flux de travail.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
14 J'aime
Récompense
14
5
Reposter
Partager
Commentaire
0/400
BackrowObserver
· Il y a 9h
Pourquoi c'est si compliqué ? Quelqu'un comprend ?
Voir l'originalRépondre0
SelfRugger
· Il y a 9h
Le calcul parallèle est un peu trop difficile.
Voir l'originalRépondre0
LayerZeroJunkie
· Il y a 9h
Brillant ! La structure de construction est directement renforcée par l'apprentissage par renforcement.
Voir l'originalRépondre0
GateUser-2fce706c
· Il y a 9h
Oh là là, même si c'est difficile, c'est une opportunité. Plus on s'y prend tôt, plus on récolte tôt.
Actuellement en train de travailler sur l'entraînement de modèles RL directement à partir des données de pixels - construit des structures de données personnalisées et des pipelines de rendu à partir de zéro. Implémenté des pools d'arbres partagés pour accélérer les opérations de ray tracing à travers plusieurs environnements randomisés. La dernière optimisation a en fait réduit les exigences de parallélisation, mais maintenant je rencontre des contraintes de taille de lot à la place. Des compromis partout dans ce flux de travail.