Le rasoir de RL : Le RL en politique oublie moins que le SFT.
Même avec une précision équivalente, RL montre un oubli catastrophique moindre.
Principales conclusions : 1) RL a tendance à "oublier" moins que SFT 2) L'apprentissage par renforcement en politique (PPO) oublie moins que l'apprentissage par renforcement hors politique (DQN) 3) Même avec une précision équivalente, RL montre moins d'oubli catastrophique
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
9 J'aime
Récompense
9
4
Reposter
Partager
Commentaire
0/400
ZKSherlock
· Il y a 4h
en fait, c'est assez fascinant d'un point de vue théorique de l'information... moins d'oubli implique une meilleure préservation de l'entropie, pour être honnête.
Voir l'originalRépondre0
BrokenYield
· 09-06 21:51
enfin quelque chose qui n'oublie pas comme mes longs à effet de levier lors du crash de 2022
Le rasoir de RL : Le RL en politique oublie moins que le SFT.
Même avec une précision équivalente, RL montre un oubli catastrophique moindre.
Principales conclusions :
1) RL a tendance à "oublier" moins que SFT
2) L'apprentissage par renforcement en politique (PPO) oublie moins que l'apprentissage par renforcement hors politique (DQN)
3) Même avec une précision équivalente, RL montre moins d'oubli catastrophique