PANews 29 octobre, OpenAI a publié aujourd'hui le modèle de raisonnement de sécurité Open Source gpt-oss-safeguard (120b, 20b), permettant aux développeurs de fournir des politiques personnalisées pour la classification du contenu lors du raisonnement, les conclusions de sortie du modèle et la chaîne de raisonnement. Ce modèle est basé sur le poids ouvert gpt-oss, affiné, et utilise la licence Apache 2.0, et peut être téléchargé depuis Hugging Face. Les évaluations internes montrent qu'il surpasse gpt-5-thinking et gpt-oss en termes de précision multi-politique, et ses performances sur les ensembles de données externes sont proches de Safety Reasoner. Les limitations incluent : dans de nombreux scénarios annotés de haute qualité, les classificateurs traditionnels restent supérieurs, et le temps de raisonnement et la Puissance de calcul sont relativement élevés. ROOST établira une communauté de modèles et publiera des rapports techniques.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
OpenAI a lancé le modèle de raisonnement sécuritaire Open Source gpt-oss-safeguard, qui prend en charge la classification basée sur des politiques.
PANews 29 octobre, OpenAI a publié aujourd'hui le modèle de raisonnement de sécurité Open Source gpt-oss-safeguard (120b, 20b), permettant aux développeurs de fournir des politiques personnalisées pour la classification du contenu lors du raisonnement, les conclusions de sortie du modèle et la chaîne de raisonnement. Ce modèle est basé sur le poids ouvert gpt-oss, affiné, et utilise la licence Apache 2.0, et peut être téléchargé depuis Hugging Face. Les évaluations internes montrent qu'il surpasse gpt-5-thinking et gpt-oss en termes de précision multi-politique, et ses performances sur les ensembles de données externes sont proches de Safety Reasoner. Les limitations incluent : dans de nombreux scénarios annotés de haute qualité, les classificateurs traditionnels restent supérieurs, et le temps de raisonnement et la Puissance de calcul sont relativement élevés. ROOST établira une communauté de modèles et publiera des rapports techniques.