OpenAI lance GPT-5.4-Cyber, conçu pour réduire la barrière de refus pour les professionnels de la sécurité, nécessitant une vérification d'identité pour l'utiliser

robot
Création du résumé en cours

ME News Actualités, le 15 avril (UTC+8), selon la surveillance de Dongcha Beating, OpenAI a publié GPT-5.4-Cyber, une variante du modèle basée sur GPT-5.4 spécialement ajustée pour les scénarios de cybersécurité. La différence principale avec la version standard réside dans le fait qu’il réduit activement la limite de refus pour les demandes liées à la sécurité, permettant aux professionnels de la sécurité d’effectuer des opérations que le modèle standard refuserait, telles que la rétro-ingénierie binaire, c’est-à-dire analyser un logiciel compilé sans code source pour détecter la présence de logiciels malveillants ou de vulnérabilités de sécurité. Ce modèle n’est pas accessible à tous les utilisateurs, mais déployé par étapes via le programme « Accès fiable pour la cybersécurité » (Trusted Access for Cyber, TAC) d’OpenAI. GPT-5.4-Cyber est réservé aux utilisateurs de niveau supérieur, c’est-à-dire aux fournisseurs de sécurité vérifiés, aux équipes de sécurité d’entreprise et aux chercheurs en sécurité. OpenAI indique également que les utilisateurs disposant de modèles plus permissifs pourraient faire face à des restrictions supplémentaires, notamment dans des scénarios à faible visibilité comme la non-conservation des données (ZDR), avec des limitations plus strictes lors de l’accès via des plateformes tierces. Le programme TAC lui-même s’élargit actuellement, avec plusieurs milliers de défenseurs individuels et plusieurs centaines d’équipes de sécurité déjà intégrés. Les utilisateurs individuels peuvent vérifier leur identité sur chatgpt.com/cyber pour accéder à une version de base avec une réduction du refus, tandis que les entreprises doivent faire une demande via un représentant d’OpenAI. OpenAI affirme que cette stratégie de déploiement en couches guidera les tests et le déploiement de modèles plus puissants à l’avenir : le modèle standard sera largement publié avec des mesures de sécurité générales, tandis que les modèles plus permissifs, entraînés pour des scénarios de sécurité spécifiques, seront toujours déployés de manière limitée. (Source : BlockBeats)

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler