SAFETY · OpenAI
GPT-5.5 Bio Bug Bounty : OpenAI lance un red-teaming sur les risques biologiques
OpenAI ouvre un programme de bug bounty ciblant les jailbreaks universels sur GPT-5.5 dans le domaine de la biosécurité, avec des récompenses allant jusqu'à 25 000 $.
OpenAI Blog·23 avril 2026

OpenAI lance le GPT-5.5 Bio Bug Bounty, un défi de red-teaming axé sur la détection de jailbreaks universels susceptibles de contourner les garde-fous liés aux risques biologiques. Les participants sont invités à tester les limites du modèle GPT-5.5, avec des récompenses pouvant atteindre 25 000 dollars. L'initiative s'inscrit dans la stratégie de sécurité proactive d'OpenAI face aux risques CBRN.
Chaleur 47
Pertinence 72
Nouveauté 65