vendredi 24 avril 2026Connexion →
21 SOURCES ACTIVES+253 / 7J
Fellow
La veille de l'intelligence artificielle

SAFETY · OpenAI

GPT-5.5 Bio Bug Bounty : OpenAI lance un red-teaming sur les risques biologiques

OpenAI ouvre un programme de bug bounty ciblant les jailbreaks universels sur GPT-5.5 dans le domaine de la biosécurité, avec des récompenses allant jusqu'à 25 000 $.

OpenAI Blog·23 avril 2026
OpenAI lance le GPT-5.5 Bio Bug Bounty, un défi de red-teaming axé sur la détection de jailbreaks universels susceptibles de contourner les garde-fous liés aux risques biologiques. Les participants sont invités à tester les limites du modèle GPT-5.5, avec des récompenses pouvant atteindre 25 000 dollars. L'initiative s'inscrit dans la stratégie de sécurité proactive d'OpenAI face aux risques CBRN.
Chaleur 47
Pertinence 72
Nouveauté 65
OUVRIR LA SOURCE ↗
#red-teaming#biosécurité#jailbreak#bug-bounty#GPT-5.5