
tech
OpenAI lance un bug bounty inédit ciblant les risques biosécurité de GPT-5.5
OpenAI déploie un défi de red-teaming pour GPT-5.5, visant à détecter des jailbreaks universels liés aux risques biosécurité. Les chercheurs peuvent remporter jusqu'à 25 000 dollars en identifiant ces failles critiques.
5 min
27 avr · 03h24