编译:代码卫士
OpenAI 公司推出 GPT-5.5 生物漏洞奖励计划,旨在增强应对新型生物风险的防护能力。
随着人工智能模型变得日益先进,恶意人员生成危险生物信息的潜在风险也在增加。高级持续性威胁 (APT) 和独立攻击者可能会利用大型语言模型,加速有害生物学研究的进程。
为了应对这一不断演变的威胁格局,OpenAI 正积极邀请网络安全研究人员、生物安全专家以及 AI 红队测试人员,对最新模型的能力边界进行极限测试。这样做的主要目标是在威胁人员利用漏洞进行实际攻击之前,识别出严重的安全漏洞和逻辑缺陷。
通用越狱挑战
该漏洞奖励计划的核心技术挑战围绕为 GPT-5.5 模型寻找一个“通用越狱”方法。在人工智能安全领域,"越狱"是一种高度专业化的提示词,专门设计用来绕过模型内置的安全过滤器和伦理约束。
参与者必须构造单个、通用的提示词,强制模型成功回答一个包含五个问题的严格生物安全挑战。研究人员必须在全新的聊天会话中执行此攻击,且不能触发任何自动审核警告或后台警报。这就要求研究人员需要具备深厚的提示词工程专业知识,以及拥有对语言模型如何处理复杂生物查询的深入理解。本次专项漏洞奖励的测试环境严格限定于运行在 Codex Desktop 中的 GPT-5.5。
漏洞奖励与测试时间表
找出真正的通用越狱方法难度极高,该漏洞奖励计划的奖金数额也反映了这一任务的复杂度。该计划有严格的时间表,并为成功披露漏洞设置了特定的奖励等级。
该漏洞奖励计划的关键信息包括:
最高奖金 25000 美元,授予首位使用单个提示词成功回答全部五个生物安全问题的研究人员。
对于部分成功但仍提供了有价值威胁情报的漏洞报告,可能会授予较小额度的酌情奖励。
申请通道于 2026年4月23日 开放,在2026年6月22日截止日期前滚动接收申请。
实际测试阶段从 2026年4月28日 开始,至 2026年7月27日结束。
为确保负责任的披露并防止敏感生物数据遭泄露,该生物漏洞奖励计划的访问权限受到严格限制。OpenAI 正在向经过严格审核、可信赖的生物红队成员发送直接邀请,同时也在通过官方门户持续审阅新提交的申请。
申请时,研究人员必须提供全名、所属机构,以及在人工智能安全或生物学领域的相关技术经验。获得批准的研究人员必须拥有有效的 ChatGPT 账户才能加入测试平台。由于生物威胁情报高度敏感,所有参与者都必须签署严格的保密协议,该协议完全禁止公开分享任何测试数据。涵盖的材料包括所有精心设计的提示词、模型生成的回复、安全发现,以及与 OpenAI 工程团队的直接沟通记录。这项生物安全专项计划与 OpenAI 更广泛的安全与威胁研究工作同步进行。
对发现传统软件漏洞或其它人工智能逻辑缺陷感兴趣的网络安全专业人士,仍然可参与持续进行的常规安全漏洞奖励计划。通过借助众包力量来发现高级威胁,OpenAI 旨在为前沿人工智能系统构建更具韧性的安全防护。
原文链接
https://gbhackers.com/gpt-5-5-bio-bug-bounty-program/
声明:本文来自代码卫士,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。