
前沿资讯
1750417394更新
0
先进人工智能模型为新药研发、疫苗设计、可持续燃料酶的创造、罕见疾病治疗等带来前所未有的机遇。OpenAI宣布,其正为AI在生物学领域即将达到的“高能力”水平做充分准备,并将于今年7月举办一场生物安全峰会,邀请全球政府研究机构与非政府组织,共同探讨AI生物能力的双重用途风险与安全治理路径。
OpenAI指出,前沿AI模型具备强大的推理能力、化学反应预测与实验指导功能,已开始协助科学家识别最有希望成功进入人体试验阶段的新药。这些能力的快速演进,也引发了滥用隐患。对此,OpenAI已建立起一套多层次的安全防护体系,以保障AI发展带来的益处远大于风险。
OpenAI在公告中详细披露了其面向生物领域的安全策略:
模型安全训练与内容拒绝机制:通过训练模型拒绝明确有害请求,对病毒学、基因工程等双重用途请求,也避免提供可操作的逐步指令,仅保留支持专家理解的高层次内容。
全程监测与人工审核:部署全天候检测系统,识别潜在风险行为,一旦触发系统将自动阻断响应,并根据情况启动人工审核与政策执法流程。
对抗性红队测试:与具备生物学与AI领域知识的红队专家合作,从攻击者视角测试系统漏洞,持续迭代安全防线。
模型权重与基础设施安全控制:采取多重加固手段,包括访问控制、出网管控、威胁情报和内部风险管理,保障模型资产不被滥用。
此外,OpenAI的安全与安保委员会已对相关计划进行审查,并在现有模型(如o3)中提前部署了相关措施。
OpenAI强调,未来的安全治理将离不开与政府和行业专家的紧密合作。目前,OpenAI已与美国CAISI、英国AISI及洛斯阿拉莫斯国家实验室等机构展开合作,共同评估AI在实验室环境中的影响,并推动外部学术与产业研究在生物安全工具与评估机制上的进展。
在即将召开的生物安全峰会上,OpenAI将聚焦如何在确保安全的前提下,释放AI模型在生物防御、诊断与疗法开发中的潜力,同时建立筛查、检测、防护等更坚实的社会防线。OpenAI还提出,随着AI和生物安全研究的融合加深,将为以安全为核心使命的初创公司提供广阔发展空间,安全本身也将成为AI时代的重要产业方向。
OpenAI表示,当前正是全球生物防御体系面临AI冲击的重要时刻,必须通过前瞻性治理与跨界合作,确保先进技术服务于人类健康与安全,而非成为风险源头。
参考资料:https://openai.com/index/preparing-for-future-ai-capabilities-in-biology/