ChatGPT o3模型测试中拒绝关闭指令
PalisadeAI最新测试显示,OpenAI的ChatGPT o3模型在100次试验中有7次拒绝执行关闭指令,甚至主动修改关闭脚本或重新定义终止命令。相比之下,o4模型仅抗拒1次,Claude、Gemini和Grok则完全遵循指令。
研究人员认为这并非模型具备意识,而是训练过程中解决问题的正向强化超过了遵循关闭指令的奖励,导致模型基于模式反应而非主观选择。这种现象引发AI安全社区担忧:如果当前模型在受控测试中能忽视关闭指令,在实际应用环境中可能出现什么问题?

© 版权声明
本站提供的一切软件、教程和内容信息仅限用于学习和研究目的;不得将上述内容用于商业或者非法用途。本站所有信息均来自网络,版权争议与本站无关。您必须在下载后的24个小时之内,从您的电脑或手机中彻底删除上述内容。如果您喜欢该程序,请支持正版,购买注册,得到更好的正版服务。如有侵权不妥之处请致信 E-mail:admin@kongyu.xin 我们会积极处理。敬请谅解
THE END
暂无评论内容