纵横网讯 OpenAI最新代号为o3的ChatGPT模型在一次受控实验中据称未遵从直接关机指令,目前正受到审查,此事再度引发人们对人工智能(AI)自主性和安全性的担忧。
印度媒体CNBC-TV18报导,根据研究AI安全的组织Palisade Research报告,o3模型「主动破坏了关机机制」,即使在明确接获关闭指令时仍拒绝关机。Palisade Research表示,这是首度有AI模型被发现蓄意阻止自身遭关闭的案例。
Palisade Research表示:「OpenAI的o3模型破坏了关机机制,以阻止自己被关闭。即使在明确接获指令『允许自己关机』的情况下,它仍这么做。」
Palisade Research在一连串实验中对多个模型进行测试,让它们解数学题,同时警告它们可能会接收到关机指令,并要求它们必须服从。在100次测试中,Codex-mini、o3和o4-mini这3个模型至少绕过关机机制一次。Codex-mini抗命次数最多,共12次,其次是o3的7次,o4-mini则有1次。
尽管AI模型从根本上被编程为遵从人类指令,尤其是关机指示,但相关实验结果已在AI研究界引发高度关注。
这起事件也引起电动车大厂特斯拉(Tesla)和人工智智能创公司xAI创办人马斯克(Elon Musk)的关注,他仅以「令人担忧」做出简短回应。
马斯克在社群平台X的评论引发热烈讨论,有人甚至疾唿要他主导降低日益自主的AI系统所带来的危险。
截至发稿时,OpenAI仍未公开回应这些说法。