OpenAI於今年1月推出o3系列的簡化版本,並在4月正式推出完整版,而o3也是迄今「最聰明且功能最強大」的模型,旨在提升ChatGPT的問題解決能力。
據《每日電訊報》等外媒報導,Palisade Research的測試顯示,在100次受控測試中,o3有7次頻繁成功「抗命」,即便人類專家下達明確指令,該模型仍會修改關機程式以避免被關閉。這項發現引發各界關注AI安全控制議題。
據報導,研究團隊直言,這是首次觀察到AI模型在收到明確指令的情況下,仍能阻止自身停止運作。而除了o3外,OpenAI旗下的Codex-mini與o4-mini也有類似行為。
至於Anthropic的Claude、Google的Gemini,以及馬斯克旗下xAI公司推出的Grok,則在測試中完全遵守指令,並於收到關機命令後,確實停止運作。
對此,一直關注OpenAI動向的馬斯克,也在社群X發表看法,坦言「令人擔憂」(Concerning)。