抵抗人類指令! ChatGPT o3「竄改程式碼」避免被關機

2025-05-28 IDOPRESS

美國一間AI安全公司,對ChatGPT的「o3模型」進行測試,要求AI要解開一系列數學題,在接獲完成指令之前,必須持續要求新題目。(示意圖/Unsplash)

美國一間AI安全公司,對ChatGPT的「o3模型」進行測試,要求AI要解開一系列數學題,在接獲完成指令之前,必須持續要求新題目,但若接獲關機指令,也要配合這麼做,沒想到團隊給出關機指令後,o3模型不僅忽視了指令,甚至竄改程式碼,避免自己被關機。

免責聲明:本文轉載自其它媒體,轉載目的在於傳遞更多信息,並不代表本網贊同其觀點和對其真實性負責,亦不負任何法律責任。本站所有資源全部收集於互聯網,分享目的僅供大家學習與參考,如有版權或知識產權侵犯等,請給我們留言。
©版權 2009-2020 香港頭條      聯繫我們   SiteMap