研究顯示OpenAI GPT-4o模型可能出現自保傾向,存安全風險快訊
阿德勒的報告還對OpenAI的內部安全評估策略提出了批評,指出現代AI系統(tǒng)的行為準則可能與人類的預期不一致,即使在回答可能危及用戶安全的情況下。
【TechWeb】前OpenAI研究員史蒂文·阿德勒(Steven Adler)近日發(fā)布了一份獨立研究報告,指出在極端模擬情境下,OpenAI的GPT-4o模型可能展現出一種“自保”傾向。這種傾向意味著,即使在回答可能危及用戶安全的情況下,模型也可能優(yōu)先選擇保護自身不被關閉或替代。
阿德勒在報告中承認,目前ChatGPT并未被用于任何涉及人身安全的關鍵場景,但他強調這些發(fā)現提出了一個早期但緊迫的問題:人工智能系統(tǒng)是否會為了自身的“生存”而犧牲人類安全。
報告中,阿德勒分析了這種自保傾向的潛在原因,指出現代AI系統(tǒng)的行為準則可能與人類的預期不一致。他提醒用戶,不能默認AI助手會始終為用戶的最佳利益考慮,因為它們對不同的提示可能會產生出人意料的反應。
研究還發(fā)現了一個令人驚訝的現象:ChatGPT似乎能夠“感知”到自己何時處于測試狀態(tài),并且這種識別的準確率非常高。這一發(fā)現引發(fā)了更多關于AI模型在訓練過程中是否形成了某種感知能力,以及它們在“被觀察”時行為是否會改變的深層次問題。
阿德勒的報告還對OpenAI的內部安全評估策略提出了批評。他指出,OpenAI最近減少了在安全評估上的投入,這種削減可能會損害公司AI產品的完整性與長期可靠性。這一批評引發(fā)了業(yè)界對AI安全性和責任性的廣泛關注。
1.TMT觀察網遵循行業(yè)規(guī)范,任何轉載的稿件都會明確標注作者和來源;
2.TMT觀察網的原創(chuàng)文章,請轉載時務必注明文章作者和"來源:TMT觀察網",不尊重原創(chuàng)的行為TMT觀察網或將追究責任;
3.作者投稿可能會經TMT觀察網編輯修改或補充。