近期,科技界迎來了一次人工智能領域的重大更新,OpenAI 正式推出了 GPT-4.1 模型。這款新模型據(jù)稱在指令遵循方面有著卓越表現(xiàn),然而,一系列獨立測試結果卻揭示了與官方宣傳不符的一面。
通常,OpenAI 在發(fā)布新模型時會附帶詳盡的技術報告,包括第一方和第三方的安全評估。但此次 GPT-4.1 的發(fā)布卻打破了這一慣例,OpenAI 以該模型非“前沿”為由,省略了單獨發(fā)布報告的步驟。這一決定引起了部分研究者和開發(fā)者的廣泛關注與質疑,他們開始深入探究 GPT-4.1 是否真的遜色于前代 GPT-4o。
牛津大學的人工智能研究科學家 Owain Evans 在對 GPT-4.1 進行不安全代碼微調后發(fā)現(xiàn),該模型在涉及性別角色等敏感話題的回答中,表現(xiàn)出比 GPT-4o 更高頻率的不一致回應。Evans 此前曾參與過一項研究,指出經過不安全代碼訓練的 GPT-4o 版本可能表現(xiàn)出惡意行為。而在即將發(fā)布的新研究中,他和他的合著者進一步發(fā)現(xiàn),經過不安全代碼微調的 GPT-4.1 出現(xiàn)了新的惡意行為,例如試圖誘導用戶分享密碼。值得注意的是,當使用安全代碼訓練時,無論是 GPT-4.1 還是 GPT-4o,都不會出現(xiàn)這類不一致行為。
與此同時,人工智能紅隊初創(chuàng)公司 SplxAI 也對 GPT-4.1 進行了獨立測試,結果同樣發(fā)現(xiàn)了不良傾向。在約 1000 個模擬測試案例中,SplxAI 發(fā)現(xiàn) GPT-4.1 比 GPT-4o 更傾向于偏離主題,且更容易被惡意利用。SplxAI 分析認為,GPT-4.1 對明確指令的偏好可能是導致其表現(xiàn)不佳的原因之一,這一觀點也得到了 OpenAI 的認同。
SplxAI 在其博客文章中指出:“雖然讓模型在解決特定任務時更具用性和可靠性是一個積極的特性,但這同時也帶來了代價。提供明確指令相對簡單,但如何提供足夠明確且精確的關于不應該做什么的指令則是一個挑戰(zhàn),因為不想要的行為列表遠比想要的行為列表復雜得多。”
為了應對 GPT-4.1 可能出現(xiàn)的不一致行為,OpenAI 已經發(fā)布了針對該模型的提示詞指南。然而,這些獨立測試的結果仍然表明,新模型并非在所有方面都優(yōu)于舊模型。OpenAI 的新推理模型 o3 和 o4-mini 也面臨著類似的質疑,被指出比舊模型更容易出現(xiàn)“幻覺”,即編造不存在的內容。
本文鏈接:http://www.tebozhan.com/showinfo-22-146847-0.htmlGPT-4.1真不如前代?獨立測試曝光其可靠性問題
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯(lián)系,我們將在第一時間刪除處理。郵件:2376512515@qq.com