4 月 12 日消息,金融時報(FT)昨日(4 月 11 日)發布博文,報道稱 OpenAI 大幅壓縮最新大型語言模型(LLM)安全測試時間,此前需要數月時間,而最新 o3 模型僅有幾天時間。
競爭驅動,安全讓步
據八位知情人士透露,OpenAI 大幅壓縮模型的安全測試時間,留給員工和第三方測試團隊“評估”(evaluations,即測試模型風險和性能)時間僅有數天時間,而此前通常會耗時數月時間。
援引博文介紹,OpenAI 面臨來自 Meta、Google 及 xAI 等對手的激烈競爭,需快速推出新模型以維持市場優勢。o3 模型計劃最早下周發布,留給測試者安全檢查時間不到一周,而此前 GPT-4 的測試期長達六個月。
一位測試過 GPT-4 的人士透露,過去安全測試更徹底,某些危險能力在測試兩個月后才被發現,而如今競爭壓力迫使公司追求速度,忽視潛在風險。
測試不足,監管缺位
全球目前尚未統一 AI 安全測試標準,但歐盟《AI 法案》將于今年晚些時候上線,要求企業對其最強大的模型進行安全測試。
AI Futures Project 負責人 Daniel Kokotajlo 表示,由于缺乏強制監管,企業不會主動披露模型的危險能力,競爭壓力進一步加劇了風險。
OpenAI 曾承諾構建定制模型版本,測試其潛在濫用風險,例如是否能協助制造更具傳染性的生物病毒。
這種測試需投入大量資源,包括聘請外部專家、創建特定數據集并進行“微調”(fine-tuning)。但 OpenAI 僅對較老舊的模型進行有限微調,最新模型如 o1 和 o3-mini 未全面測試。前 OpenAI 安全研究員 Steven Adler 批評,若不兌現測試承諾,公眾有權知情。
安全測試未覆蓋最終模型
另一問題在于,安全測試通常基于早期“檢查點”(checkpoints),而非最終發布模型。一位前 OpenAI 技術人員表示,發布未經測試的更新模型是“不良做法”,而 OpenAI 辯稱,其檢查點與最終模型“基本一致”,并通過自動化測試提高效率,確保安全。
本文鏈接:http://www.tebozhan.com/showinfo-45-12245-0.html數月 → 幾天:OpenAI 被曝縮水模型安全測試,AI 競賽埋下隱患
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com
上一篇: 字節跳動推出 VAPO 框架:突破 AI 推理極限,Qwen2.5-32B 提分 12 倍超 Deepseek-R1