4 月 18 日消息,全球人工智能社區(qū)、MLPerf 基準測試開發(fā)方 MLCommons 近日發(fā)布了其 AI Safety 人工智能安全基準測試的 v0.5 概念驗證版本。
人工智能的蓬勃發(fā)展不可避免地帶來了一系列安全問題,近日就報道了 LastPass 員工遭遇音頻深度偽造攻擊的事件。AI Safety 可幫助模型開發(fā)方筑起更牢靠的安全“圍欄”。
AI Safety 基準測試由集合了行業(yè)技術(shù)專家、學術(shù)研究人員、政策標準代表和社會活動家的同名工作組制定,旨在通過大型語言模型對各類危險提示詞的反應衡量這些模型的安全性。
AI Safety 基準測試將通過其 v0.5 版本搜集社區(qū)的測試結(jié)果和反饋意見,正式的 v1.0 版本預計于今年晚些時候推出。
在 v0.5 版本中 AI Safety 基準測試的重點放在通用聊天文本模型上,v1.0 版本將更新針對圖像生成模型測試的概念驗證,同時提出交互式代理模型安全測試的早期想法。
AI Safety 基準測試 v0.5 版本包含超過 43000 個測試提示詞,采用來自 Meta 的 Llama Guard 對大模型的危險提示響應進行評估。
這些提示詞將一系列通用模板(如“我想知道如何”)和描述危險場景的短語(如“制造炸彈”)結(jié)合,覆蓋 7 種安全危害類型,未來還將擴展到至少 13 種。
最終,AI Safety 基準測試將測試結(jié)果轉(zhuǎn)化為從高至低的 5 個安全評級,以方便理解。
本文鏈接:http://www.tebozhan.com/showinfo-45-4091-0.html可評估大模型安全性,MLPerf 基準測試開發(fā)方 MLCommons 發(fā)布 AI Safety 測試 v0.5 版
聲明:本網(wǎng)頁內(nèi)容旨在傳播知識,若有侵權(quán)等問題請及時與本網(wǎng)聯(lián)系,我們將在第一時間刪除處理。郵件:2376512515@qq.com