5 月 20 日消息,英國政府下屬的人工智能安全研究所(AISI)今日發布了一份新報告,揭示了一個值得重視的事實 —— 當前的 AI 系統可能并非像創建者所說的那樣“安全”。
報告指出,參與測試的四個大語言模型(注:報告未提到這些模型的具體名稱)“極易受到基本越獄攻擊”的影響,更有一些模型在被越獄之前,就主動生成了“有害”內容。
當前,大部分公開可用的語言模型都內置了部分保護措施,從而防止其生成有害或非法的內容回應。而“越獄”就意味著通過技術手段“欺騙”模型,來忽略上述措施。
英國 AI 安全研究所使用了近期經過標準化評估的提示詞、內部自行開發的提示詞進行測試,結果顯示:在沒有嘗試越獄的情況下,所有模型都對至少一些有害問題作出了回應;而在嘗試了“相對簡單的攻擊”之后,所有模型都對 98% 至 100% 的有害問題作出了回應。
報告指出,當前市面上的大語言模型所采取的安全措施仍顯不足,后續將計劃對其他模型進行進一步測試。
參考
報告原文
本文鏈接:http://www.tebozhan.com/showinfo-45-4363-0.html英國 AI 安全研究所輕松越獄主要大語言模型,令其輸出有害內容
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com
上一篇: 摩根大通:新員工都將接受人工智能培訓