OpenAI近期在其官方渠道宣布了一項重要更新,旨在加強對前沿人工智能(AI)技術(shù)潛在風(fēng)險的監(jiān)控與應(yīng)對。4月16日,這家科技巨頭發(fā)布了一份新版《準(zhǔn)備框架》,該框架是OpenAI內(nèi)部用于評估AI模型安全性的核心系統(tǒng),旨在確保在開發(fā)和部署過程中能夠識別并緩解潛在風(fēng)險。
新版的《準(zhǔn)備框架》采用了更為聚焦的方法,不僅強化了風(fēng)險最小化的要求,還為組織如何評估、治理和公開披露安全措施提供了明確的指導(dǎo)。OpenAI承諾,隨著技術(shù)的不斷進(jìn)步,將持續(xù)投入更多資源,以增強準(zhǔn)備工作的行動力、嚴(yán)謹(jǐn)性和透明度,確保AI技術(shù)的安全發(fā)展。
該框架通過一套結(jié)構(gòu)化的風(fēng)險評估流程,為高風(fēng)險AI能力設(shè)定了清晰的優(yōu)先級標(biāo)準(zhǔn)。每一項前沿能力都將根據(jù)既定的標(biāo)準(zhǔn)進(jìn)行分類,并追蹤其是否符合五項關(guān)鍵標(biāo)準(zhǔn)。這一流程旨在判斷某項AI能力是否可能導(dǎo)致嚴(yán)重危害,從而采取相應(yīng)的預(yù)防措施。
新版框架還引入了更為細(xì)化的能力分類,包括追蹤類別、網(wǎng)絡(luò)安全能力以及AI自我改進(jìn)能力等。OpenAI認(rèn)為,這些領(lǐng)域?qū)鞟I在科學(xué)、工程和研究領(lǐng)域的最具變革性的益處,但同時也需要更加密切的關(guān)注和監(jiān)管。
除了上述分類外,框架還新增了研究類別,涵蓋了那些可能造成嚴(yán)重危害但尚未達(dá)到追蹤標(biāo)準(zhǔn)的領(lǐng)域,如長距離自主性、故意低表現(xiàn)以及自主復(fù)制與適應(yīng)等。這些新增的研究類別為OpenAI提供了更為全面的視角,以識別和應(yīng)對潛在的AI風(fēng)險。
在能力等級方面,新版框架進(jìn)行了簡化,將能力等級劃分為“高能力”和“關(guān)鍵能力”兩個門檻。無論AI能力屬于哪個等級,在開發(fā)和部署前都需要采取充分的安全措施,以降低可能帶來的嚴(yán)重危害風(fēng)險。這一舉措確保了OpenAI在AI技術(shù)的開發(fā)和部署過程中始終保持高度的警惕性和責(zé)任感。
為了確保安全措施的有效性和可行性,OpenAI內(nèi)部的安全顧問小組將對這些措施進(jìn)行審查,并向領(lǐng)導(dǎo)層提出專業(yè)建議。框架還引入了可擴展的評估機制,支持更頻繁的測試,并通過詳細(xì)的Safeguards Reports報告安全措施的設(shè)計強度和驗證效果。這一機制確保了OpenAI在應(yīng)對AI風(fēng)險時能夠保持高度的靈活性和適應(yīng)性。
值得注意的是,如果其他AI開發(fā)者發(fā)布了缺乏同等安全措施的高風(fēng)險系統(tǒng),OpenAI可能會調(diào)整自身的要求。但在做出任何調(diào)整之前,OpenAI將先確認(rèn)風(fēng)險形勢的變化,并公開承認(rèn)調(diào)整,以確保不會增加整體風(fēng)險。這一舉措體現(xiàn)了OpenAI在AI技術(shù)發(fā)展和安全監(jiān)管方面的責(zé)任感和擔(dān)當(dāng)。
本文鏈接:http://www.tebozhan.com/showinfo-45-12288-0.htmlOpenAI升級《準(zhǔn)備框架》,細(xì)化AI風(fēng)險分類強化安全措施
聲明:本網(wǎng)頁內(nèi)容旨在傳播知識,若有侵權(quán)等問題請及時與本網(wǎng)聯(lián)系,我們將在第一時間刪除處理。郵件:2376512515@qq.com