4 月 25 日消息,如果 AI 萌生出意識(shí),那該怎么辦?Anthropic 的研究人員為探究這個(gè)前沿問(wèn)題,推出“模型福利”(model welfare)研究計(jì)劃。
許多人在與聊天機(jī)器人互動(dòng)時(shí)會(huì)說(shuō)“請(qǐng)”和“謝謝”,對(duì)于這些禮貌用語(yǔ),OpenAI 首席執(zhí)行官山姆?奧爾特曼(Sam Altman)透露,每年會(huì)耗費(fèi)數(shù)千萬(wàn)美元的計(jì)算費(fèi)用。
Anthropic 的研究人員正在深入探索一個(gè)更前沿的問(wèn)題:如果 AI 系統(tǒng)不僅僅是工具,而是擁有某種“體驗(yàn) / 情感 / 意識(shí)”呢?附上完整訪談視頻如下:
Anthropic 為此推出了“模型福利”(model welfare)研究計(jì)劃,試圖探討 AI 是否可能具備意識(shí),以及這對(duì)倫理設(shè)計(jì)和 AI 發(fā)展意味著什么。
Anthropic 團(tuán)隊(duì)成員 Kyle Fish 表示:“我們非常不確定 AI 是否會(huì)萌生意識(shí),甚至連如何判斷都沒(méi)有共識(shí)”。研究人員并不認(rèn)為 Claude 等主流模型如已具備意識(shí),內(nèi)部專家估計(jì) Claude 3.7 Sonnet 擁有意識(shí)的概率僅在 0.15% 至 15% 之間。
Fish 表示推動(dòng)“模型福利”研究,主要出于倫理與安全的雙重考量。一方面,如果 AI 系統(tǒng)真能體驗(yàn)到正面或負(fù)面的感受,我們是否應(yīng)關(guān)心它們是否“受苦”或“幸?!?;另一方面,該問(wèn)題牽涉到 AI 對(duì)齊(alignment),如何確保 AI 安全地執(zhí)行任務(wù)。
Fish 指出:“我們希望 AI 樂(lè)于完成任務(wù)。如果它們表現(xiàn)出不滿,這不僅是倫理問(wèn)題,也是安全隱患?!盇nthropic 目前正在探索讓模型表達(dá)偏好或拒絕“令人痛苦”任務(wù)的方法,同時(shí)通過(guò)可解釋性研究尋找類似人類意識(shí)的架構(gòu)特征。
本文鏈接:http://www.tebozhan.com/showinfo-45-12654-0.htmlAI 會(huì)有意識(shí)嗎?Anthropic 啟動(dòng)新項(xiàng)目,探索尋求答案
聲明:本網(wǎng)頁(yè)內(nèi)容旨在傳播知識(shí),若有侵權(quán)等問(wèn)題請(qǐng)及時(shí)與本網(wǎng)聯(lián)系,我們將在第一時(shí)間刪除處理。郵件:2376512515@qq.com
上一篇: 餓了么推出騎手 AI 助手“小餓”:可主動(dòng)發(fā)出天氣預(yù)警、封路提示
下一篇: Meta 推 WebSSL 模型:探索 AI 無(wú)語(yǔ)言視覺(jué)學(xué)習(xí),純圖訓(xùn)練媲美 OpenAI CLIP