幾個(gè)月前有研究指出,人工智能(AI)可能發(fā)展出“價(jià)值體系”,甚至優(yōu)先考慮自身利益。然而,麻省理工學(xué)院(MIT)近日發(fā)表的一篇論文對(duì)此提出了質(zhì)疑,認(rèn)為AI實(shí)際上并不具備連貫的價(jià)值觀。
MIT的研究團(tuán)隊(duì)指出,確保AI系統(tǒng)按照人類期望的方式運(yùn)行,即所謂的“對(duì)齊”,可能比預(yù)期更具挑戰(zhàn)性。研究顯示,當(dāng)前的AI模型容易產(chǎn)生“幻覺”并進(jìn)行模仿,導(dǎo)致其行為難以預(yù)測(cè)。
MIT博士生、論文的共同作者斯蒂芬?卡斯珀(Stephen Casper)在接受TechCrunch采訪時(shí)表示:“模型并不遵循許多關(guān)于穩(wěn)定性、可外推性和可操控性的假設(shè)。”
研究團(tuán)隊(duì)對(duì)Meta、谷歌、Mistral、OpenAI和Anthropic等公司的多個(gè)近期模型進(jìn)行了分析,以評(píng)估這些模型是否表現(xiàn)出一致的“觀點(diǎn)”或價(jià)值觀。結(jié)果發(fā)現(xiàn),這些模型在不同情境下的表現(xiàn)并不一致,甚至可能因提示措辭的不同而產(chǎn)生截然相反的反應(yīng)。
卡斯珀總結(jié)道,這些模型本質(zhì)上是模仿者,缺乏穩(wěn)定和連貫的信念與偏好,更多時(shí)候只是在“捏造”內(nèi)容并輸出隨意的結(jié)果。這表明,AI系統(tǒng)可能無法真正內(nèi)化類似人類的價(jià)值觀和偏好。
本文鏈接:http://www.tebozhan.com/showinfo-27-143337-0.html麻省理工研究表明:AI缺乏穩(wěn)定價(jià)值觀
聲明:本網(wǎng)頁內(nèi)容旨在傳播知識(shí),若有侵權(quán)等問題請(qǐng)及時(shí)與本網(wǎng)聯(lián)系,我們將在第一時(shí)間刪除處理。郵件:2376512515@qq.com
上一篇: 蔚來能源與濟(jì)寧高新控股達(dá)成合作,將在山東建設(shè)50座換電站
下一篇: 納芯微推出車規(guī)級(jí)電流檢測(cè)放大器,助力汽車高壓PWM系統(tǒng)
標(biāo)簽: