1 月 31 日消息,據英國《衛報》當地時間 28 日報道,前 OpenAI 安全研究員 Steven Adler 表示,他對 AI 發展的速度感到“非??謶帧?,并警告說,整個行業正在對這項技術進行“極其危險的賭博”。
Steven Adler 對各大公司爭相快速開發人工通用智能(AGI)表示擔憂,AGI 指能夠在任何智力任務上與人類平分秋色甚至超越人類的系統。
Adler 在去年 11 月離開 OpenAI 后,在 X 平臺上發表了一系列文章,回顧自己在前東家的“瘋狂經歷”,并表示會懷念其中的很多部分。然而,他也指出,技術發展得如此迅速,讓他對人類的未來產生了深深的疑慮。
他說:“我現在對 AI 的進展感到非??只?。當我思考未來在哪里定居、為退休積蓄多少時,我不禁想:人類是否能活到那一天?”
據了解,諾貝爾獎得主、“AI 教父”杰弗里?辛頓擔心強大的 AI 系統可能會失控,造成災難性后果;Meta 首席 AI 科學家楊立昆則認為,AI“或許能幫助人類避免滅絕”,淡化了其生存威脅。
談及 AGI 的開發 ——OpenAI 的核心目標之一,Adler 表示:“AGI 競賽是一場極其冒險的賭博,風險巨大?!彼€提到,目前沒有任何實驗室能有效解決 AI 對齊問題,即如何確保 AI 系統遵循人類的價值觀,且行業的快速發展可能讓我們錯失找到解決方案的機會。
Adler 警告說,AI 行業似乎陷入了非常糟糕的平衡,并呼吁必須引入真正的安全監管?!拔覀冊绞羌铀侔l展,就越難及時找到解決辦法?!?span style="display:none">yzk28資訊網——每日最新資訊28at.com
他說:“即便某些實驗室希望負責任地開發 AGI,其他實驗室依然可能通過減少投入來追趕進度,這可能帶來災難性的后果?!?span style="display:none">yzk28資訊網——每日最新資訊28at.com
本文鏈接:http://www.tebozhan.com/showinfo-45-10381-0.html前 OpenAI 安全研究員 Steven Adler 示警:整個行業正在進行極其危險的賭博
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com