5 月 22 日消息,路透社報道,微軟 、谷歌 、OpenAI 等 16 家科技公司在 21 日和 22 日舉行的“人工智能(AI)首爾峰會”上承諾安全開發AI 模型,在無法控制最極端風險的情況下關閉其尖端系統(cutting-edge systems)。
參會的公司還包括國內企業智譜 AI(備注:騰訊、阿里、美團和小米曾對其投資)、IBM、亞馬遜、Meta 和三星。
安全承諾包括發布框架,闡明公司將如何衡量其模型的風險。在風險嚴重且“無法接受”的極端情況下,如果無法減輕風險,人工智能公司將不得不按下緊急停止開關,停止開發或部署其模型和系統。
這不是人工智能公司第一次做出聽起來很高尚但不具約束力的安全承諾。亞馬遜、谷歌、Meta 和微軟在去年簽署由美國政府促成的自愿保障措施,以確保他們的產品在發布時是安全的。
被譽為“人工智能教父”的計算機科學家約書亞?本吉奧對這些承諾表示歡迎,但他指出自愿承諾必須伴隨監管。
本文鏈接:http://www.tebozhan.com/showinfo-45-4402-0.html微軟谷歌等 AI 巨頭齊聚首爾:承諾安全開發人工智能模型,必要時關閉尖端系統
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com