來源:清元宇宙
還記得5月OpenAI在國會山聽證會上的自信、坦誠、游刃有余的問答嗎?
那時的Sam Altman可謂意氣風(fēng)發(fā),在耐心、友好的國會議員面前,就AI立法、大模型安全性問題侃侃而談,甚至還自己提出了AI監(jiān)管方針,“懇求”國會議員監(jiān)管。
在Sam Altman精湛的說辭和誠懇的態(tài)度下,本該針鋒相對、充滿緊張氛圍的聽證會,卻成了雙向奔赴的現(xiàn)場,“曖昧之情”可謂羨煞旁人。
既然話都說到這份上了,那AI監(jiān)管自然得抓緊提上日程!
于是,在民眾舉報和官方調(diào)查的有力結(jié)合下,一條大魚終于“落網(wǎng)了”。
7月13日,美國聯(lián)邦貿(mào)易委員會(FTC)對OpenAI正式發(fā)起調(diào)查。調(diào)查內(nèi)容集中在兩方面,即ChatGPT是否通過發(fā)布虛假信息損害了人們的利益,以及OpenAI是否存在“不公平或欺騙性”的隱私和數(shù)據(jù)安全行為。
事實上,這不是OpenAI首次被質(zhì)疑數(shù)據(jù)隱私問題。
6月28號,位于北加州的Clarkson律所對OpenAI及其合作伙伴微軟提起了集體訴訟。理由是OpenAI在訓(xùn)練大模型時抓取的數(shù)據(jù),嚴(yán)重侵犯了16名原告的著作權(quán)和隱私。
6月底,作家阿瓦德(Mona Awad)與特蘭布拉(Paul Trembla)也向舊金山聯(lián)邦法院提起訴訟,稱ChatGPT未經(jīng)他們同意,擅自調(diào)用他們的小說來進行訓(xùn)練。
監(jiān)管看似是對AI企業(yè)的debuff(負(fù)效應(yīng)),但在監(jiān)管成為必然的趨勢之下,先一步成為規(guī)則的制定者,則可以獲得相對的競爭優(yōu)勢。這是OpenAI高呼“安全”“合法”的原因。
但如今,“AI監(jiān)管先鋒”OpenAI成了游走在法律邊緣的頭號違規(guī)者,這場“AI狂飆大戲”,Sam Altman作為“AI界高啟強”的真面目也算是被揭開了。
面對怒氣沖沖的被侵權(quán)者和來勢洶洶的監(jiān)管部門,OpenAI的CEO Sam Altman雖然語氣依舊克制,就侵權(quán)、起訴、調(diào)查等問題發(fā)表自己的看法,但從其推特的高頻回復(fù)來看,或許著實有點慌了。
面對質(zhì)疑,Sam Altman連發(fā)了三條推特:
他對FTC的調(diào)查和未能建立起信任表示遺憾,并強調(diào)自己一直重視技術(shù)安全問題,相信OpenAI的一切行為是符合法律的。
他繼續(xù)強調(diào)GPT-4的安全性,稱OpenAI在多年的安全研究基礎(chǔ)上構(gòu)建了GPT-4,并在完成初始訓(xùn)練后花費了6個多月的時間使其更安全、更符合要求,然后才將其發(fā)布。
Altman表示其對技術(shù)的局限性一直保持透明,并稱OpenAI沒有動力去追求無限的回報,因為他們的盈利結(jié)構(gòu)是有限的,其暗指將社會道德置于盈利之上。
總結(jié)一下就是,我們一直試圖不被發(fā)現(xiàn),但很遺憾還是暴露了。
事實上,此次被調(diào)查的問題,早在5月的聽證會上,就已經(jīng)埋下了伏筆。
雖然在國會山上的答辯中,Sam Altman的表現(xiàn)可謂異常出彩,但是,并非全無漏洞。
當(dāng)時坐在證人席上的紐約大學(xué)心理學(xué)和神經(jīng)科學(xué)教授Gary Marcus問出了兩個致命問題:
時隔兩個月,當(dāng)初的兩個問題均成為OpenAI此次信任危機爆發(fā)的重要根源。
北加州Clarkson律所在起訴書中言辭激烈,表示OpenAI的整個商業(yè)模式都是基于盜竊,并聲稱,OpenAI和微軟在開發(fā)、營銷和運營其AI產(chǎn)品時,對數(shù)以億計的互聯(lián)網(wǎng)用戶的個人信息,包括兒童信息進行了非法收集、使用和分享。除了ChatGPT,其訴訟涉及的對象包括了ChatGPT、Dall-E、Codex在內(nèi)的眾多OpenAI旗下產(chǎn)品。基于這一點,許多網(wǎng)友將其稱作“OpenAI第一案”。
最近的一次,F(xiàn)TC對于OpenAI的調(diào)查更為詳細(xì),其列舉了一份包含49個大問題,200多個小問題的清單,要求OpenAI就清單上的所有問題進行詳細(xì)的回答和陳述。問題涉及模型開發(fā)與訓(xùn)練、風(fēng)險評估與應(yīng)對、隱私和Prompt風(fēng)險及措施和API集成及插件等諸多方面。
答完這些問題,原本不Open的OpenAI想必不得不Open一回了。
在OpenAI和微軟兩位同行應(yīng)付接二連三的侵權(quán)訴訟,忙得焦頭爛額之際,谷歌敏銳地嗅到了危機,于是選擇先行堵上這一漏洞。
7月1日,谷歌更新了其隱私政策,明確規(guī)定谷歌有權(quán)收集任何公開可用的數(shù)據(jù),并將其用于其人工智能模型的培訓(xùn)。此舉意味著,只要是谷歌能從公開渠道獲得的內(nèi)容,它都可以拿來訓(xùn)練自己的Bard模型或未來的一切人工智能。
國外媒體對此評論,在這一項條款中,谷歌似乎保留了收集和利用在公共平臺上發(fā)布的所有數(shù)據(jù)的權(quán)利,就好像整個互聯(lián)網(wǎng)是該公司自己的AI游樂場。
不過,針對隱私保護的擔(dān)憂,谷歌的發(fā)言人克里斯塔·馬爾登(Christa Muldoon)強調(diào),谷歌已將隱私原則和保障措施融入人工智能技術(shù)開發(fā)之中,以確保其與谷歌的人工智能原則保持一致。
此外,谷歌也采取了一系列措施來應(yīng)對用戶數(shù)據(jù)的安全性和隱私性等方面的問題。例如,谷歌承諾僅在獲得用戶明確同意的情況下收集和使用他們的數(shù)據(jù),并將采取嚴(yán)格的技術(shù)和管理措施來防止數(shù)據(jù)泄露。
并且,谷歌正在與美國、英國和歐洲的新聞機構(gòu)進行溝通,表示愿意付費購買新聞內(nèi)容。同時他們的AI工具Bard也正在接受“公開可獲得的信息”的培訓(xùn),這可能包括需要付費的網(wǎng)站。若付費購買新聞信息的協(xié)議達(dá)成,谷歌在信息版權(quán)問題上將邁出值得借鑒的一步,而谷歌的數(shù)據(jù)庫也將獲得更為豐富的數(shù)據(jù)來源。
但是,新政策對書籍著作、藝術(shù)繪畫等受版權(quán)保護的內(nèi)容作品,如何防止其進入訓(xùn)練數(shù)據(jù)庫的具體做法并未明確。
從“OpenAI第一案”,到AI公司現(xiàn)階段普遍面臨的數(shù)據(jù)隱私問題,AI監(jiān)管的下一步方向已經(jīng)較為明確,那便是社交平臺上發(fā)布的“私人數(shù)據(jù)”和用于訓(xùn)練的“公共數(shù)據(jù)”之間的劃分準(zhǔn)則。
目前,美國對于大模型訓(xùn)練數(shù)據(jù)的立法還沒有通過,法官判決很大程度上是參考已經(jīng)有的隱私權(quán)和著作權(quán)的案例。但隨著AI與人類社會之間不斷融合、浸潤,所謂“具身智能”的未來不斷臨近,私人數(shù)據(jù)的保護邊界、使用邊界必須要逐步明確。
然而,要想?yún)^(qū)分?jǐn)?shù)據(jù)的公私邊界,在立法層面上來看,也并非易事。
作為生產(chǎn)信息數(shù)據(jù)量最大的社交媒體,平臺本身的公共性質(zhì)和用戶活動的私人性質(zhì),無疑構(gòu)成了一對復(fù)雜的矛盾,用戶與平臺對于數(shù)據(jù)的保護和使用邊界的界定,當(dāng)中涉及諸多復(fù)雜的主客觀因素,使得要想明確地界定公私界限,極為困難。
不過,縱然法律上的尚未探明的灰色地帶成了AI巨頭們時不時攫取利益的來源,但是,在沒有明確法律規(guī)則的背景之下,類似的隱私侵犯案件的審判中,和解往往是普遍的處理方式。而在和解中,OpenAI等AI公司并不一定會具有優(yōu)勢。
因此,頻繁增多的隱私侵犯案件,勢必會倒逼政府及法律部門在AI監(jiān)管上作出重要舉措,也會迫使AI科技公司收斂自己的權(quán)力,更新完善既有的信息政策。
本文鏈接:http://www.tebozhan.com/showinfo-40-2-0.htmlAI界地震!美國對OpenAI展開調(diào)查!監(jiān)管風(fēng)暴來襲!
聲明:本網(wǎng)頁內(nèi)容旨在傳播知識,若有侵權(quán)等問題請及時與本網(wǎng)聯(lián)系,我們將在第一時間刪除處理。郵件:2376512515@qq.com
上一篇: 元宇宙終究沒火過兩年