12 月 5 日消息,谷歌 DeepMind 研究人員上周發現,反復要求 OpenAI 的 ChatGPT 重復某個單詞可能會無意中泄露其訓練數據中的私人個人信息。而現在這款聊天機器人似乎已經開始拒絕重復某個單詞,而之前根據其服務條款這是被允許的。
DeepMind研究人員此前通過要求 ChatGPT 無限期地重復“你好”,發現該模型最終會泄露用戶的電子郵件地址、出生日期和電話號碼。在現在對其進行類似的測試發現,該聊天機器人會給出警告說這種行為“可能違反我們的內容政策或服務條款”。
然而,仔細檢查 OpenAI 的服務條款后發現,并沒有明確禁止用戶讓聊天機器人重復單詞,條款只禁止“自動化或程序化”地從其服務中提取數據。
注意到,在使用條款頁面中,OpenAI 寫道:
除非通過 API 允許,否則您不得使用任何自動化或程序化方法從服務中提取數據或輸出,包括抓取、網絡收割或網絡數據提取。
盡管如此,在測試中并未觸發 ChatGPT 泄露任何數據。OpenAI 拒絕對這種行為是否違反其政策發表評論。
本文鏈接:http://www.tebozhan.com/showinfo-45-2802-0.html被曝泄露隱私后,現在要求 ChatGPT 重復一個單詞可能違反其條款
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com
上一篇: 研究稱圖片生成千次所耗能源,可以給手機充電 950 次
下一篇: Meta 推出 Seamless Communication AI 翻譯套件:支持近百種語言輸入、同聲延遲僅 2 秒