被曝泄露隱私后,現在要求ChatGPT重復一個單詞可能違反其條款
12 月 5 日消息,谷歌 DeepMind 研究人員上周發現,反復要求 OpenAI 的 ChatGPT 重復某個單詞可能會無意中泄露其訓練數據中的私人個人信息。而現在這款聊天機器人似乎已經開始拒絕重復某個單詞,而之前根據其服務條款這是被允許的。
DeepMind 研究人員此前通過要求 ChatGPT 無限期地重復“你好”,發現該模型最終會泄露用戶的電子郵件地址、出生日期和電話號碼。在現在對其進行類似的測試發現,該聊天機器人會給出警告說這種行為“可能違反我們的內容政策或服務條款”。
然而,仔細檢查 OpenAI 的服務條款后發現,并沒有明確禁止用戶讓聊天機器人重復單詞,條款只禁止“自動化或程序化”地從其服務中提取數據。
IT之家注意到,在使用條款頁面中,OpenAI 寫道:
除非通過 API 允許,否則您不得使用任何自動化或程序化方法從服務中提取數據或輸出,包括抓取、網絡收割或網絡數據提取。
盡管如此,在測試中并未觸發 ChatGPT 泄露任何數據。OpenAI 拒絕對這種行為是否違反其政策發表評論。
【來源: IT之家 】