跟AI聊天?這五件事千萬(wàn)別說(shuō)!
ChatGPT等聊天機(jī)器人如今已經(jīng)成為人們的常用工具。但在使用過(guò)程中,不要讓自己的隱私成為人工智能的訓(xùn)練素材,或者因?yàn)閿?shù)據(jù)泄露而被曝光。
本文引用地址:http://www.ljygm.com/article/202503/468823.htm3月31日消息,過(guò)去幾年,用戶能從OpenAI的ChatGPT中學(xué)到了不少東西,而這個(gè)聊天機(jī)器人也記錄了許多關(guān)于用戶的個(gè)人信息。
它從無(wú)數(shù)次的用戶交流中收集了大量個(gè)人信息,比如誰(shuí)喜歡吃雞蛋,某些用戶的小寶寶需要靠哺乳入睡,還有用戶因?yàn)楸惩葱枰{(diào)整運(yùn)動(dòng)方式。
它甚至記住了更多更為私密、不便詳述的細(xì)節(jié)信息。
無(wú)論選擇哪種聊天機(jī)器人:分享越多,它們就越有用?;颊呱蟼餮簣?bào)告分析,工程師粘貼未發(fā)布代碼尋求調(diào)試。但人工智能專家提醒,我們應(yīng)該對(duì)這類擬人化工具保持警惕,諸如社會(huì)保障號(hào)碼、企業(yè)機(jī)密數(shù)據(jù)等敏感信息尤其需要防范。
盡管科技公司急于利用數(shù)據(jù)來(lái)優(yōu)化模型,但它們并不希望獲取用戶隱私數(shù)據(jù)。OpenAI明確警示,“請(qǐng)勿在對(duì)話中透露任何敏感信息?!惫雀枰蚕騁emini用戶強(qiáng)調(diào):“避免輸入機(jī)密信息或您不愿意被審核者查看的內(nèi)容?!?/p>
人工智能研究人員認(rèn)為,關(guān)于奇怪皮疹或財(cái)務(wù)失誤的聊天記錄,既可能成為訓(xùn)練新版人工智能的素材,也可能因?yàn)閿?shù)據(jù)泄露而曝光。以下列舉用戶應(yīng)當(dāng)避免輸入的內(nèi)容,并分享一些保護(hù)隱私的對(duì)話技巧:
聊天機(jī)器人逼真的人性化表達(dá)方式常會(huì)使人放下戒備。斯坦福以人為本人工智能研究所研究員詹妮弗·金(Jennifer King)提醒,一旦在聊天機(jī)器人中輸入信息,“你就失去了對(duì)這些信息的掌控?!?/p>
2023年3月,ChatGPT漏洞使得部分用戶可以窺見他人初始對(duì)話內(nèi)容,所幸公司很快就修復(fù)了漏洞。OpenAI此前還曾誤發(fā)訂閱確認(rèn)郵件,導(dǎo)致用戶姓名、電子郵件地址和支付信息外泄。
若遭遇數(shù)據(jù)黑客攻擊或需配合司法搜查令,聊天記錄可能被包含在泄露數(shù)據(jù)中。建議為賬戶設(shè)置高強(qiáng)度密碼并啟用多重認(rèn)證,同時(shí)避免輸入以下具體信息:
身份標(biāo)識(shí)信息。包括社會(huì)保障號(hào)碼、駕照號(hào)碼和護(hù)照號(hào)碼,出生日期、住址和聯(lián)系電話。部分聊天機(jī)器人具備此類信息自動(dòng)脫敏功能,系統(tǒng)會(huì)主動(dòng)屏蔽敏感字段。OpenAI發(fā)言人表示,“我們致力于讓人工智能模型學(xué)習(xí)世界而非個(gè)人隱私,并積極減少個(gè)人信息收集。”
醫(yī)療檢測(cè)報(bào)告。醫(yī)療保密制度本為防止歧視和尷尬,但聊天機(jī)器人通常不受醫(yī)療數(shù)據(jù)的特殊保護(hù)。若需要人工智能解讀檢測(cè)報(bào)告,斯坦福研究中心的金建議:“請(qǐng)先對(duì)圖片或文檔進(jìn)行裁剪編輯處理,盡量只保留測(cè)試結(jié)果,并對(duì)其他信息進(jìn)行脫敏處理?!?/p>
金融賬戶信息。銀行及投資賬戶號(hào)碼可能成為資金監(jiān)控或盜取的突破口,務(wù)必嚴(yán)加防護(hù)。
公司機(jī)密信息。如果用戶在工作中喜歡使用各種通用版聊天機(jī)器人,即使只是編寫一封普通電子郵件,也可能無(wú)意中泄露客戶數(shù)據(jù)或商業(yè)機(jī)密。三星曾因工程師向ChatGPT泄露內(nèi)部源代碼,全面禁用該服務(wù)。如果人工智能對(duì)工作確實(shí)有幫助,企業(yè)就應(yīng)當(dāng)選擇商用版或者部署定制化人工智能系統(tǒng)。
登錄憑證。隨著能夠執(zhí)行各種現(xiàn)實(shí)任務(wù)的智能體興起,向聊天機(jī)器人提供賬戶憑證的需求增多。但這些服務(wù)并非按數(shù)字保險(xiǎn)庫(kù)標(biāo)準(zhǔn)構(gòu)建,密碼、PIN碼及密保問(wèn)題應(yīng)該交由專業(yè)密碼管理器保管。
當(dāng)用戶對(duì)機(jī)器人回復(fù)給予好評(píng)或差評(píng)時(shí),可能視為允許將提問(wèn)及AI回復(fù)用于評(píng)估和模型訓(xùn)練。如果對(duì)話因涉及暴力等敏感內(nèi)容而被標(biāo)記,公司員工甚至可能會(huì)進(jìn)行人工審核。
Anthropic公司開發(fā)的Claude默認(rèn)不將用戶對(duì)話用于訓(xùn)練人工智能,并會(huì)在兩年后刪除這些數(shù)據(jù)。OpenAI的ChatGPT、微軟的Copilot和谷歌的Gemini雖然會(huì)使用對(duì)話數(shù)據(jù),但都在設(shè)置中提供關(guān)閉這項(xiàng)功能的選項(xiàng)。如果用戶注重隱私,可以參考以下建議:
定期刪除記錄。Anthropic首席信息安全官杰森·克林頓(Jason Clinton)建議,謹(jǐn)慎型用戶要及時(shí)清理對(duì)話。人工智能公司通常會(huì)在30天后清除被標(biāo)記為“已刪除”的數(shù)據(jù)。啟用臨時(shí)對(duì)話。ChatGPT的“臨時(shí)聊天”功能類似于瀏覽器的無(wú)痕瀏覽模式。用戶啟用后,可防止信息被存入用戶檔案。此類對(duì)話既不保存歷史記錄,也不會(huì)用于訓(xùn)練模型。
匿名提問(wèn)。隱私搜索引擎支持匿名訪問(wèn)Claude、GPT等主流人工智能模型,承諾這些數(shù)據(jù)不會(huì)用于模型訓(xùn)練。雖然無(wú)法實(shí)現(xiàn)全功能聊天機(jī)器人的文件分析等高級(jí)操作,但基礎(chǔ)問(wèn)答足夠使用。
謹(jǐn)記,聊天機(jī)器人永遠(yuǎn)樂(lè)于繼續(xù)對(duì)話,但何時(shí)結(jié)束對(duì)話或點(diǎn)擊“刪除”鍵,始終取決于用戶自己。
評(píng)論