AI機器人ChatGPT已成為許多人的職場好幫手,下了班也找ChatGPT吐苦水、聊心事、討論健康憂慮,分享的事情愈多,感覺愈有幫助。美國史丹福大學的專家日前警告,有些敏感訊息不宜與聊天機器人分享,否則可能助長隱私無端暴露,甚至惹來麻煩。專家也提供了5招隱私自保之道。
美國《紐約郵報》16日引述《華爾街日報》報導,即使AI業者希望盡可能擴大資料收集範圍以改善運算模型,他們也不想獲取用戶的祕密。OpenAI敦促大眾「對話過程請勿分享任何敏感訊息」。谷歌呼籲Gemini用戶「切勿輸入機密訊息或任何你不想讓檢閱者看到的資料」。2023年3月,ChatGPT曾因某個漏洞導致部分用戶能看到其他用戶聊天時輸入的內容。OpenAI也曾誤發訂閱確認電郵,導致用戶姓名、電郵地址與付款資訊外洩。這些漏洞均已修復,但若AI業者接獲搜索令,就可能必須移交相關資料。
身分資訊
史丹福大學人本AI研究所(Institute for Human-Centered Artificial Intelligence,HAI)研究員金恩(Jennifer King)形容,資訊一旦輸入給聊天機器人,從此「失去所有權」。她提醒,至少有5種敏感資訊絕對不該讓聊天機器人知道。第一種就是身分資訊,包括身分證號、駕照號碼、護照號碼、出生日期、居住地址、電話號碼。有些聊天機器人會針對這類內容略加編輯,但用戶徹底避免分享會更安全。
醫療檢測報告
第二種是醫療報告。醫療院所必須保護患者隱私,但聊天機器人通常不在採取保護行動之列。倘若要以學術角度或實驗性質分享,上傳醫療相關報告或結果之前務必把圖片或文件裁減、編輯,金恩建議「盡量只提供醫療檢測的結果」,其餘內容不要透露給機器人。
財務資訊、登入帳密
第三種是財務帳戶。銀行、投資帳戶的號碼都不該透露,否則若遭駭客取得,恐成暗中監控甚至竊取財產的肥羊。第四種是登入帳密,AI機器人也許有很好的理由向用戶索取這類敏感個資,但機器人並不是保險庫,無法提供保護帳密安全的承諾。金恩指出,利用密碼管理軟體比較安全。
企業資訊
最後一種是公司特定資料。工作中使用AI機器人時務必當心無意間洩漏客戶資料或不對外公開的商業機密,就算是要機器人幫你打電郵草稿的情況也不該透露。南韓三星電子有個工程師不小心洩漏了內部原始碼,三星決定禁用ChatGPT。金恩建議,職場用戶最好使用公司訂閱的企業版本,或使用自家客製化的AI程式,並嚴格落實配套保護措施。
加強自保之道
如需與機器人進行私密話題交流,用戶還有5招可加強自保:一、帳號的密碼複雜度增強。二,登入過程使用多重身分驗證。三、每次對話之後刪除所有內容,美國AI新創業者Anthropic的Claude通常在30天後徹底清除用戶已刪除的資料;DeepSeek仍維持無限期保留資料的服務政策,Claude預設不用聊天資料訓練模型,資料2年後刪除;谷歌Gemini與微軟Copilot則會使用聊天內容訓練。
四、使用「臨時聊天」(temporary chat)功能,這與無痕功能瀏覽網頁相似,這讓ChatGPT無法把聊天資料加入用戶個人資料庫,不會存進歷史清單,也無法用於訓練模型。五、匿名提問,匿名搜尋引擎Duck.ai可讓用戶選擇AI機器人,包括Claude、GhatGPT,但機器人完整功能也會因此受限,例如文件分析。
發表意見
中時新聞網對留言系統使用者發布的文字、圖片或檔案保有片面修改或移除的權利。當使用者使用本網站留言服務時,表示已詳細閱讀並完全了解,且同意配合下述規定:
違反上述規定者,中時新聞網有權刪除留言,或者直接封鎖帳號!請使用者在發言前,務必先閱讀留言板規則,謝謝配合。