別讓ChatGPT知道太多!小心這5種資訊外洩風險超高
2025/04/24
許多人不知道資料可能會被ChatGPT儲存、審查、甚至拿來訓練AI模型。(圖片來源:OpenAI)
越來越多人願意與ChatGPT等聊天機器人分享資訊;但許多人不知道資料可能會被儲存、審查、甚至拿來訓練AI模型;史丹佛大學「人本人工智慧研究中心」研究員Jennifer King列出了5種可能會有隱私風險的內容,建議大家不要隨便提供!
本文目錄
AI懂你,但也知道很多你的秘密
如果你常常跟ChatGPT這類聊天機器人互動,使用者會發現AI變得越來越「貼心」,像是記得你的喜好、記得你的健康狀況,甚至能依照你的對話習習慣挑整語氣;這是因為這些AI機器人會主動記錄你透露的個人偏好,打造出「客製化」的回應內容,雖然這確實是更懂你的聊天機器人,但也提供了資料外洩的風險。
其實在2023年就曾發生使用者在跟ChatGPT對話時,標題顯示了其它用戶的對話,意味ChatGPT有洩漏對話記錄的可能性;OpenAI執行長奧特曼當時回應指出,由於資料庫當中的錯誤,我們在ChatGPT遭遇一個重大問題,但他並沒有透露有多少人的對話記錄外洩,影響範圍有多大。
那有哪些資料不適合與ChatGPT這類聊天機器人分享呢?史丹佛大學「人本人工智慧研究中心」研究員Jennifer King於《華爾街日報》列出了五種類型的資訊,建議不要提供給ChatGPT,避免造成隱私風險。
1. 個人身份資訊
建議大家不要把身分證字號、護照號碼、出生日期、地址與電話等資訊與ChatGPT分享,因為這可能造成身份盜用的風險;儘管OpenAI表示有設計防止記錄個資的機制,但誰又能保證不會被駭客入侵,造成資料外洩呢?
2. 醫療檢查與健康報告
雖然AI可以解讀醫療檢查與健康報告數據,但這些內容受到法規保護不會外洩,而ChatGPT這類聊天機器人在不少國家、地區並未受到法律保障,如果想要詢問相關問題,建議可以隱藏個人資料後再分享。
3. 金融帳戶與投資資訊
銀行帳號、信用卡號碼、投資報表或稅務等資料屬於高風險類型,如果你不希望財產損失,或是遭到詐騙,建議就不要把這些資料分享給ChatGPT。
4. 公司內部資訊
現在越來越多人會透過AI寫信、做簡報甚至是debug,但這很有可能意外洩露企業機密或是客戶資料。
5. 登入帳密資訊
無論是email、社群平台還是企業系統的帳號密碼,都不建議透過AI管理,畢竟你無法確保AI能安全儲存這些資料,如果因為駭客入侵導致全部資料外洩就得不償失了!
如何減少風險?這裡列出一些建議給大家參考
如果有重要資料要詢問,你可以開啟ChatGPT的「臨時聊天」功能,基本上這可以說是ChatGPT的「無痕模式」,聊天將不會顯示在歷程紀錄中、使用或更新ChatGPT記憶,或用來訓練模型,但為了安全起見,還是可能會保留此聊天的副本長達30天。
ChatGPT的「臨時聊天」功能基本上就是聊天機器人的「無痕模式」。(圖片來源:OpenAI)
另外,ChatGPT有一個「為所有人改善模型」的功能,你可以選擇關閉,這樣就不會被用來訓練其它人的模型,另外你也能在設定中關閉參考儲存的記憶、參考聊天記錄功能,並可以刪除所有的聊天內容,減少資料意外曝光的風險。
幾個小設定就能更進一步保障你的資料安全。(圖片來源:OpenAI)
帳號本身的安全性也不容忽視,建議可以開啟多重驗證功能,防止帳號被駭以後,導致所有對話資料曝光。
大家一定記得,雖然AI聊天機器人確實能讓我們生活更有效率且更便利,但他要幫我們解決問題,就是需要收集資料並運算,所以大家千萬不要將生活中的重要資料上傳,畢竟你不能保證ChatGPT不會被駭客入侵,資料外洩可就得不償失了!
心發現延伸閱讀: