外媒報導,約 11 萬筆 ChatGPT 用戶對話紀錄外洩,內容有涉及內線交易計劃的討論、詐欺、醫療諮詢,甚至用戶試圖讓AI生成兒童不雅圖像等高度敏感資訊。當 AI 已深度融入日常生活,使用者該如何在享受便利的同時,兼顧隱私安全、降低資料外洩風險,成為迫切課題。
據英國《電訊報》(The Telegraph)8 月 1 日報導指出,這些涉及敏感內容的ChatGPT用戶對話紀錄,已被網站時光機存檔(Wayback Machine)難以徹底刪除。雖然被曝光的對話內容為匿名處理,但許多使用者在對話中上傳含有個人資訊的文字或文件,難以評估隱私資訊的洩漏風險。
即使OpenAI已關閉「分享至搜尋引擎」功能,並與搜尋引擎合作移除外洩頁面,但能否徹底刪除約11萬筆已被網站時光機存檔的紀錄,仍存疑慮。
許多人會將生活中最私密的心事告訴 ChatGPT。尤其是年輕族群,常把它當成治療師或人生導師般依賴。然而,若這些對話發生在治療師、律師或醫師面前,將受到法律保障;但一旦對象換成 ChatGPT,我們至今仍未釐清,這些談話是否享有任何法律上的特權。
而OpenAI執行長Sam Altman則承認,ChatGPT對話可能不具法律上的保密權。
對此,國立中山大學資訊工程學系助理教授徐瑞壕表示,此次ChatGPT的重大資安事件,部分用戶與AI的對話紀錄可以被其他人利用網路搜尋引擎檢索到。主要原因是,這些用戶使用了分享對話紀錄分享功能,用戶的對話紀錄被產生成網頁,並可利用網址來分享,只要知道連結的人就可以瀏覽。然而也因為對話紀錄被設定為公開的狀態,所以也可被搜尋引擎輕易的搜尋到,並讓私密對話紀錄在網路曝光。
隨著人們越來越多人仰賴 AI 來搜尋資訊、規劃行程、甚至決策,但這些工具仍有資安與隱私風險,可能造成個資外洩、網路詐騙、甚至操縱錯誤資訊。因此,徐瑞壕建議大眾可從以下三方面著手保護自身安全:
首先使用AI時,要避免輸入身分證、信用卡號、住址或公司機密文件等機敏資訊,因為AI會記錄使用者輸入的資訊,並用於訓練模型,含有敏感資訊的對話紀錄都可能被內部人員,或平台協作的第三方業者看到。另外,若AI回覆中包含外部連結或程式碼,務必驗證來源再點擊,並且要核對重要資訊來源,避免誤信「看似合理但錯誤」的幻覺回答。
徐瑞壕還說,AI工具要選擇有明確安全承諾的平台,可信賴的服務平台會公開安全與隱私政策,例如處理用戶資料方式、是否加密儲存等,另也建議,部分AI工具提供「隱私模式」或「不記錄聊天」選項,也有提供惡意內容過濾、釣魚提示檢測的機制,啟用這些功能,可降低被攻擊的風險。
此外,還要培養長期資安習慣的養成與心態,保持警覺與資安素養,例如學習辨識 AI 詐騙訊號,例如要求轉帳、提供帳號密碼、或承諾不合理利益的對話。
整體而言,降低 AI 使用風險的核心原則是「最小揭露、驗證來源、選擇可信平台」。建議大眾把 AI 作為輔助工具而非唯一決策依據,並持續養成良好的資安素養。
同時,也要定期更新軟體與使用多層防護系統:確保使用最新版本AI的 App、瀏覽器與防毒軟體,並搭配雙重驗證(2FA)、密碼管理工具提升帳號安全。
逢甲大學資訊工程學系特聘教授李榮三則強調,AI 是輔助工具,最終責任仍然由真人承擔;重要文件應由真人撰寫與確認。對於AI 的回答不可盡信,使用前需人工檢查與比對來源。





