(台灣英文新聞/黃紫緹綜合報導)自ChatGPT問世以來,生成式AI的各種神技帶給世人驚奇,寫文案、製圖、回答問題、做簡報,什麼都難不倒它。但在眼花撩亂的功能底下,其實暗藏風險。專家警告,使用者「餵養」的資料,恐遭不當利用,在你發現之前,可能已不慎外洩個資或商業機密。
CNN報導,包括摩根大通在內的諸多公司,已基於資料安全顧慮,禁止員工使用ChatGPT機器人。連這AI產品的幕後推手、OpenAI公司,都坦言上個月曾一度撤下服務,修正一項程式錯誤,該bug會讓部分使用者看到他人與機器的聊天紀錄,甚至他人的名字、電郵、信用卡資訊等,這也是為何義大利頒布了禁令。
資料的黑盒子
法律顧問公司Fox Rothschild LLP的隱私安全專家麥克里(Mark McCreary)表示,ChatGPT是透過使用者輸入資訊生成答案,但鍵入的資訊究竟會如何被利用,沒人知道。當你要求機器人從事無傷大雅的任務,如整理會議記錄或工作郵件,是否從沒想過,公司商業機密、機敏資訊可能無意間已外流?
波士頓諮詢集團(Boston Consulting Group)AI倫理長米爾斯(Steve Mills)亦提出相同疑慮。由於生成式AI是透過消化大量資料訓練、進化,若這些「提示」資訊被用來「再訓練」機器人,「你就失去了對資料的掌控。」
的確,世人往往只見AI天花亂墜的好處,卻忽視了凡事皆有兩面。
除了自己還能怪誰?
OpenAI並非沒有告知ChatGPT的風險。其洋洋灑灑2,000字的隱私政策中,明確說明了會蒐集使用者個人資訊,作為分析、研究、研發新服務的養分。它把話說在前頭,會將個資提供第三方使用,也在使用條款中,也闡明了一切責任都在使用者身上,請斟酌使用。OpenAI本月5日在部落格中說了,不會將資料用於圖利、廣告、勾勒用戶喜好,但重點來了,「我們會將資料用來進一步訓練ChatGPT與人類的對話。」
旗下也有聊天機器人Bard的谷歌(Google),在隱私權政策中提到,會移除部分對話中可辨別身分的資訊,並提醒使用者勿留下個資。Google也說明,設有安全防衛機制,不讓Bard的答覆出現他人個資,用戶也可透過特定連結刪除對話。
然而,在享用這新科技帶來的便利服務時,使用者真的會意識到其中的資安風險,從而採取防護動作嗎?恐怕往往得等到資料已外洩,才會驚覺。而說出去的話,如潑出去的水,收不回來了。
為了不讓「說漏嘴」的情況鑄下大錯,米爾斯奉勸各人,在敲入任何資訊前,請務必捫心自問,這些資訊,究竟能不能與外人共享?
- 7個ChatGPT有趣玩法 - 還能拿來練習工作面試
- 人工智慧大浪來襲?千人連署籲AI訓練踩煞車 馬斯克在列
- ChatGPT再進化 新版AI機器人GPT-4更智慧、更不會「亂講話」
- 百度聊天機器人「文心一言」遭嘲笑ChatPPT 專家揭中國AI難敵美國的致命原因