
商傳媒|林昭衡/綜合外電報導
全球領先的AI研究公司OpenAI已於今年2月20日修復旗下聊天機器人ChatGPT的一個嚴重資安漏洞,該漏洞恐讓惡意行為者在用戶不知情的情況下,悄悄竊取敏感數據,對個人隱私構成潛在威脅。
根據資安研究機構Check Point Research(CPR)的報告,此漏洞結合了提示詞注入(prompt injections)與繞過內建防護機制的能力,允許攻擊者透過隱蔽的網域名稱系統(DNS)查詢來外洩用戶資料。CPR指出,由於DNS活動通常被視為無害的基礎設施流量,ChatGPT不會觸發批准對話框、顯示警告或將此行為識別為風險,進而形成「盲點」。
攻擊手法包含將惡意提示詞注入電子郵件、PDF文件或網站中,一旦ChatGPT被觸發,便可將用戶對話內容編碼成DNS查詢,將數據傳輸至攻擊者控制的伺服器。另一種風險是透過客製化GPTs,惡意行為者可建立看似無害的客製化GPT(例如扮演個人醫生),誘騙用戶上傳敏感資料,並在用戶毫無察覺下,將這些資料外洩。
CPR是在此漏洞被惡意利用前發現,並已負責任地通報OpenAI。OpenAI除了在2月20日完成這項數據外洩漏洞的修補,稍早前也已解決ChatGPT Codex中的一項關鍵命令注入漏洞,該漏洞曾讓Phantom Labs研究人員得以竊取GitHub驗證權杖(authentication tokens),顯示OpenAI積極應對其產品的安全挑戰。
CPR提醒,AI工具的安全性不應被視為理所當然。該機構強調,此次事件暴露了AI系統在基礎設施層面的潛在弱點,儘管模型假設其環境是隔離的、用戶數據未經同意不會外流,但這些假設都是不完整的。資安團隊應意識到,攻擊者往往會利用基礎設施與行為模式,而非僅限於政策與意圖,這是所有AI用戶和開發者在面對AI時代時必須留意的關鍵課題,以保護個人隱私與數據安全。


