财聯社 3 月 14 日訊(編輯 周子意)英國情報機構——英國政府通訊總部(GCHQ)周二(14 日)警告稱,ChatGPT 和其他人工智能聊天機器人将是一個新的安全威脅。
GCHQ 是一個國家安全機關,負責通訊偵察、郵件檢查的情報機構,它與英國著名的軍情五處(MI5)和六處(MI6)統稱爲英國情報機構的 " 三叉戟 "。
初創公司 OpenAI 于去年年底推出 ChatGPT,此後,其投資商微軟于今年 2 月推出了基于 ChatGPT 技術開發的聊天機器人 " 必應聊天(Bing Chat)"。由于此類軟件能夠提供酷似人類的對話,目前這項服務已風靡全球。
GCHQ 的網絡安全部門指出,提供(AI 聊天機器人)的公司可以看到用戶輸入的查詢内容,就 ChatGPT 而言,其開發商 OpenAI 就能夠看到這些。
此外,英國國家網絡安全中心(NCSC)在周二發布的一份咨詢報告中也寫道,OpenAI、微軟等公司 " 能夠讀取 " 用戶在人工智能聊天機器人中輸入的查詢内容。
NCSC 警告,辦公室職員在嘗試新穎的聊天機器人技術時,很可能會通過他們的搜索查詢洩露出敏感的信息。
需要監控使用
GCHQ 的網絡安全專家在談到人工智能聊天機器人背後的大型語言模型(LLM)技術時表示," 用戶的這些查詢内容将會被存儲起來,并且幾乎肯定會在未來某個時候被用于開發 LLM 服務或模型。"
這就意味着,LLM 提供商能夠讀取到相關查詢,并可能以某種方式将它們合并到未來的版本中。
微軟今年 2 月披露,其員工正在閱讀用戶與必應聊天的對話,監控對話以發現 " 不當行爲 "。
網絡安全公司 Sectigo 的高級安全經理 Immanuel Chavoya 表示," 盡管 LLM 運營商應該采取措施保護數據,但不能完全排除未經授權訪問的可能性。"
" 因此,企業需要确保他們有嚴格的政策,提供技術性支持,來監控 LLM 的使用,以最大限度地降低數據暴露的風險。"
公司警惕心加重
世界各地的公司對聊天機器人技術越來越警惕。
倫敦金融城律師事務所 Mishcon de Reya 禁止其律師将客戶數據輸入 ChatGPT,因爲擔心在法律上享有隐私特權的資料可能會遭洩露。
國際咨詢公司埃森哲警告其全球 70 萬名員工,出于類似的原因,不要使用 ChatGPT,因爲擔心客戶的機密數據最終會落入他人之手。
英國電腦芯片公司 Arm 的母公司日本軟銀集團同樣警告其員工,不要向人工智能聊天機器人輸入 " 公司人員的身份信息或機密數據 "。