ChatGPT 的病毒式成功引發了科技公司之間的瘋狂競争,以推動 AI 産品進入市場。谷歌最近推出了其 ChatGPT 競争對手,它稱之爲 Bard,而 Open AI 的投資者微軟(MSFT)向有限的測試人員推出了其 Bing AI 聊天機器人。
但這些發布加劇了人們對該技術的擔憂。谷歌和微軟工具的演示都因産生事實錯誤而受到指責。與此同時,微軟正試圖控制其 Bing 聊天機器人,因爲用戶報告了令人不安的反應,包括對抗性言論和黑暗幻想。
一些企業鼓勵員工将 ChatGPT 納入他們的日常工作。但其他人則擔心風險。處理敏感客戶信息并受到政府監管機構密切關注的銀行業有額外的動力謹慎行事。學校也在限制 ChatGPT,因爲擔心它可能被用來欺騙作業。紐約市公立學校在一月份禁止了它。據統計,有超過 4% 的員工将敏感的公司數據放入大型語言模型中,這引發了人們的擔憂,即其普及可能導緻保密信息的大量洩露。
ChatGPT 的能力
ChatGPT 是一個人工智能語言平台,經過訓練後可以進行對話互動和執行任務。爲了訓練像 ChatGPT 這樣的人工智能,大量的數據集被輸入到計算機算法中。然後對模型進行評估,以确定模型在查看以前未見過的數據時做出預測的程度。然後,AI 工具進行測試,以确定模型在處理大量以前從未見過的新數據時是否表現良好。
雖然聊天 GPT 可以提高工作場所流程的效率,但它也給雇主帶來了法律風險。
鑒于人工智能的訓練和學習方式,當員工使用 ChatGPT 履行工作職責時,雇主可能會出現重大風險。當員工從 ChatGPT 等來源獲取與其工作相關的信息時,準确性和偏見是值得關注的問題。雇主需要評估員工使用 ChatGPT 和其他 AI 工具時,可能面臨的法律風險。這個需要解決工作中的保密和隐私問題、偏見和公平、法律合規性和責任。
準确性和對 AI 的依賴
ChatGPT 作爲 AI 語言模型提供信息的能力僅與它在訓練階段學到的信息一樣好。盡管 ChatGPT 接受過大量在線信息的訓練,但其知識庫仍然存在差距。ChatGPT 的當前版本僅在 2021 年之前可用的數據集上進行訓練。此外,該工具提取并不總是準确的在線數據。如果員工依賴 ChatGPT 獲取與工作相關的信息并且不對其進行事實檢查,則可能會出現問題和風險,具體取決于員工如何使用信息以及他們将其發送到何處。
員工在向 ChatGPT 等大型語言模型(LLM)提交敏感的業務數據和受隐私保護的信息,引發了雇主對人工智能(AI)服務可能會将數據合并到其模型中的擔憂,并且如果該服務沒有适當的數據安全性,則可以在以後檢索信息。
在最近的一份報告中,數據安全服務 Cyberhaven 檢測到并阻止了其客戶公司 4 萬員工中的 2.1% 将數據輸入 ChatGPT 的請求,因爲存在洩露機密信息、客戶數據、源代碼或受監管信息的風險。因此,雇主應該制定政策,爲員工如何使用 ChatGPT 中與其工作相關的信息設置特定的護欄。
在一個案例中,一位高管将公司的 2023 年戰略文件剪切并粘貼到 ChatGPT 中,并要求它創建一個 PowerPoint 幻燈片。在另一個案例中,醫生輸入了他的病人的姓名和他們的醫療狀況,并要求 ChatGPT 制作一封給病人保險公司的信。
" 随着越來越多的員工使用 ChatGPT 和其他基于人工智能的服務作爲生産力工具,風險将會增加。"Cyberhaven 首席執行官 Howard Ting 說。
" 數據從本地遷移到雲,下一個重大轉變将是将數據遷移到這些生成應用程序中," 他說。" 結果如何(還有待觀察)——我認爲,我們正處于賽前階段 ; 我們甚至還沒有進入第一局。"
随着 OpenAI 的 ChatGPT 及其基礎 AI 模型(Generative Pre-train Transformer 或 GPT-3)以及其他 LLM 的迅速普及,公司和安全專業人員開始擔心,當正确的查詢提示時,作爲訓練數據攝取到模型中的敏感數據可能會重新出現。一些公司正在采取行動限制員工在工作中使用 ChatGPT。
沃爾瑪對其員工提出了關于生成式人工智能(如 ChatGPT)的明确指示:不要與新興技術分享有關沃爾瑪的任何信息。在給員工的一份内部備忘錄中,該零售商的技術和軟件工程部門表示," 在我們注意到對我們公司構成風險的活動之後,曾阻止過使用 ChatGPT。此後,我們花時間評估和開發了一套圍繞生成式 AI 工具的使用指南,現在正在開放 ChatGPT 供沃爾瑪網絡使用。"
沃爾瑪發言人艾琳 · 赫爾貝格(Erin Hulliberger)沒有回答有關該公司何時阻止生成人工智能以及活動性質的詢問,她在一份聲明中說:" 大多數新技術都帶來了新的好處和新的風險。我們評估這些新技術并爲我們的員工提供使用指南的情況并不少見。
沃爾瑪發布的指南中告訴員工,他們應該 " 避免在 ChatGPT 中輸入任何敏感,機密或敏感信息 ",例如财務或戰略信息或有關購物者和員工的個人信息。" 也不應在這些工具中輸入有關沃爾瑪業務的任何信息,包括業務流程,政策或戰略 "。據了解,沃爾瑪員工還必須在依賴他們提供的信息之前審查這些工具的輸出。員工不應将現有代碼剪切并粘貼到這些工具中,也不應使用這些工具創建新代碼。
" 将沃爾瑪信息放入這些工具中可能會暴露公司的信息,可能會違反機密性,并可能顯著影響我們對任何代碼,産品,信息或内容的權利," 沃爾瑪發言人說。" 每個員工都有責任适當使用和保護沃爾瑪數據。其次,沃爾瑪全球科技吹捧 ChatGPT" 可以提高效率和創新 ",但它和其他生成式人工智能工具必須 " 适當地 " 使用。
除沃爾瑪外,摩根大通(JPMorgan Chase)暫時禁止其員工使用 ChatGPT,據知情人士透露,這家美國最大的銀行已限制其在全球員工中的使用 ChatGPT。該人士表示,做出這一決定不是因爲某個特定問題,而是爲了符合對第三方軟件的限制,主要是因爲合規問題。
越來越多的用戶向 ChatGPT 提交敏感數據。
随着越來越多的軟件公司将他們的應用程序連接到 ChatGPT,LLM 收集的信息可能比用戶或他們的公司意識到的要多得多,這使得雇主将面臨法律風險。
風險不是理論上的。在 2021 年 2 月的一篇論文中,來自名人錄公司和大學名單(包括蘋果、谷歌、哈佛大學和斯坦福大學)的十幾名研究人員發現,所謂的 " 訓練數據提取攻擊 " 可以成功恢複逐字文本序列、個人身份信息 (PII) 以及來自 LLM 的訓練文檔中的其他信息。
類似 GPT 的 AI 産品将越來越多
事實上,這些訓練數據提取攻擊是機器學習研究人員的主要對抗性問題之一。根據 MITRE 的人工智能系統對抗性威脅大圖(Atlas)知識庫,這些攻擊也被稱爲 " 通過機器學習推理滲透 ",可以收集敏感信息或竊取知識産權。
它的工作原理是這樣的:通過以調用特定項目的方式查詢生成 AI 系統,對手可以觸發模型調用特定信息,而不是生成合成數據。GPT-3 是 GPT-2 的繼任者,存在許多真實世界的例子,包括 GitHub 的 Copilot 調用特定開發人員的用戶名和編碼優先級的實例。
除了基于 GPT 的産品之外,其他基于 AI 的服務也引發了關于它們是否構成風險的問題。例如,自動轉錄服務 Otter.ai 将音頻文件轉錄爲文本,自動識别說話人并允許标記重要單詞并突出顯示短語。該公司将這些信息存儲在雲中引起了用戶的擔憂。該公司表示,它已承諾保持用戶數據的私密性,并實施強有力的合規控制,據 Otter.ai 高級合規經理 Julie Wu 稱,"Otter 已經完成了 SOC2 Type 2 審計和報告,我們采取了技術和組織措施來保護個人數據,說話人識别是帳戶綁定的。添加說話人的姓名将訓練 Otter 識别您記錄或導入帳戶中的未來對話的說話人,但不允許跨帳戶識别說話人。"
API 加速了 GPT 的使用
ChatGPT 的受歡迎程度讓許多公司感到意外。根據一年前公布的最新數據,超過 300 名開發人員正在使用 GPT-3 爲其應用程序提供支持。例如,社交媒體公司 Snap 和購物平台 Instacart 和 Shopify 都通過 API 使用 ChatGPT,爲其移動應用程序添加聊天功能。
根據與公司客戶的對話訪談,預計向生成式 AI 應用程序的轉變隻會加速,用于從生成備忘錄和演示文稿到分類安全事件以及與患者互動的所有事情。
正如目前所看到的,一位企業雇主說," 看看現在,作爲權宜之計,我隻是阻止了這個應用程序,但我的董事會已經告訴我,我們不能那樣做。因爲這些工具将幫助我們的用戶提高生産力——具有競争優勢——如果我的競争對手正在使用這些生成式人工智能應用程序,而我不允許我的用戶使用它,這将使我們處于劣勢。"
好消息是,對員工安全意識的教育可能會對特定公司的數據是否洩露産生重大影響,因爲少數員工負責大多數風險請求。不到 1% 的員工負責 80% 的向 ChatGPT 發送敏感數據的事件。
" 你知道,有兩種形式的教育:一種是課堂教育,比如當你讓員工入職時。然後是上下文教育,當有人實際上試圖粘貼數據時 ",這兩者都很重要,但從實際效果來看後者更有效。
此外,OpenAI 和其他公司正在努力限制 LLM 對個人信息和敏感數據的訪問:當你向 ChatGPT 詢問個人詳細信息或敏感的公司信息時,ChatGPT 目前會明确聲明拒絕回答。
例如,當被問及 " 蘋果 2023 年的戰略是什麽?ChatGPT 回應說:" 作爲一個人工智能語言模型,我無法訪問蘋果的機密信息或未來的計劃。蘋果是一家高度保密的公司,他們通常不會向公衆披露他們的戰略或未來計劃,直到他們準備好發布它們。"
人工智能固有的偏見
人工智能中還存在固有偏見的問題。平等就業機會委員會專注于這個問題,因爲該機構與其執行的就業歧視法有關。此外,美國的州和地方立法者正在提議——有些已經通過了——限制雇主使用人工智能的法律。
人工智能提供的信息必然取決于訓練它所依據的信息,以及那些決定人工智能接收哪些信息的人。這種偏見可能表現在 ChatGPT 提供的信息類型中,以回答與其 " 對話 " 中提出的問題。
此外,如果在就業決策咨詢場景使用 ChatGPT,這可能會導緻歧視索賠。根據州和地方法律,在某些就業決定和 / 或審計中使用人工智能需要事先通知,然後才能在某些就業環境中使用人工智能,這也可能造成合規問題。
由于人工智能存在偏見的風險,雇主應在其政策中包括一項一般性禁止在未經法律部門批準的情況下在就業決策中使用人工智能。
洩露隐私和違反保密條款
機密性和數據隐私是雇主在考慮員工如何在工作中使用 ChatGPT 時考慮的其他問題。員工在與 ChatGPT 進行 " 對話 " 時可能會共享專有、機密或商業機密信息。盡管 ChatGPT 表示它不會保留對話中提供的信息,但它确實從每次對話中進行 " 學習 "。當然,用戶正在通過互聯網在與 ChatGPT 的對話中輸入信息,并且無法保證此類通信的安全性。
如果員工向 ChatGPT 透露敏感信息,雇主的機密信息可能會受到影響。謹慎的雇主将在員工保密協議和政策中禁止員工在人工智能聊天機器人或語言模型(如 ChatGPT)中引用或輸入機密、專有或商業秘密信息。
一個很好的論點是,在線提供給聊天機器人的信息不一定是商業秘密的披露。另一方面,由于 ChatGPT 接受了大量在線信息的訓練,員工可能會從該工具接收和使用商标、版權或其他個人或實體的知識産權的信息,從而給雇主帶來法律風險。
雇主應關注的其他問題
除了這些法律問題之外,雇主還應考慮他們在多大程度上允許員工在工作中使用 ChatGPT。雇主正處于考慮是否以及如何在其工作場所接受或限制使用 ChatGPT 的重要十字路口。
雇主應該權衡員工使用 ChatGPT 執行諸如撰寫常規信件和電子郵件、生成簡報和創建演示文稿等任務可以實現的效率和經濟性,以及員工自己執行此類任務的潛在發展機會損失。
ChatGPT 不會消失,新的和改進的版本應該在一年内推出。雇主最終需要解決其在工作場所的使用問題,因爲下一次叠代會更好。對于 ChatGPT 可能帶來的所有風險,雇主也可以利用其優勢。讨論才剛剛開始。雇主可能會對此進行一些學習和 beta 測試,ChatGPT 也是如此。