作者丨邱曉芬
編輯丨蘇建勳
随着 AI 大模型的興起,大模型的安全合規問題頻發,逐漸引起了各國政府和行業各界對其數據安全的關注。
在意大利,由于有用戶聲稱在 ChatGPT 的曆史對話中看到了其他人的聊天内容。随後,意大利數據保護局于 3 月底暫時禁用大模型,并對其涉嫌違反隐私規則展開調查。
在國内,大模型相應創業風起雲湧之時,數據安全保護行動已經開始。比如,4 月 11 日,國家互聯網信息辦公室便發布了《生成式人工智能服務管理辦法(征求意見稿)》,當中提出, 生成式人工智能服務者對于用戶的輸入信息和使用記錄承擔保護義務。在征求意見稿發布的前一日,中國支付清算協會甚至給從業人員發布了倡議,要求其不上傳相關的敏感信息,保護金融行業的涉密數據和材料。
目前,還有部分公司明确規範了 Chat GPT 使用,比如三星此前還将 ChatGPT 的上傳容量限制爲 1024 字節;還有包括台積電、軟銀、沃爾瑪等廠商也宣布限制使用生成式 AI 工具。
不過,随着大模型廠商增加, 相關的數據安全賽道卻幾乎是一片空白——大模型的安全計算是一項涉及千億級參數的計算,而現有的隐私計算方案并沒有辦法同時滿足大模型場景下的高安全性、高性能、高通用性的保障要求。 比如,同步加密的方法在使用的過程中可能将計算性能降低五個數量級, 聯邦學習不适用于模型推理階段等等。基于安全多方計算的方案是現有隐私計算方案當中最有可能在大模型領域應用落地的技術。
現有隐私計算方案的對比
針對大模型的數據安全隐患,國内已經有了相應的創業公司。「紫先科技」就是一家由矽谷 AI 科學家以及國内高校學者聯合創立的、爲大模型應用方提供基于安全多方計算方案的雲服務平台廠商。
「紫先科技」CEO 周興博士向 36 氪表示,一般而言,大模型從産生到落地應用包括三個階段,包括大模型訓練階段、大模型微調階段、大模型的應用階段。其中,數據安全問題一般高發于對模型定制微調和應用階段。這主要源于,大模型落地的協作過程中存在着數據所有權和使用權的博弈。
一般而言,大模型的訓練需要大量的數據、算力、AI 人才,對于頭部大模型廠商來說,未來大概率不會做出開源的決定。因此,各個領域的應用廠商若要開發出有競争力的行業專屬大模型,需要利用自身私域數據以及融合了本領域專業知識的高質量标注對基礎大模型做定制微調,以強化大模型在本領域的專業能力。
這種流程盡管符合大模型廠商的數據訴求,但站在應用商公司的角度來看,用戶的私域專業數據和微調後的增量參數均是其商業核心壁壘所在,并不願意把寶貴資産所有權讓渡。同時在應用階段,調用大模型的交互信息也涉及到用戶商業機密。
因此,數據安全是大模型實現大規模應用的必要基礎,要解決這一悖論所衍生出的數據安全風險,周興博士認爲,如果能夠基于多方安全計算架構做好大模型定制微調和應用服務,便可保證雙方的隐私安全。
" 我們希望通過隐私計算的方式,讓大模型公司和模型應用商之間的橋梁可以順暢搭建起來 ",周興博士表示。據介紹,在商業層面,「紫先科技」所提供的數據安全服務将建立在雲上,未來将與大模型廠商合作,爲下遊的大模型應用商提供一站式的模型定制微調和應用服務。
這一方案如何切實保障數據安全?周興博士表示,「紫先科技」的核心技術是一套基于 FPGA 芯片的安全多方計算方案 "PPLMAC",是目前全球唯一可滿足大模型數據安全場景對高安全性、高計算性能和高通用性要求的解決方案。
PPMLAC 框架技術
據其介紹,在保證數據安全的前提下,基于獨創的芯片設計,該方案可以将隐私計算性能與明文計算性能差距縮小到一個數量級以内,并可應用于模型微調和推理環節。
周興博士表示,爲了降低使用門檻,「紫先科技」還爲使用該方案的算法工程師們提供了大模型編程框架平台,可以較低成本的實現移植開發,不用對原來的算法程序做出改變。
目前,「紫先科技」已經完成隐私計算 FPGA 加速卡産品化,技術成果已提交專利申請,并于 2022 年 6 月在國際頂級計算機學術會議 ACM ISCA 發表相關論文。公司計劃從金融、企業服務等剛需領域切入,目标是成爲大模型數據安全基礎設施服務提供商。
「紫先科技」在 2022 年曾經獲得奇績創壇的天使輪融資,目前正啓動新一輪的融資。團隊方面,創始人周興博士曾經在 Google、Facebook AI 研究院有近 10 年的工作經驗,在 Facebook AI 研究院帶領團隊創建隐私計算 AI 框架 CrypTen 并開源,并全程參與了 Facebook 系列大語言模型的研發。團隊其他核心技術成員大部分出自清華計算機系。