自去年 11 月 Open AI 的對話式人工智能(ChatGPT3.5)公開發布後,人工智能的話題熱度未減,且随着 ChatGPT 的不斷叠代,其強大的功能再次震驚世界。人們對 AI 的快速發展是既期待又憂慮。今年九月,年屆百歲的美國前國務卿基辛格博士訪華并在第五屆外灘金融峰會外灘全體大會發表講話。
基辛格認爲,人工智能技術的發展必須得到有效的管控,并且中國應該在人工智能領域變得更加開放和透明,讓世界了解中國在開展哪些研究,以此增強其他國家對中國的了解。他還表示,美國政府會支持這方面的合作,而且現在已經在某些方面做出了行動。
本文作者的看法與基辛格博士的呼籲一緻,認爲與氣候、公共衛生和核不擴散等議題不同,人工智能将會是中美下一個合作的基礎。本文通過分析 ChatGPT 的技術原理以及潛在法律和倫理風險,來讨論生成式人工智能對我國人工智能監管帶來的風險和挑戰。作者指出,AI 産業發展是我國不容錯過的曆史機遇,但要注意當前我國 AI 産業存在監管過度、發展不足、容易陷入 " 泛安全化陷阱 " 和與世界 AI 時代 " 脫鈎 " 等問題。
類 ChatGPT 的技術原理和可能帶來的法律及倫理風險
ChatGPT 的技術原理是依靠深度學習和自然語言處理(NLP)技術而形成的新一代生成式人工智能聊天機器人,它實際上屬于人工智能生成内容(Artificial Intelligence Generated Content,簡稱 AIGC)的一種新型商業化應用程序。
而 AIGC 的技術原理是通過機器學習和 NLP 等人工智能方法,将大量的文本數據轉化爲可以通過機器學習并進行訓練的數學模型,然後使用這些模型來生成文本内容。也就是說,在使用 AIGC 技術生成文本時,需要先向模型提供大量的文本數據作爲訓練集。随着訓練的進行和數據的增加,模型的預測能力也将逐漸提高。
從 AIGC 的生成内容來看,不僅包括常見的文本、圖像、音頻、視頻和代碼等,還包括基于大數據訓練模型優化生成的策略、劇情、訓練數據等具有内在邏輯的内容。其中,文本生成是 AIGC 最廣泛的應用場景。類 ChatGPT 應用在各個領域的廣泛使用,基于 AIGC 的技術特點和工作原理,因此,對其使用的監管和處理相關數據的合規性變得尤爲重要。
AIGC 涉及法律與倫理風險。一是數據安全風險。例如,企業和個人使用 ChatGPT 提問時,可能需要将大量數據上傳到雲端進行處理,存在數據洩露的風險。再者,ChatGPT 在提供服務時,需要獲取用戶的輸入數據,可能涉及用戶的個人隐私和敏感信息。
二是倫理道德風險,包括著作權侵犯,歧視性回答等。例如,在教育領域,很多學生或是學者利用 ChatGPT 完成作業或是寫論文。
三是存在誤導和虛假信息的風險。随着深度合成技術和機器學習的快速發展,生成式人工智能技術被用于僞造信息,包括音頻和視頻内容的合成和篡改。同時,由于 ChatGPT 的生成能力和技術的限制,可能被濫用爲傳播謠言、虛假新聞等不實信息的工具。
四是通過向類 ChatGPT 應用輸入特定的内容,誘導其輸出本不應該出現的違法或惡意内容。例如,通過 AIGC 輸出一些煽動性的文本、圖像、音頻和視頻,被用來組織一些非法或是危及公衆和國家安全的網絡活動。
對我國數據安全和 AI 監管帶來的問題和風險
第一,個人數據和隐私安全。在人們依靠 AI 技術等應用程序提供便利性的同時,其收集到的個人數據的數量和私密性呈指數型增長。而這些數據很容易被一些惡意行爲體所利用,從而對個人實施監視、操縱和勒索等。例如,通過 ChatGPT 生成的虛假信息與用戶進行交流,獲取敏感個人信息,進行身份盜竊或網絡釣魚、網絡詐騙,對個人财産和人身安全造成威脅。
第二,經濟破壞和投資操縱。利用 ChatGPT 生成的内容,可以進行虛假的市場預測和投資建議,誤導投資者作出錯誤決策,進而操縱金融市場。例如,通過 ChatGPT 發布大量看漲或看跌的虛假預測,促使投資者進行錯誤的交易,導緻經濟混亂和金融損失。
第三,技術依賴與數據掌控。若中國企業和機構在 ChatGPT 的應用中過度依賴外部技術提供商,可能導緻數據掌控權被他國政府或公司所控制。同時,物聯網等技術的發展使得我國很多基礎系統互聯互通,如果一個行業或是基礎系統對外技術依賴過高或是關鍵數據被外部掌控,一旦發生風險,将波及其他行業。
第四,信息操縱與謠言傳播。通過操縱 ChatGPT 的内容輸入和輸出,可能對中國的信息環境進行幹擾和操縱,影響我國社會穩定和國家安全。具體來說,可能有以下兩種情況。
一是虛假輿論傳播,惡意利用 AI 生成的内容,進行大規模傳播虛假輿論,制造社會恐慌或引發群體事件。例如,利用 ChatGPT 在社交媒體上自動發布大量虛假新聞、不實評論,操縱公衆輿論傾向,導緻社會不穩定。
二是政治操縱,通過操縱生成式 AI 應用的輸出,可以有針對性地捏造信息或傳播政治謠言,煽動仇恨、制造分裂,影響政治穩定和社會和諧。例如,在重大政治事件期間,通過 ChatGPT 生成的大量假新聞和謠言,扭曲事實真相,破壞社會共識,實現自身的政治目的。
AI 大模型曆史機遇和我國監管現狀
雖然生成式人工智能給我國數據安全帶來隐患,也給監管帶來了巨大挑戰,但不容置疑的是,以 ChatGPT 爲例的 AI 大模型将會是人類發展的重大曆史機遇,也是我國不容錯過的曆史機遇。AI 大模型會是未來 AI 技術的第一賽道,也會是中美和國際競争的核心。
我國的 AI 大模型相較美國起步較晚,一方面是算法上我國的技術開發還需要時間,另一方面是算力上我國的關鍵芯片仍然達不到美國的技術水平。也就是說,算法和算力兩個方面都制約了我國 AI 大模型的發展,而這些都是發展 AI 大模型的核心技術。
我國及時出台了監管舉措,這是非常有必要的。但是,也要注意監管現狀很可能導緻我國 AI 技術發展受限,導緻我國 AI 産業與世界 AI 時代 " 脫鈎 "。
在互聯網和數據安全方面,我國陸續出台了《網絡安全法》《數據安全法》《個人信息保護法》等相關法律法規。針對 AIGC,今年 4 月 11 日,國家互聯網信息辦公室發布關于《生成式人工智能服務管理辦法(征求意見稿)》(簡稱《管理辦法》),在這之前,網信辦還分别公布了《互聯網信息服務算法推薦管理規定》(2022 年 1 月)、《互聯網信息服務深度合成管理規定》(2023 年 1 月),以及《數據出境安全評估辦法》(2022 年 7 月)。
這些法律法規爲我國人工智能和算法等相關産業、行業的發展,以及個人數據隐私保護等提供了法律保障和監管依據,但同時存在很多值得注意的地方。
人工智能作爲新興的産業方向,一些原有的監管模式可能會造成強監管,成爲我國 AI 産業發展的最大障礙,進而與世界 AI 時代 " 脫鈎 "。例如,當前法規對生成式 AI 服務提供者提出了很高的合規義務要求,且監管的适用範圍極廣。
這将在兩個方面産生負面影響:一方面,對内來說,我國 AI 監管沒有給國内企業提供足夠的創新和發展空間;另一方面,對外來說,加強監管帶來的保守化和封閉化的趨勢将使我國與美國在 AI 技術方面的差距越來越大。
例如,上述《管理辦法》中第二條規定:研發、利用生成式人工智能産品,面向中華人民共和國境内公衆提供服務的,适用本辦法。這也從側面解釋了 ChatGPT 爲什麽沒有對中國大陸地區提供服務,其原因之一很可能是避免中國法律的監管。同時,這也表明了我國未來在 AI 領域很可能會出現類似互聯網時代的内部或者外部 " 防火牆 "。這種趨勢可能不利于我國 AI 行業跟上世界 AI 時代發展的步伐。
因此,如何順應産業發展、平衡好行業發展和必要監管之間的關系、AI 監管如何在 " 對症下藥 " 的同時給發展留下空間,是亟須解決的問題。
如何更好地發展 AI 産業
第一,安全概念的擴展需适可而止,警惕陷入 " 泛安全化陷阱 "。許多專家和學者已經注意到并提出了當前我國容易陷入 " 泛安全化陷阱 " 這一問題 [ 1 ] 。這一現象指的是過度強調安全問題,将各種非傳統安全威脅也納入安全範疇,導緻資源和精力分散,影響國家發展的全面性和可持續性。
在網絡安全領域,将涉及數據、信息、網絡等所有問題普遍安全化的做法已經導緻網絡安全和數據安全喪失了其應有的清晰度和适用性。也就是說,出于安全的考慮,對于 " 相對不安全 " 的過度警惕已經演變成對 " 絕對安全 " 的追求。這種将網絡安全的相關問題普遍安全化和絕對安全化的做法容易使得我們陷入 " 泛安全化陷阱 "。
對于網絡和與之相關的 AI 監管我們需要知道在什麽方面去監管,以及監管到何種程度。這就要求我們對于網絡安全和數據安全的邊界有更加清晰的界定,不能将安全議程泛化,進而對我國的政治、經濟、外交和社會等議程的資源造成擠壓。
如果對安全配置過多的資源,超過了其應有的需求,就會擠壓發展所需要的資源,進而造成資源的錯配和浪費,阻礙其他領域的發展和我國的整體發展。監管可以設置安全底線,在保障基本安全的前提下,我們需要給 AI 技術提供足夠的發展空間。在技術創新和治理監管的平衡問題上," 先創造再監管 " 是當前我國 AI 技術發展的可行路徑。
第二,平衡好安全和發展的基礎和關鍵是平衡好安全和開放的關系。諸多實踐證明,高質量發展隻能在高水平開放的條件下進行。隻有主動開放才能在國際競争與合作中掌握主動權,避免被孤立。之所以在美國産生了 OpenAI 的 ChatGPT,恰恰是因爲其 "Open 的 AI",開放的人工智能。也就是說,美國互聯網和 AI 發展的源動力是開放。開放才是發展的基礎和前提,沒有開放的互聯網和開放的 AI,我國的 AI 産業隻會走向封閉,和世界互聯網 " 脫鈎 "。
數據作爲互聯網的産物,而互聯網是美國的産物,這就決定了美國掌握了全世界的數據。以 ChatGPT 爲例,美國的數據集是開放的,是世界級的。實踐證明,技術的發展需要包容和開放的環境,而我國當前最需要的是加大在規則、标準和管理方面的開放,避免走向保守化和封閉化。
第三,構建現代和靈活的監管體制以提高監管的科學性和适應性。所謂現代和靈活的監管體制是強調平衡好監管和技術、産業發展的關系。具體來說,可以從以下三點着手。
首先是通過責任共享以分散風險。公共監管部門與企業等私營部門、民間團體和個人代表等協商,重新調整各利益攸關方的責任,繼續落實責任共享制以達到分散風險的目的。也就是說,政府監管部門、行業風險管理服務機構、生成式 AI 服務提供者和終端用戶應該共同承擔保護數據安全的責任。分級分類劃分責任并進行分級分類監管,以保證即使某一層級出現安全風險,也不會造成不可控後果。
其次是關注人工智能新興的監管工具,加強技術審查與風險評估。例如,可以靈活運用算法風險分級、算法影響評估、算法審計、算法認證等管理方法和監管工具,對生成式 AI 應用提供者進行技術審查,評估其數據安全風險,并建立相應的風險管理措施。
最後是在制定新的監管法律法規時,監管機構和受監管實體應該進行協商。例如,在《生成式人工智能服務管理辦法(征求意見稿)》,征求意見的時間段内,允許企業向監管部門和立法機構提交相關行業實踐和建議,舉辦政府部門和行業代表圓桌會議,相互磋商,以推動和促進法案有效和平穩落地。
第四,加強技術獨立性決定話語權。事實證明,規則的制定者一直都是技術的壟斷者。如果我國想要參與網絡和 AI 領域的規則制定,避免主動和被動的落後,那就需要加強技術上的獨立性和話語權。具體來說可以從以下兩點着手:
其一是加大資源投入和調整激勵機制,以鼓勵自主研發與本土創新。加大網絡安全和 AI 領域的研發投入,鼓勵本土企業和研究機構加強自主研發,減少對外部技術依賴,以提高對數據的掌控權。包括但不限于鼓勵監管機構通過稅率優惠政策等措施來激勵企業和各類組織機構在網絡安全和 AI 方面的投資。
其二是重視網絡人才隊伍建設,打造一批跨領域、多元化的高科技網絡人才隊伍。網絡安全人才是既懂得網絡安全專業技術,又懂得網絡安全合規風險管理的複合型人才。
第五,加強國際合作,參與國際規則制定。從中美關系的發展形勢來看,氣候、公共衛生和核不擴散等議題已經難以成爲中美對話的基礎,而 AI 可以成爲下一個合作基礎。對于我國而言,AI 更是我國和歐盟等其他國家合作的基礎,以避免美國對我國的全面 " 脫鈎 " 和孤立。
歐盟在互聯網和人工智能相關規則制定和立法方面一直走在世界前列,我國應該和歐盟創辦一個類似于美國—歐盟貿易和技術委員會(TTC)的論壇,共同探讨 AI 相關領域的數字安全和監管,還應該積極參與國際合作,推動全球範圍内的 AIGC 監管和數據安全标準的制定與實施,進而避免我國 AI 産業發展與世界 AI 時代 " 脫鈎 "。