圖片來源 @視覺中國
文 | 互聯網法律評論
2024 年 2 月 15 日,OpenAI 推出了名爲 Sora 的文生視頻大模型,60 秒如同電影質感般的視頻讓已經熟悉 OpenAI 的民衆和整個行業再次炸裂,并将 AI 視頻生成推進一個全新的時代。
然而,AI 的快速進步意味着我們将面臨令人信服的深度造假、高度針對性的欺詐信息以及更加複雜的網絡安全威脅。
2024 年,全球有 50 多個國家 / 地區将舉行大規模選舉,包括美國、孟加拉國、中國台灣、巴基斯坦、印度尼西亞等,選民人數占全球人口的一半以上。專家警告稱,2024 年将成爲全球範圍内前所未有的選舉虛假信息泛濫之年。
就在 Sora 發布的次日,2 月 16 日,在慕尼黑安全會議(MSC)上,亞馬遜、谷歌、IBM、Meta、微軟、OpenAI、TikTok、X 等 20 家參與構建或使用人工智能技術的科技公司共同承諾:努力檢測和打擊選舉中的有害人工智能内容,包括選舉候選人的深度造假。
20 家 AI 領跑者" 抗選舉幹擾 " 的聯合承諾雖然慰藉了公衆 " 真實選舉 " 的期待,但同時也凸顯未來挑戰的複雜性。
圖片:慕尼黑安全會議的科技公司 " 人工智能選舉協議 " 頁面
簽署方包括:Adobe、亞馬遜、Anthropic、ARM、ElevenLabs、谷歌、IBM、Inflection AI、LinkedIn、McAfee、Meta、微軟、Nota、OpenAI、Snap、Stability AI、TikTok、TrendMicro、TruePic 和 X 。
01 首例 " 人工智能造假幹擾大選 " 案已在美國出現
1 月下旬,美國發生了一起" 最明顯、可能也是已知的首次利用人工智能幹擾美國選舉 " 的案件。
據報道,有人使用人工智能模仿美國總統喬•拜登的聲音,并使用了他經常使用的口頭禅 " 真是胡言亂語 "(What a bunch of malarkey),用錯誤的暗示來阻止人們在美國新罕布什爾州的第一大城市投票。這條信息在 2024 年 1 月 23 日初選前兩天發送給 5,000 至 25,000 名選民。而且這些電話錯誤地顯示,來自凱西•沙利文(Kathy Sullivan)的個人手機号碼。
美國當局快速鎖定了可能涉嫌這起案件的肇事者,兩家德克薩斯州公司,Life Corporation 和 Lingo Telecom,美國聯邦通信委員會和新罕布什爾州檢察長都向這兩家公司及負責人發出了禁止令和傳票。
美國聯邦通信委員會本月曾提議,明确将使用人工智能語音的主動機器人電話定爲刑事犯罪;如果根據新罕布什爾州的《選民壓制法》提出指控,該重罪可判處最高七年監禁。
調查才剛剛開始,但美國當局希望發出強烈信号,以阻止其他可能試圖幹預今年美國大選的人。
02 如何使用人工智能技術惡意影響選舉?
人工智能應用于改善競選工作效率的場景比比皆是:
AI 可以收集和總結選民的興趣,并最終可能将這些優先事項與監管機構收到公衆意見的具體問題相匹配;
AI 可以幫助國家和地方層面政治家,讓他們的評論對不同的受衆更具說服力。
通過簡化立法文本和跟蹤代表的投票,AI 可以增強公民對其民選官員正在考慮的複雜立法的理解。
然而,另一方面是,想要歪曲公衆輿論的倡導團體或個人可能會在人工智能中找到盟友。惡意行爲者可以利用 ChatGPT 等人工智能驅動的程序,僞造出候選人或選民的視頻、音頻、圖片、文字等,由于其生成速度快、數量巨大,将被用來在特定問題上形成公衆共識,迫使立法者按照期望的議程采取行動。
下面是惡意行爲者使用生成人工智能能力的具體威脅:
公衆信任的破壞:雖然一些社區可能會被誤導性的人工智能内容所欺騙,但其他社區将越來越不信任真實信息,從而加深 " 說謊則紅利 " 并破壞對證據和事實的信任。
平台準備不足:某些主要和中型平台減少了 " 信任和安全 " 人員配置,并且對人工智能生成内容的預期數量和速度準備不足。封閉的消息服務可能是人工智能内容的主要渠道。
政策進展緩慢:美國大選前不會有全面的聯邦監管,而且各州的權宜之計監管也各不相同;歐盟《人工智能法案》在 2021 年 4 月提出,目前仍需歐盟議會批準,如果如期獲批,與生成式人工智能相關的某些規則最快也隻能在 2025 年開始适用。
高質量的人工智能生成媒體:對于技術支持的系統和試圖識别不真實内容的普通人來說,檢測所謂的 " 深度僞造品 " 變得越來越困難。
高速大規模分發:人工智能系統可以快速、低成本地生成和分發大量内容。
消息定位和超本地化錯誤信息:人工智能工具可以針對特定群體、心理概況、超本地化地理位置甚至不同的個人微調消息。
自動化騷擾:人工智能可用于顯著增加針對選舉官員或公民領袖的騷擾内容的數量和針對性。
選舉基礎設施的網絡安全:人工智能生成代碼的預期進步可能會加劇惡意軟件的挑戰。
03 打擊惡意幹擾選舉,科技巨頭能幹什麽?
2024 年慕尼黑安全會議(2 月 16 日至 18 日)聚集了來自世界各地的 450 多名高級決策者和思想領袖,其中主要包括國家元首、部長、國際和非政府組織的領導人讨論國際安全政策的緊迫問題。
随着信息戰和網絡攻擊等威脅的增加,科技公司在國際會議上占據了越來越多的關注和空間。
慕尼黑安全會議組織者《雙輸?—— 2024 年慕尼黑安全報告》顯示,過去一年,全球主要經濟體,尤其是意大利、法國和巴西,對人工智能的擔憂加劇;半導體和人工智能(AI)等戰略技術的競争将導緻大國分裂科技行業,并招緻福利損失;對人工智能和數據安全進行緊迫性地全球監管,可能會成爲技術安全化的犧牲品。
圖片:《雙輸?—— 2024 年慕尼黑安全報告》封面
因此,科技公司宣布自願采取 " 合理的預防措施 ",簽署了《在 2024 年選舉中打擊人工智能欺騙性使用的技術協議》。
簽署者在協議中表示,願意共同合作檢測技術等工具,以發現、标記和揭穿人工智能操縱的公衆人物圖像和音頻的 " 深度僞造 ";更多地公開如何在平台上打擊人工智能生成的虛假信息。
八項具體承諾分别是:
1. 開發和實施技術以減輕與欺騙性人工智能選舉内容相關的風險,包括适當的開源工具;
2. 評估本協議範圍内的模型,以了解它們可能在欺騙性人工智能選舉内容方面帶來的風險;
3. 尋求檢測該内容在其平台上的分布;
4. 尋求适當解決在其平台上檢測到的此類内容;
5. 培養跨行業抵禦欺騙性人工智能選舉内容的能力;
6. 向公衆提供有關公司如何解決該問題的透明度;
7. 繼續與多元化的全球民間社會組織、學者合作;
8. 支持提高公衆意識、媒體素養和全社會複原力的努力。
值得一提的是,X(推特)的加入是此次協議的驚喜之一。因爲馬斯克在接管推特後大幅削減了内容審核團隊,并将自己描述爲 " 言論自由絕對主義者 "。針對這次慕尼黑會議的協議,X 的首席執行官表示:"X 緻力于發揮自己的作用,與同行合作對抗人工智能威脅,同時保護言論自由并最大限度地提高透明度。"
輿論認爲,該協議在很大程度上是象征性的,而且并未包含 " 禁止或删除深度造假産品 "。承諾的模糊性和缺乏任何約束性要求可能有助于赢得衆多公司的支持,但令尋求更有力保證的倡導者感到失望。
有民間社會團體指出,這種 " 自我監管 " 并不值得信任,這份承諾不能解決使用社交媒體平台和廣告模式惡意影響選舉。
04 道阻且長
誤導性内容,尤其是與選舉有關的内容,并不是什麽新鮮事。但在人工智能的幫助下,現在任何人都可以快速、輕松且廉價地創建大量虛假内容。
從本質來說,這并不僅僅關乎 " 選舉 ",而是人工智能 " 威脅着我們區分事實與虛構的能力 "。當你開始懷疑所有看到的内容是否真實時,AI 就完全摧毀了現實的基礎。
平台的計算機生成内容檢測系統是否能夠跟上技術的進步,是值得擔心的。制定法律和監管措施來限制選舉中的人工智能是一個良好的開端,但這些努力的有效性将取決于科技公司、政府和民間社會之間的持續合作,以适應不斷變化的威脅并确保數字時代民主機構的彈性。
随着該協議從承諾轉向實踐,真正的考驗将在于,我們是否有能力培育一個更安全、更知情的公共領域,在這個領域可以在不損害法治原則的情況下,充分利用人工智能的潛力。