圖片來源 @視覺中國
文 | 王新喜
ChatGPT 在經曆了最初的一波火爆之後,如今正在面臨一個新的麻煩,就是引發了全球性的擔憂與危機感,這種全球性的擔憂與危機感可能會讓 ChatGPT 的前景不妙,很有可能會走入克隆技術的結局。
馬斯克此前發起的暫停訓練比 GPT-4 更強大的 AI 系統的公開信響應人數仍在不斷增加,截至發稿,已有超 1.8 萬人簽名。一周之内,意大利、德國、法國、愛爾蘭等 8 國相繼 " 出手 " 監管。
意大利個人數據保護局早已經宣布禁止使用 ChatGPT。
意大利已經要禁了,德國也要跟,不久前,德國聯邦政府數據保護專員烏爾裏希 · 凱爾伯表示,德國可能跟随意大利的腳步,因數據安全問題 " 封殺 "ChatGPT。在英國,1000 多名人工智能專家和行業高管聯名發布公開信,呼籲暫停開發最先進的人工智能系統,以便制定安全政策。
而聯合國教科文組織也号召各國立即執行其《人工智能倫理問題建議書》。這一規範性全球框架由教科文組織 193 個成員國一緻通過,旨在 " 提供所有必要保障 "。
據媒體最新報道,拜登政府已開始研究是否需要對 ChatGPT 等人工智能工具進行審查。
目前飛象網創始人項立剛也表示,美國自己最終也有可能禁掉 ChatGPT。
對于 ChatGPT,馬斯克曾經也發表過很多觀點。在一開始,馬斯克也對 ChatGPT 頗爲推崇,但後來,馬斯克表示它好得有點可怕了。我們距離危險的強人工智能不遠了。于是,他馬上行動做出應對,取消了 OpenAI 對推特數據庫的訪問。
目前來看,雖然 ChatGPT 這樣的生成式 AI 對提高工作效率很有幫助,但它的負面效應正在大于它的正面效應,引發了很多國家、行業的擔憂與警惕。
從飯碗、隐私到版權,ChatGPT 引發越來越多的危機感
從原理來看,ChatGPT 的本質是深度學習,這種生成式 AI 的模型進化是需要依賴大數據來訓練,通過感應器采集數據,進行信息存儲、加工,通過算力進行計算,最後形成決策機制,進行反饋。
在這種模式下,它能産生多種負面效應,它一方面會采集用戶數據進行訓練,這将導緻大規模的隐私數據洩露,無論是對于個人的隐私還是商業公司的機密與數據、文件隐私,甚至一個國家政府層面的數據隐私都有可能被 ChatGPT 采集到,從而被大規模的擴散,這種隐私安全的威脅,從個人到公司到國家,都不想看到它出現的。
事實上,三星已經驗證了這種威脅。早在不久前,三星引入 ChatGPT 之後就出事了。據《economist》報道,三星 DS 部門的 A 職員,在執行半導體設備測量資料庫(DB)下載程序的源代碼時出現了錯誤,便複制出有問題的原始代碼到 ChatGPT,并詢問了解決方法。另外,三星 DS 部門的 C 職員則将手機錄制的會議内容轉換爲文件後輸入到 ChatGPT,要求其制作會議紀錄。
最終三星半導體設備測量資料、産品良率等内容或已被存入 ChatGPT 學習資料庫中。這些是非常關鍵的機密數據資料。目前,三星也已經禁用了 ChatGPT。
因此,如果大型企業接入 ChatGPT 之後,一方面可以爲公司員工辦公的效率帶來幫助,但很可能公司内部的很多機密資料被輸入到 ChatGPT 數據庫,導緻商業機密與産品專利、技術等方面的機密資料外洩。因爲員工會通過 ChatGPT 咨詢什麽問題,公司可能并不知情,也很難追蹤。
另一方面 ChatGPT 會輸出價值觀、文化、思想,這就不能被各國政府所能接受。因爲對于一個國家來說,有着其固有的共同的文化與價值觀,這是一個國家文化共同體的重要文化組成部分,從這個角度來看,ChatGPT 有文化滲透的風險。
其三是,剽竊。如前所述,它需要采集大量的用戶數據進行訓練,這導緻很多版權内容、包括文章、新聞與文獻、論文資料全部被它所用,它免費的幫助用戶去剽竊整個互聯網的版權内容。美國語言學家諾姆 · 喬姆斯基認爲,ChatGPT 是一個高科技剽竊系統,從海量數據中發現規律,并依照規則将數據串連在一起,形成像人寫的文章和内容。在教育界,已經引發了 "ChatGPT 讓剽竊變得更加容易 " 的擔憂。
其四:如果全球都對它開放數據庫,那麽 ChatGPT 有龐大的數據來訓練,可以快速進化,那麽它真的可能砸掉很多人的飯碗。随着它的進化與升級,無論是技術人才還是企業高管、律師、作家、畫家、程序員、設計師、工程師等等,都有可能被 ChatGPT 取代。
ChatGPT 來了,我會失業嗎?這是自這個 AI 發布後,全球很多人都在問的問題。
有人說,一個新技術總會有好的和不好的方面,不能說因爲有不好的地方就把它禁掉。但這其實要看負面效應大還是正面意義大,風險是可控的還是不可控的。
如果它給人類本身帶來了更多的難題與危機,負面效應大于正面效應,可能就會被考慮禁用。事實上,克隆技術就是如此,事實上,從克隆技術的走向來看,似乎預示了 ChatGPT 的結局。
ChatGPT 會不會走向克隆技術的結局?
在國内,科技向善曾經是一個很流行的詞,這可能是科技創新與技術創新的最終目的,如果科技創新與技術創新違背了 " 向善 " 這個方向,而是走向相反的方向,那麽它可能會遭遇全球性的禁用,結局可能就不會太好。
其實在科技界一個典型的例子是克隆技術。現在克隆技術沒有多少人提了。
但在過去,克隆技術曾經被全球所關注。提到克隆生物,我們首先想到的是克隆羊多莉。但其實克隆羊多莉并不是唯一被克隆的動物,科學家們利用克隆技術還克隆出了老鼠,牛,豬等 23 中哺乳動物。後來我國科學家還克隆出了難度非常高的靈長類動物猴。
賽馬 Aiken Cura 是赢得過 5 次馬球比賽的冠軍,爲了延續它的基因,美國 Crestview Genetics 公司提取了它的體細胞,并提取出體細胞的細胞核,将其放入到去掉細胞核的卵母細胞中,然後克隆出了 8 匹優秀的賽馬。
既然克隆生物看起來是很強大的科技與技術,那爲什麽各國要禁止克隆技術的使用呢?
這有多方面原因,首先是克隆技術并不完善,其次是它是逆大自然的産物,用來克隆的生物并沒有想象中健康與完美,克隆羊多莉 4、5 年後患上了老年病,在出生後 6 年就因肺部感染而死亡,克隆技術帶來的還有生物資源的搶奪與繁衍的混亂。
而如果克隆人技術作用于人,會給人帶來恐慌,克隆人對人的取代其實就類似于 ChatGPT 的能力對人的取代,人們爲什麽要制造一個人來取代自己?這會帶來很多不安定的混亂因素以及個人生物識别的難題。
克隆技術如果是應用到動物身上,克隆出無限多的個體,但是這些個體的基因與原來的沒有任何變化,反而會搶占其他動物的生存空間,導緻物種基因多樣性減少,從而引發滅絕危機。
如果應用到人身上,那更加不得了,每個人都可以克隆多個個體,毫無疑問會引發倫理危機,你怎麽證明你是你,如果有多個你存在,無疑給社會以及個人的人身安全、治安、社會穩定帶來嚴重的隐患與危害。因此,克隆技術并沒有做到 " 科技向善 ",而是走向了相反的方向,它沒有給人類以及動物界的生存繁衍帶來好處,甚至給人的生存帶來了更大的危險與制造了更多的混亂。
因此,克隆技術被禁用,因爲它沒有做到科技向善。
從目前 ChatGPT 來看,其實有類似的一面,我們需要一項技術爲己作用,是可以自己掌控的,如果人類無法掌控他的風險走向,那麽它就是危險的。
本質上,如果開放數據庫給它,相當于打開潘多拉魔盒,正如馬斯克所說的:" 當你參加派對時,我研究了 ChatGPT。當你爲了追求虛榮而在健身房浪費時間訓練時,我正在訓練機器學習模型。現在全世界都要完犢子了,AGI 都到眼跟前了,你好意思來找我幫忙了?"
這種生成式 AI 有它積極性的一面,就是提高你的工作效率,但是比産生意識更可怕的是,AI 模型自己不停地學習,而這個過程又在人類的監控之外,因爲 AI 的終極目标是實現 AGI(通用人工智能),讓 AI 模型表現得像人一樣,那麽這很有可能給人類本身帶來危機,也會危及到一個國家層面的數據與機密安全。
因此,從這個角度來看,就看 ChatGPT 未來如何優化與改善,彌補它的短闆,但從目前來看,各國正在考慮出台制度與采取行動來禁用它,它進化的越快,被禁用的概率越大,按照目前的走勢,ChatGPT 要麽可能會在特定的企業與圈子範圍内被小範圍使用與研究,要麽有可能被更多國家在政策上限制,束之高閣被禁用,逐漸走向克隆技術的結局。(本文首發钛媒體 APP)
更多精彩内容,關注钛媒體微信号(ID:taimeiti),或者下載钛媒體 App