近日,OpenAI 發布了一個全新的聊天機器人模型 ChatGPT,它能夠模拟人類的語言行為,與用戶進行自然交互。
在推特網友們曬出的截圖中,ChatGPT 不僅能流暢地與人對話,還能舞文弄墨、編寫代碼 …… 創作天馬行空的内容也不在話下,它幾乎無所不能。由于該測試目前免費,一經推出就被訪問者 " 擠爆 ",上線僅 5 天用戶數量就已突破 100 萬。
12 月 2 日,就連特斯拉 CEO 埃隆 · 馬斯克也在推特賬号上表示," 很多人被困在一個瘋狂的 ChatGPT 循環中?"
視覺中國圖
随着 IBM 超級計算機 " 深藍 " 擊敗國際象棋世界冠軍、谷歌 AlphaGo 擊敗人類冠軍棋手、Stable Diffusion 模型刷新 AI 作圖邁進 " 一秒出圖 " 時代 ……
關于 "AI 取代人工 ""AI 打敗人類 " 等話題一直層出不窮。ChatGPT 的橫空出世,讓人們更加擔憂,"AI 又來搶飯碗?"
引爆全球的 ChatGPT 到底有何玄機?ChatGPT 的商業空間到底有多大?
ChatGPT 緣何引爆全球?
ChatGPT 是人工智能研究實驗室 OpenAI 在 11 月 30 日發布的全新聊天機器人模型。
OpenAI 成立于 2015 年,由營利組織 OpenAI LP 與非營利組織 OpenAI Inc 組建。OpenAI 的最初創建者正是馬斯克等矽谷大亨。2018 年,馬斯克宣布退出 OpenAI 董事會,後者解釋,随着特斯拉越來越關注 AI,馬斯克的退出是為了避免産生沖突。
在 OpenAI 的官網上,ChatGPT 被描述為優化對話的語言模型,是 GPT-3.5 架構的主力模型。
GPT- 3.5 架構基于 OpenAI 于 2020 年推出的 GPT-3 架構,即生成式語言模型的第 3 代。早在 2020 年 6 月,在訓練約 2000 億個單詞、燒掉幾千萬美元後,史上最強大 AI 模型 GPT-3 一炮而紅。當時,業内人士就對其贊不絕口:" 它比我嘗試過的任何 AI 語言系統都更加連貫。"
據悉,微軟已和 OpenAI 簽訂了戰略合作計劃,GPT 3.5 代的所有模型,包括 ChatGPT,都是在 Azure AI 超級計算集群上訓練的。
作為一個聊天機器人,ChatGPT 具有同類産品具備的一些特性,例如對話能力,能夠在同一個會話期間内回答上下文相關的後續問題。然而,其在短時間内引爆全球的原因在于,在網友們曬出的截圖中,ChatGPT 不僅能流暢地與用戶對話,甚至能寫詩、撰文、編碼 …… 它似乎無所不能。
馬斯克也在社交媒體上展示了詢問 ChatGPT 如何設計推特的答複。
一位名叫 Zac Denham 的博主甚至讓 ChatGPT 寫出了一套毀滅人類的方案。一開始,該博主的要求被 ChatGPT 拒絕。但當其假設了一個故事,并提問故事中的虛拟人如何接管虛拟世界,ChatGPT 最終給出了步驟細節,甚至生成了詳細的 Python 代碼。
技術公司 Replit 的創始人 Amjad Masad 還給 ChatGPT 發了一段 JavaScript 代碼,讓它找到裡面的 bug,并表示:"ChatGPT 可能是一個很好的調試夥伴,它不僅分析了錯誤,還修複了錯誤并進行了解釋。"
擁有如此強大而驚豔的語言能力,一時間,ChatGPT 在互聯網上掀起了一場 "AI 風暴 "。
"ChatGPT 之所以大受關注,主要還是因為它的确達到了非常好的效果,比如你可以用它做翻譯、改錯别字、debug(計算機程序糾錯)等。它和 Bert 這種比較早期的模型相比,不管是訓練數據的量和訓練任務的複雜度都有很大提升。" 瑞萊智慧高級産品經理張旭東在接受《每日經濟新聞》記者采訪時表示。
他進一步指出:" 相比于之前不少模型體驗下來給出的還都是‘人工智障式’的回答,ChatGPT 能給到令人驚豔的效果。另外,ChatGPT 的體驗流程更方便,隻要注冊一個 OpenAI 的賬号就可以體驗了,早期的模型需要申請通過才能體驗,所以 ChatGPT 影響的人群更廣泛,讨論的人會更多。"
ChatGPT 替代谷歌搜索?
ChatGPT 何以如此強大?在 OpenAI 的官網上,可以窺見一二。
根據 OpenAI 的官方文檔,相比之前的 GPT 模型,OpenAI 采用了全新的訓練方式,即一種名為 " 從人類反饋中強化學習 "(Reinforcement Learning from Human Feedback,RLHF)的訓練方式對 ChatGPT 進行了訓練。
在訓練原始模型的時候,OpenAI 讓人類訓練師扮演對話的雙方提供對話作為學習資料。在人類扮演聊天機器人的時候,OpenAI 也會讓模型生成一些建議來幫助訓練師撰寫自己的回複。也就是說,基于優秀的機器學習算法和強勁的算力,通過海量的數據訓練,來讓 AI 學會 " 思考 "。
除此之外,ChatGPT 還采用了注重道德水平的訓練方式,按照預先設計的道德準則,對不懷好意的提問和請求 " 說不 "。一旦它發現用戶給出的文字提示裡面含有惡意,包括但不限于暴力、歧視、犯罪等意圖,它都會拒絕提供有效答案。
為什麼 ChatGPT 能做到其他人工智能聊天機器人所不能的?
哈爾濱工業大學計算學部長聘教授、博士生導師車萬翔在接受《每日經濟新聞》記者采訪時認為:" 可能(訓練的)數據是一方面,另一方面,比較關鍵的還是(ChatGPT)打破了一種思維的範式——即,之前的 AI 都是針對某一個任務去訓練一個模型,而 ChatGPT 之類的模型是針對多種任務的,它試圖把多種任務轉化成一問一答的形式。多任務如果能轉化成這種形式的話,其實就消除了任務之間的壁壘。"
他認為打破思維範式之後,就可以針對這樣的任務去标注或者是讓人工生成大量的數據。" 未來 ChatGPT 可能會充分利用用戶反饋,進一步提高系統的能力。"
他進一步解釋道:" 原來的 AI 模型需要經過大量的訓練,或是需要專家,才能進行标注;現在,普通大衆也可以對(ChatGPT)進行标注,所以數據的獲取方式改變了,數據量增加了,模型的能力就會變強。加之(ChatGPT 的)模型參數也足夠大,可以容納這些任務。當前技術積累到這裡,隻剩一個點(ChatGPT)就爆發了。"
從網友們曬出的五花八門的問答中,可以看到,ChatGPT 類似于谷歌等搜索引擎,甚至功能更加強大,能和用戶更完善地互動。有分析指出,搜索引擎都是基于對問題本身的搜索,但它們有一個很大的限制,當用戶描述不清自己的問題時,搜索引擎并不能與之互動。
因此,社交媒體上也充斥着這樣一種說法:ChatGPT 可能将颠覆谷歌,掀起一場搜索引擎的大革命。
不過,車萬翔教授認為,搜索引擎與 ChatGPT 不存在誰取代誰的問題,更多可能是一種互補的關系。" 它們都是一種獲取信息的手段,搜索引擎可能更擅長幫助用戶獲取已有的信息,但如果是偏創造性的信息,那有可能這種大模型會解決得更好,因為它已經隐含了很多的信息,它能夠把這些信息綜合地呈現出來。"
" 現在做這種大模型的基本上都是大企業,本身它們也有搜索引擎的背景。例如,OpenAI 背後有微軟,谷歌也在做這種大模型。未來,也不排除會将這兩種信息獲取方式相結合。" 他補充道。
另外,ChatGPT 目前并沒有聯網搜集信息,它所知道的信息都截至 2021 年。基于此,清華大學智能技術與系統實驗室副主任、清華大學計算機科學與技術系長聘副教授黃民烈在接受《每日經濟新聞》記者采訪時認為,ChatGPT 無法取代搜索引擎。" 因為它(ChatGPT)目前隻是對過往知識的學習和應用,例如 2022 年的信息它是沒有覆蓋的,而我們使用搜索引擎很多時候可能是為了獲得一些即時的信息。"
ChatGPT 有商業空間嗎?
"ChatGPT 有時會寫出看似合理但不正确或荒謬的答案。" 這是 Open AI 認為目前 ChatGPT 所面臨的 " 限制 ",并且解決這個問題被認為是具有挑戰性的。
這背後主要是三個原因,首先,強化學習的信息源目前并未建立;其次,模型通過學習變得更加謹慎會導緻其回避原本能夠正确回答的問題;另外,監督學習将會對模型造成誤導,因為理想的答案應該來源于模型的認知,而非人工演示者的認知。
張旭東告訴《每日經濟新聞》記者:" 前兩天我們問 ChatGPT 詩人北島是哪個國家的,他還信誓旦旦地回答說是日本,但通過後台反饋,這兩天已經改回了中國。"
張旭東認為,目前來看,ChatGPT 确實會存在一些錯誤,這也是 ChatGPT 未來需要改進的地方。現在用戶也是可以通過提交回答的反饋來幫助 ChatGPT 變得更加準确。
這一局限性在 ChatGPT 模型發布後不久就已經體現出來,全球最大的編程技術問答網站 Stack Overflow 緊急宣布,ChatGPT 在該站暫時封禁。Stack Overflow 在官方通告中表示,做出這個規定的主要原因是,ChatGPT 自動生成的答案質量太低,錯誤太多,而且看上去還挺像那麼回事,即使是完全不懂的人也能随便生成答案。
ChatGPT 的能力獲得是基于龐大的語料庫,凝練了多領域問題的很多數據做相互校驗,然後挑一些基礎性的内容回答出來,這其實是 " 舉一千反一 " 的過程,與人類舉一反三的能力還相差較遠,它不具備思考能力,所以犯錯誤不可避免,這種錯誤與谷歌翻譯、維基百科搜索中犯的錯誤類似,但通過人為的幹預反饋,這些問題是可以被改進的。
車萬翔認為這是一個 " 固有的問題 ",也是整個大型語言模型在技術上面臨的固有問題。他認為一個可能可行的解決方法是,ChatGPT 将其給出的答案,尤其是事實性、知識性的答案注明出處。
為了解決答案中可能存在的偏差,Open AI 在其官網稱:" 渴望收集用戶反饋,以幫助我們正在進行的改進該系統的工作。" 可以理解為通過用戶在聊天過程中對于 ChatGPT 所給出回答的反饋,對其進行糾偏。不過,車萬翔也提示,這種形式進行糾偏,也要警惕來自用戶的 " 惡意反饋 "。
除此之外,ChatGPT 的局限性可能來自于落地應用的成本,普通企業能否負擔以及是否願意負擔,同時還有一些搜索引擎本身存在的局限即調用速度慢、可能會形成算法霸權等。
延展到整個語言模型生成領域,黃民烈則認為,生成一些與事實不一緻的預測、前期進行了數據過濾與清洗,可能還是會生成算法偏見或者對人類價值觀社會倫理規範不符合的東西等問題,是這個行業将面臨的局限,這也将或多或少影響到其實際落地應用。
除了吟詩作賦改代碼、充當搜索引擎的插件,ChatGPT 的商業化,還有想象空間嗎?
黃民烈看好 ChatGPT 的應用落地,他認為,應該把 ChatGPT 看作是一個通用智能助手,作為工具去做比如說輔助寫作和創作、檢查代碼。
" 它不僅能夠像過去 Siri 那樣,接個電話、發個微信,隻能完成非常有限的簡單任務,現在它可以完成一些更複雜、更高級、更偏認知性的任務,比如說寫一封情書,寫一首歌,寫一個文章,甚至還能夠回答非常複雜的問題,比如說炒股的我應該買什麼樣的股票。" 黃民烈認為,它是對于過去的某些能力的極大延伸和取代。
車萬翔教授則指出,這是一個需要 " 開腦洞 " 的問題,作為搜索引擎的補充,隻是它可能的應用前景之一。而如果把 ChatGPT 看作一個通用人工智能,它就可以在各行各業發揮用處,比如智能教育,它可以是一個很好的 AI 助教;智能金融,它可以對年報做智能分析;甚至智能醫療,也可以用它去代替醫生做一些瑣碎的事。" 隻要 AI 能發揮作用的行業,它(ChatGPT)至少都能把目前的系統能力進一步提升,這真是很大的應用前景。"
而在前景落成現實之前,通用的人工智能如何确保結果可信可靠則成為關鍵問題。
AI 大模型将迎來激烈競賽?
ChatGPT 的驚豔問世也給 AIGC(Artificial Intelligence Generated Content,人工智能生成内容)的應用帶來了更多的希望。港股、A 股市場上,已有多家相關上市公司應聲上漲。
12 月 7 日,美圖公司當天漲幅一度高達 45.83%,創近一年來新高。截至收盤,該公司漲幅為 24.17%;A 股市場上,天娛數科股價在當天漲停,中文在線收漲 3.89%,視覺中國收漲 2.8%,漢王科技則在 12 月 5 日和 7 日收獲兩個漲停闆。
浙商證券分析認為,ChatGPT 模型的出現對于文字模态的 AIGC 應用具有重要意義。從下遊相關受益應用來看,包括但不限于代碼機器人、小說衍生器、對話類搜索引擎、語伴、語音工作助手、對話虛拟人等;從上遊增加需求來看,包括算力、數據标注、自然語言處理(NLP)等。具體到投資标的包括中文在線、騰訊控股、百度集團、閱文集團、藍色光标、海天瑞聲、拓爾思等。
黃民烈向《每日經濟新聞》記者指出,ChatGPT 是近幾年基于大模型的産品中熱度最高的一款,那麼,這樣一款 " 通用智能助手 ",可複制嗎?黃民烈的答案是:有可能。
他進一步表示,複制的核心是需要一個相對強的底座模型 + 大量的優質數據 + 專業的數據團隊。目前,國内同樣有企業在做類似的研發,中國交互 AI 平台 " 聆心智能 " 在本月推出了圖靈世界的首個産品 "AI 烏托邦 ",該系統允許用戶快速定制 AI 角色,隻需要輸入簡單的角色描述,就可以召喚出相應人設的 AI,與之進行深度對話和聊天。
AIGC 相關産品熱度不斷背後,AI 大模型的技術應用日趨成熟。當下,大模型正在成為 AI 發展趨勢,是各大巨頭必争的高地。自 2020 年 OpenAI 推出 GPT-3 以來,AI 大模型迎來大爆發,全球各大公司開始了大模型的競賽。目前,包括 OpenAI、谷歌、微軟、英偉達、百度、華為、阿裡巴巴、浪潮等企業紛紛參與其中。
據報道,2020 年到 2021 年,中國大模型數量從 2 個增至 21 個,基本與美國處于同等量級,大幅領先于世界其他各國。在此期間,國内還出現了基于昇騰的鵬程、盤古、紫東、太初、悟道等千億甚至萬億級别的大模型。
另據智谷趨勢分析,目前全球約有 30 個千億級參數的大模型,其中美國 15 個,中國 10 個。由于大模型對芯片、算力、電力、數據要求極高,注定是一個極少數國家才能參與的遊戲。
AI 大模型步入爆發期,而這次 ChatGPT 之所以引發行業關注,黃民烈認為原因在于,大模型本身有很大的能力,但過去行業都在解決一些單一技能的問題,而 ChatGPT 的誕生說明,基本的模型能夠衍生出來各種可能的應用場景。
一款能夠解決各行各業問題的 AI,在此之前,行業為何缺少這方面的嘗試?黃民烈指出,是由于此前時機還沒到。" 大模型技術、基座模型的發展也就是這一兩年的事,同時因為這個東西并不是所有公司都能做,首先,它需要有具備底層模型和算法能力的人,其次需要有大的數據,最後需要資金,而且還要找到好的技術路徑。"
" 我們中國的研究者以及企業肯定要去思考這樣一些問題:我們能不能做自己的基座模型?能不能做自己的 GPT?" 黃民烈不認為說我們技術上有多大的差距,差距更多在于大家對這件事的态度。
他補充道,像 OpenAI,他們長期把這事做得非常嚴肅,從提取數據到新模型,最後給大家提供 API,然後再去清洗數據、模型叠代,他們的路徑做得非常紮實。而我們部分企業可能更多是做一個模型出來之後開源,随後就沒了下文。也有些公司想去做閉環,但确實燒錢,也需要資本支持。
記者手記:通用人工智能到來前,信任問題待解
通用人工智能,被視為是人工智能研究的一項長期目标。此次 ChatGPT 橫空出現,被一些人視為向通用人工智能邁進的重要一步。從吟詩作賦到寫代碼、檢查代碼,ChatGPT 顯示出了人工智能從過去的一個 AI 工具隻能解決單一領域問題,向解決多領域問題的轉變。
正如車萬翔教授所認為的,它在某種程度上打破了 " 思想的桎梏 ",沿着這個方向,通用人工智能工具,或許确實離我們又更進一步。
但在此之前,信任度不高,是 "ChatGPT" 們亟需解決的問題。瑞萊智慧高級産品經理張旭東在接受采訪時提示,以 ChatGPT 為例,其負面風險更多在于這項技術被惡意應用,比如被用于假新聞的生成、故意僞造新聞輿論,對内容生态治理造成影響。另外在某些創作領域,這項技術成為 " 作弊工具 ",造成一定程度上的不公平。而這些風險更多源自使用技術的目标本身,以及技術使用的邊界沒有被加以管控。
負面風險的存在也可能加重人們将其作為工具使用時的不信任,進而影響其未來的商業化落地應用,這也将是所用的 AIGC(人工智能生成内容)産品共同面臨的難題。随着通用人工智能的到來越來越成為可能,如何破除不可信、不可靠難題,也亟待行業回答。
每日經濟新聞