在人類曆史的長河中,技術的發展始終伴随着一個根本性的問題:技術究竟是用來服務人類,還是最終超越人類?
随着人工智能的不斷發展和進步,這個問題變得尤爲迫切。尤其在 OpenAI 推出的 O1 大模型展現出驚人的思維鏈能力後,我們不得不面對一個更具挑戰性的議題:如何确保這些越來越 " 聰明 " 的 AI,不止擁有能力更要擁有類人的價值判斷。
被稱爲 " 傳播學之父 " 的麥克盧漢曾提出過一個概念:人的延伸。在他的理論中,媒介是人感官的延伸、望遠鏡是人眼睛的延伸、汽車是人腿的延伸,那人工智能便應該是人思維的延伸。
其本質,濃縮成四個字,也就是 " 人本智能 "。
在《我所看見的世界》一書中,華裔科學家、"AI 教母 " 李飛飛也強調了以人爲本的重要性,她認爲:" 如果人工智能要幫助人們,我們的思考就必須從人們本身開始 "。
以人爲本的背後帶來的是科技的創新不斷突破邊界,以開放的心态擁抱新的可能性;社會的安全,強調在 AI 技術發展的同時,必須确保其對人類社會的負面影響降到最低;同時,也是技術的普惠,則要求 AI 技術的發展成果能夠惠及每一個人,而不是成爲少數人的特權。
近期,由财新智庫、ESG30 出品,上海交大、人工智能研究院、聯想集團聯合發布了《人本智能:人機共生時代的科技發展觀》報告,科技界連同企業界正在積極探索這一命題的答案。
這些準則和報告的核心,都是試圖在 AI 的快速發展與人類社會的倫理道德之間找到平衡點。它們試圖回答一個根本性問題:在 AI 技術日益深入人類生活的今天,我們如何确保這些技術的發展不會偏離人類的根本利益。
這是一個在人工智能的開端,就必須深思熟慮的問題。
AI" 成長 " 的新煩惱
随着人工智能技術的飛速發展,AI 的能力已經從簡單的對話應答進化到了複雜的邏輯推理。以 OpenAI 的 O1 大模型爲例,它不僅在自然語言處理領域展現出了驚人的能力,更在模拟人類思維鏈方面取得了突破。這種進步,雖然爲人類帶來了便利,但也帶來了前所未有的挑戰。
一些令人擔憂的案例相繼出現:在醫療領域,AI 系統在進行診斷決策時可能出現價值判斷偏差;在自動駕駛領域,AI 面臨 " 電車難題 " 等道德困境時的決策标準仍存争議;在内容創作領域,AI 可能産生帶有偏見或誤導性的信息。這些案例表明,随着 AI 系統變得越來越 " 聰明 ",其決策邏輯和價值取向的重要性日益凸顯。
随之而來的是對 AI 越來越強的監管和把控需求。AI 在道德困境中的決策偏差,如在自動駕駛中必須選擇撞向一邊的行人還是另一邊的障礙物時,其決策邏輯和價值判斷的依據是什麽?這些問題的複雜性在于,AI 的價值觀實際上是其訓練數據的 " 投影 "。這意味着,AI 的決策不僅受到算法邏輯的影響,更受到其訓練數據中蘊含的人類價值觀的影響。
圖源:網絡
面臨的挑戰包括如何在多元文化背景下處理價值觀差異,如何在保持客觀性的同時維護主流價值觀,以及如何在技術發展與倫理道德之間找到平衡點。這些挑戰要求我們深入分析 AI 決策的具體影響,而不是過度渲染焦慮。我們需要客觀地講出真問題,即 AI 的發展可能會在不經意間放大人類的偏見,可能會在關鍵時刻做出不符合人類預期的決策,可能會在跨文化交流中造成誤解。
在确立人機關系的過程中,《人本智能》報告中提出了 " 三線 " 理念。基準線是人機協作,通過混合智能實現人與 AI 的協同工作,提高效率和創造力;趨勢線是人機共生,随着技術的進步,人類與 AI 的關系将更加緊密,走向 " 人機物 " 三元融合的新時代;底線是确保人類始終處于主導地位,無論 AI 技術如何發展,都必須确保人類的利益和價值觀是最終的決策依據。
" 人本智能 " 中的理念框架爲 AI 的健康發展提供了重要指引。
在這一過程中,業界逐漸認識到,AI 的 " 成長 " 不僅僅是技術問題,更是社會問題。它涉及到法律、倫理、文化等多個層面,需要政府、企業、學術界以及公衆的廣泛參與和深入讨論。而這些挑戰并非不可克服的障礙,而是 AI 發展過程中的必經之路。
科技企業:從理念到行動探索
人本智能的全新理念,目前已經有企業開始進行實踐。
曾斬獲多項國際電影節獎的知名導演陸川,在 2024 年進行了一次有趣的嘗試。
從年初 Sora 橫空出世後,越來越多的電影人開始探索與 AI 共創能産生怎樣的火花。在電影《西野》的創作過程中,陸川與聯想 AI PC 進行合作,通過 AI 技術在後期制作環節大幅提升了工作效率。
" 如果我們用傳統的方式去做,storyboard、motionboard、previs 等等,再加上 CG ……可能要做兩個月,但是
這個片子,我們隻用兩天就做完了。它極大地節省了成本,還有人力時間。" 陸川總結道。
更重要的是,對内容創作者來說,AI 和 AI PC 是一個知識平權的過程,能夠讓年輕創作者跨越門檻,快速實現創意的視覺化。普通創作者即使沒有專業的後期制作團隊,也能依托 AI 技術完成高質量的作品。
這是 AI 技術服務于每個人帶來普惠價值的一個典型案例。而以聯想爲代表的企業,作爲技術創新的主體,也是确保 " 人本智能 " 踐行落地的關鍵角色。
以 " 人本智能 " 爲核心的案例已經在各行各業開始擴散。
今年 5 月在武漢爆火的無人駕駛出租車蘿蔔快跑,也在具體的行駛過程展示了如何在複雜場景中平衡效率與安全。面對中國特有的複雜交通環境,蘿蔔快跑通過與政府合作,推動相關法規的制定和完善,确保自動駕駛技術的負責任使用。在技術層面,蘿蔔快跑采用了高精度地圖、智能感知和精準決策技術,确保車輛在複雜道路環境中的安全穩定行駛。同時,蘿蔔快跑還建立了乘客反饋機制,通過收集和分析用戶意見,不斷優化服務,體現了企業在技術創新中的自我約束和社會責任。
" alt=" 蘿蔔快跑無人駕駛出租車
" width="2278" height="1280">蘿蔔快跑無人駕駛出租車
在武漢的實際運營過程中,蘿蔔快跑嚴格遵守交通規則,包括在遇到行人時進行禮讓,通過多種維度的傳感器實時收集周圍環境的信息,幫助車輛識别障礙物、行人、車輛等,并作出相應的反應。尤其在經過學校路段時,經常出現因連續禮讓行人而前進緩慢,但卻在群衆中引起好評。
在服務特殊群體方面聯想也展現了 AI 技術的人文關懷。針對漸凍症(ALS)患者的交流困境,聯想與斯科特 - 摩根基金會合作開發了一套創新的 AI 解決方案。該系統集成了圓形鍵盤界面、預測式 AI、個性化語音複制和眼球追蹤等技術,讓患者能夠保持個性化的交流方式。
漸凍症患者 Erin Taylor 通過這套系統,得以保留自己的聲音,創建數字分身,實現了繼續爲孩子唱搖籃曲的心願。更重要的是,這項技術即使在語音樣本有限的情況下,也能生成富有情感和自然的語音效果
" alt="
" width="800" height="534">
技術的創新還延伸到了阿爾茨海默症患者群體。在聯想與失智症創新組織(Innovations in Dementia)合作發起的 " 阿爾茨海默症智能計劃 " 中,聯想基于阿爾茨海默 患者生活經曆定制了專門的 AI,打造出逼真的 3D 數字分身(avatar),爲正在應對阿爾茨海默診斷的患者和家庭 提供 24 小時的對話式虛拟伴侶。
這些實踐展示了 AI 技術在提升特殊群體生活質量方面的獨特價值,折射出企業在 AI 發展過程中的深層思考。從最初的簡單功能開發,到現在注重人機協作的協調,企業的 AI 倫理實踐正在經曆着質的提升。這種轉變既是技術發展的必然要求,也反映了企業對社會責任的深刻認識。
在這個過程中,企業們逐步形成了一套系統的實踐方法論。首先是将 " 以人爲本 " 的理念具體化爲産品設計原則,确保每一個功能的開發都以服務人的需求爲出發點。其次是建立起覆蓋研發全周期的倫理審查機制,從問題定義、算法設計到應用部署,每個環節都要進行倫理評估。最後是通過持續的用戶反饋和場景實踐,不斷優化和改進 AI 系統的表現。
從理念到行動的轉變,人本智能正在推動 AI 技術走向更加成熟的發展階段。
技術創新:從思維鏈到價值鏈
在人工智能的世界裏,技術的進步不僅僅是代碼和算法的叠代,更是對人類智慧的延伸和道德倫理的深刻反思。當 AI 開始學會像人類一樣思考,我們面臨的挑戰也随之升級。以聯想集團的 AI 技術幫助漸凍人 " 開口 " 說話的案例爲例,這不僅是技術的勝利,更是對 AI" 三觀 " 塑造的一次深刻實踐。
在訓練數據的篩選優化方面,AI 的 " 三觀 " 實際上是其訓練數據的 " 投影 "。這意味着,數據的質量和代表性直接塑造了 AI 的語言表達、邏輯推理和價值判斷。然而,數據質量問題和代表性問題成爲了 AI 發展中的兩大難題。有害内容的污染、偏見和歧視信息的嵌入、錯誤或過時信息的傳播,都在考驗着 AI 的 " 三觀 "。此外,數據的地域分布不均、語言覆蓋不全、文化多樣性的缺失,也是我們必須正視的問題。
攻克這些難題,我們需要從數據源、算法和評估三個層面入手。在數據源層面,構建多元化、高質量的訓練數據集,加強數據審核和篩選機制,建立文化平衡的數據庫,是确保 AI" 三觀 " 正确的基礎。在算法層面,開發價值觀對齊技術,引入倫理約束機制,設計偏見檢測和糾正方法,是确保 AI 決策公正性的關鍵。而在評估層面,建立價值觀評估體系,開展持續性監測和優化,引入多方利益相關者參與評估,則是确保 AI" 三觀 " 持續進化的保障。
訓練數據對 AI" 三觀 " 的深層影響。就像人的成長會受到成長環境的影響一樣,AI 系統的行爲模式也深受訓練數據的影響。這種影響既包括直接的語言表達方式和推理邏輯,也包括間接的知識結構形成和價值判斷。面對這一挑戰,企業一方面在數據源頭下功夫,構建多元化、高質量的訓練數據集;另一方面在算法層面創新,開發價值觀對齊技術,設計偏見檢測和糾正方法。
在安全訓練的具體方法和多重保障機制設計上,AI 的 " 三觀 " 同樣面臨着考驗。AI 在面對道德困境和複雜決策時,如何作出符合人類價值觀的選擇,是我們必須回答的問題。通過模拟訓練,我們可以在虛拟環境中讓 AI 經曆各種緊急情況,學習如何作出符合人類道德标準的決策。同時,倫理審查委員會的建立,可以爲 AI 的決策邏輯提供指導和監督。此外,提高 AI 決策的透明度和可解釋性,也是确保 AI" 三觀 " 正确的重要手段。
實踐證明,解決這些技術難題不能依靠單一手段,而需要系統性的方法論。
在推進這些技術創新的過程中,企業逐步形成了自己的最佳實踐。在這個過程中,如何在追求技術突破的同時守住倫理底線,如何在拓展能力邊界的同時堅守責任擔當,這些都需要整個行業的智慧和勇氣。
唯有如此,AI 才能真正成爲推動業務增長的核心引擎,爲企業和用戶創造持久的價值。