文|周愚
編輯|鄧詠儀 尚恩
ChatGPT 又立大功了!
據外媒報道,一位母親考特尼病急亂投醫,向 ChatGPT 分享了兒子亞曆克斯症狀的有關信息後,意外之喜出現了——ChatGPT 精準地發現孩子可能罹患脊髓栓系綜合征。
而在這之前,考特尼已經帶着亞曆克斯四處求醫三年,陸續問診了 17 名醫生,他們分别來自牙科、兒科、耳鼻喉、成人内科、肌肉骨骼等各個科室,卻始終查不出孩子的病因。
亞曆克斯。圖源:today.com
事情要從 2020 年新冠疫情封鎖期間說起,當時 4 歲的亞曆克斯收到了母親送的跳跳屋玩具,誰也沒有想到這會開啓他三年飽受病痛折磨的日子。
起初,亞曆克斯隻是不停地磨牙,而後考特尼又逐漸發現孩子的發育速度明顯減緩,甚至出現左右腳不平衡的情況—— " 他會先用右腳向前走,然後拖着左腳往前。"
與此同時,亞曆克斯還開始遭受愈發嚴重的頭痛,這讓亞曆克斯每天不得不以服用布洛芬爲生。
" 我們看了這麽多的醫生,一度長時間待在急診室裏。我一直在努力。我幾乎(在電腦上)浏覽了一整夜,經曆了這所有事情。" 當 ChatGPT 給出診斷意見後,這位母親接受媒體采訪時的感動、喜悅溢于言表。
原來,在許多脊柱裂患兒中,孩子的背部都有一個可見的開口。然而,亞曆克斯所患的卻是隐匿性脊柱裂,封閉而難以發現。這也是爲什麽之前的 17 位醫生,無一人發現。
報道一出,網友們便開始紛紛熱議,大部分網友喜聞樂見大模型在醫療領域的這種應用:" 無法負擔醫療費用和在貧困國家的人們将會大大受益于此。"
圖源:X(推特)
更有網友補充道,意義不止于此——這對罕見病、疑難雜症很有幫助。
當然,一些網友謹慎的質疑也不無道理:" 如果沒有人類專家的交叉确認,我們要如何确定 ChatGPT 的診斷是正确的?"
不過,用大模型看病早已不是什麽個例。今年以來,大語言模型的概念持續走高,國内外科技巨頭們也紛紛将大模型運用于 "AI+ 醫療 " 之中。
" 百模大戰 " 之下,醫療大模型也正熱鬧。
科技巨頭湧入醫療大模型
這無疑是振奮人心的消息。此前的 "AI+ 醫療 " 大多落地在醫療影像領域,但随着大語言模型的技術突破,臨床中産生的巨量繁雜的醫療數據也有了用武之地。ChatGPT 等大模型擁有更全面的知識體系,可以幫助發現許多人類醫生忽略的細節。
據不完全統計,國内外如谷歌、英偉達、亞馬遜、騰訊、百度、京東等科技巨頭,都已經率先開始了醫療大模型的布局。
據悉,今年 4 月以來,谷歌就已經開始在美國一些頂尖私立醫院實測其第二代醫療大模型—— Med-PaLM 2。該模型由 DeepMind 的醫療健康團隊,基于 PaLM 2 微調得來,使用者可以直接輸入一張 X 光片,Med-PaLM 2 就會對患者的病情進行診斷和分析。
圖源:Google Research
與此同時,該模型也成爲了在美國醫療執照考試中達到專家水平的首個大模型。根據一份内部郵件,谷歌認爲 Med-PaLM 2 在 " 就醫渠道較爲有限 " 的國家尤其有用。
谷歌官網介紹,在一組對照實驗中,Med-PaLM 2 的答案甚至在九項指标中的八項都要優于醫生給出的答案。
另外,英偉達早在 2021 年就開始與 Schrodinger 戰略合作,試圖提升其計算平台的速度和精确度,加速開發新的治療方法。2 個月前,英偉達又投資 5000 萬美元,推進生物和化學領域 AI 基礎模型的開發訓練。
放眼國内,醫療大模型的商業化探索也正如火如荼地展開。
9 月 8 日,騰訊健康對外公布了其醫療大模型,産品矩陣包括智能問答、家庭醫生助手、數智醫療影像平台等多個應用場景 AI 産品矩陣。而早在 2020 年 7 月,騰訊自主研發的首個 AI 驅動的藥物發現平台雲深智藥(iDrug)就正式對外發布。
圖源:騰訊 AI Lab-iDrug
今年 7 月,科大訊飛、京東等公司也動作頻頻。科大訊飛表示," 訊飛醫療 " 基于星火認知大模型,全面升級了醫療診後康複管理平台,要将 " 專業的診後管理和康複指導延伸到院外 "。
京東健康也于 7 月 13 日,對外發布了 " 京醫千詢 " 醫療大模型,爲遠程醫療服務提供技術底座。
縱觀各家企業的醫療大模型布局,我們也不難發現,大模型已經深入了醫療領域的各個角落,除了 AI 問診,大模型在醫療影像、臨床決策輔助、醫院管理、藥物研發等不同應用場景還有 " 一百種可能 "。
大模型的出現,似乎也成爲了某些 "AI+ 醫療 " 應用場景的救命稻草。
當國内 AI 制藥融資金額在 2022 年腰斬,财報開始露出難色時,ChatGPT 爲代表的大模型,似乎又給這個行業帶來了新的躁動,智能湧現此前也對 AI 制藥有過分析。
AI 幻覺、數據隐私,還是老大難
一面是頭部公司積極布局,開始商業化探索;但另一面,以世界衛生組織爲代表的許多社會組織和個人,也在積極呼籲,對 AI 醫療服務采取 " 非常謹慎 " 的态度。
今年 5 月,世界衛生組織就在聲明中強調:" 倉促采用未經檢驗的 AI 系統可能會導緻醫務人員的錯誤,對患者造成傷害,損害人們對人工智能的信任,進而可能影響(或延遲)AI 技術在全球的長期惠益何應用。"
圖源:世衛組織
對于大模型在醫療領域的質疑,首先是可靠性的問題。任何醫療行爲都直接關乎于人的生命安全,因此必須确保 AI 所提供的信息是準确且安全的,容錯率更低。
然而,截止目前,AI 顯然做不到這一點。在與 ChatGPT 等大模型交流時,AI 幻覺仍然時有發生。例如,在向 ChatGPT 提問有關流感的問題時,它可能會給出幾篇标題聽起來真實,但實際并不存在的論文。
這顯然是不可接受的。畢竟,誰也不想過去的 " 網上問病,癌症起步 " 再次上演。盡管 ChatGPT 等大模型擁有巨量的知識,可能不像人類醫生一樣存在盲點,但目前來看,大模型也隻能成爲醫生和臨床診斷的助手,而不是替代醫生。
美國醫學協會主席傑西 · 埃倫菲爾德在回應媒體采訪時,就強調說:" 正如我們要求證明新藥和生物制劑是安全有效的一樣,我們也必須确保 AI 醫療保健應用的安全性和有效性。"
除此之外,由于醫療信息自身的敏感性,數據安全與隐私這個老問題,醫療大模型依然逃不開。
有别于通用大模型基于海量互聯網來訓練的方式,醫療大模型所需的數據大多是私有且涉及個人隐私的。
要想保障訓練數據安全,目前主要的應對方法是通過技術手段進行加密處理,将醫療數據加密處理後上傳大模型,再将結果解密傳回。
但這也有個問題,就是如果管理規範不完善,也可能導緻加密數據被非法使用或洩露。