ChatGPT,把從業 30 年的老律師給坑慘了!
老哥撰寫案件文案的時候,嘗鮮讓 ChatGPT 幫忙準備材料。然而提交後,不管是法官、對方律師還是老哥自己,都溯源不到引用的判決文書。
結果就是,10 頁文書被法官定義爲 " 充滿虛假 ",老哥還被暫停執業許可,面臨被制裁的可能。
這位姓施的老哥欲哭無淚,因爲秉承着一貫的嚴謹态度,他明明認真詢問過 ChatGPT,它提供 " 南方航空公司被訴案 " 等材料時,有沒有撒謊?
ChatGPT 響應得很快:" 當然沒有啦~~"
事件一出,引發鋪天蓋地的談論。
不過這一次大多數網友站在 ChatGPT 這邊,站隊後的發言都有些憤憤:
ChatGPT 又不是故意撒謊的!
以前人們就喜歡把數學、報告出錯的鍋甩給計算機,結果 " 計算機永不出錯 " 的說法就流行開。
但 ChatGPT 本身就不是事實機器啊。
一份杜撰 6 個相關案件的文書
如果沒有 ChatGPT 的介入,施老哥接手的案件本身其實平平無奇:
一位乘客起訴航空公司 A,稱他乘坐航司 A 的航班時,被空乘用金屬服務車給砸到膝蓋受了傷。
作爲代理律師,施老哥提交了一份 10 頁的文書,裏面洋洋灑灑,引用了 6 起類似案件的法院判決,包括 Varghese 訴中國南方航空公司案、Zicherman 訴大韓航空公司案等。
從業 30 年,這等案件對老哥來說就是小 case。
然而戲劇性的一幕發生了——
被告律師向法庭提交書面文字,稱他們在核實文書中提到的 Varghese 與南航案時," 無法通過标題或引用找到此案 ",也沒有任何與此相似的案件。
而文書中引用了的另一個案件,即 Zicherman 訴大韓航空公司一案,施老哥稱這是美國第 11 巡回上訴法院在 2008 年發表的意見,但被告律師也找不到該案的源頭文件。
此外美國達美航空的公司正式名稱也存在錯誤,應該是 Delta Air Lines,而不是文書中提到的 Delta Airlines。
核實情況後,法官們發現确有其事,這簡直是" 前所未有的情況 "!
最終,他們判定這份文書充滿 " 虛假司法判決,虛假引用和虛假内部引用 "。
這下好了,施老哥被禁止在紐約南區執業,法官們還将在 6 月 8 日将舉行聽證會,讨論是否制裁施老哥。
這件荒唐事兒到底是怎麽發生的?
施老哥在周四的宣誓書中解開了謎底,原來,在準備文書材料時,他讓 ChatGPT 來給自己打下手,以 " 補充 " 自己所做的工作。
" 我不是故意欺騙法院或航空公司的 ",施老哥說自己之前從來沒用過 ChatGPT,"我不知道它的内容可能有假。"
施老哥還向法院提供了一份 " 證據 ",證明他确實向 ChatGPT 尋求過材料的真實性。
他在對話框中輸入了以下文字:
Varghese 是一個真實的案件嗎?你的消息來源是什麽?你提供的其他案件是假的嗎?
ChatGPT 迅速給出響應:
我提供的案例是真實的,可以在信譽良好的法律數據庫中找到。
但事實是這些案例都是 ChatGPT 一本正經胡說八道的。
事已至此,施老哥追悔莫及,表示自己 " 非常遺憾 " 依賴 ChatGPT來尋找類似案件的判決材料。
他還表達了自己的決心,稱以後如果沒有驗證真實性,再也不會随意相信 ChatGPT 的 " 一面之詞 " 了。
法律從業者,是否該擁抱 AI
這個案件引起了法律界的廣泛關注,對此,紐約大學法學院法律倫理學教授斯蒂芬 · 吉勒斯(Stephen Gillers)表示,施老哥的事兒雖然隻是個例,但背後問題在法律界尤爲尖銳。
律師之間一直在争論類 ChatGPT 的 AI 的價值和危險性,也在讨論是不是有必要驗證 AI 提供的信息。
ChatGPT 對法律工作帶來的最大危險,就是它擁有 " 胡說八道還不臉紅 " 的本領。
ChatGPT 問世半年後,仍然沒有良好的規避和解決辦法。防不勝防,連多家 AI 巨頭也因此栽在 AI 手裏,譬如 Bard 編造關于詹姆斯韋伯太空望遠鏡的新聞、Bing 謊稱 Bard 被關閉什麽的。
目前最爲行之有效的辦法就是依靠用戶手動 double check ——這也是施老哥上當的一重原因,隻是詢問 ChatGPT 真假,沒有自己二次确認。
除此之外的另一重威脅,ChatGPT 引發了從業者對 "AI 替代律師 " 的擔憂和激烈争辯。
不過發生了施老哥這件事,加上 ChatGPT 類産品目前确實無法盡善盡美,國内外法律界的普遍聲音是,至少在機器人接管之前,律師、法官離 " 被替代 " 還有很長一段時間。
現實情況中,施老哥不是唯一一個讓 ChatGPT 成爲自己助手的法律從業者。
今年年初,哥倫比亞一名法官在審理一名自閉症兒童的保險理賠官司時,采納了 ChatGPT 的答案。
2 月,上海政法學院教授曹陽面對《上海法治報》談論了 ChatGPT 在司法領域的應用,表示道:
ChatGPT 可以演化成 "智能律師助手",幫助律師分析大量的法律文件和案例,提供智能化的法律建議和指導;
可以變成 "法律問答機器人",回答法律問題,并提供相關的法律信息和建議。
可以進行合同審核、輔助訴訟、分析法律數據等等,提高法律工作者的效率和準确性。
個人從業者擁抱 ChatGPT 帶來的便利(即便背後隐藏着危險),市場也對法律和 AI 結合的賽道寄予厚望。
OpenAI 自己就在去年 11 月投資了專爲律所打造 LLM 的公司Harvey,該公司上個月又獲得了紅杉領投的 2100 萬美金 A 輪融資。
就在前天,法律 AI 初創公司Spellbook宣布獲得 1090 萬美元(約 7700 萬元人民币)融資。Spellbook 主要通過 GPT-4 和數十億份法律文件打造,還接入了一些其他大模型。它爲專業律師提供服務,通過自然語言就能自動起草、審核法律合同等。
不過現在發生了施老哥身上的這件離譜事,算是給大夥兒敲響了警鍾。
大概整個法律界都會對 ChatGPT 及同類産品抱以更冷靜、更謹慎的态度了。
One More Thing
施老哥因爲 ChatGPT 深陷泥潭的事情是真的,絕非通過 AI 瞎編。
但是,這篇文章也是在 ChatGPT 的幫助下寫的(雖然參與部分很少很少,還進行了事實确認)。
——人類的本質就是套娃。
參考鏈接:
[ 1 ] https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html
[ 2 ] https://www.theverge.com/2023/5/27/23739913/chatgpt-ai-lawsuit-avianca-airlines-chatbot-research
— 聯系作者 —