OpenAI 公司通過論文介紹了一種全新的方法,來訓練生成式人工智能語言模型。
OpenAI 這一研究成果來得很是時候,最近,随着生成式人工智能技術流行,以及美國 2024 年總統大選初步啓動,人工智能 " 胡說八道 " 的問題引發了史無前例的關注和讨論。
人工智能 " 胡說八道 ",術語上也被稱爲 "AI 幻覺 "。面對用戶的提問,chatgpt以及谷歌的 Bard 等工具會杜撰出一些虛假信息,看上去像是權威正确的答案。
OpenAI 公司 " 随機生成數學 " 研究專家卡爾 · 柯比(Karl Cobbe)表示,發現并且減少人工智能模型的邏輯錯誤,也就是 "AI 幻覺 ",是構建 " 通用人工智能 " 的關鍵一步。另外," 過程監督 " 模式并非OpenAI公司發明,但是該公司正在加以推廣普及。新方法的目的,是解決人工智能胡編問題,從而讓語言模型能夠解決更加複雜的推理難題。