品玩 6 月 25 日訊,AI 創業公司 MosaicML 近日發布了其語言模型 MPT-30B,該模型具有 300 億參數,訓練成本 " 僅有其他同類競品模型的零頭 ",有望促進行業逐步降低此類模型訓練成本,擴大 AI 模型在更廣泛領域的運用。
MosaicML 公司的首席執行官兼聯合創始人 Naveen Rao 表示,MPT-30B 的訓練成本爲 70 萬美元(約 502.44 萬元人民币),遠低于 GPT-3 等同類産品所需的數千萬美元訓練成本。此外,由于 MPT-30B 的成本較低,體積較小,它也可以更快速地被訓練,并且更适合部署在本地硬件上。
MosaicML 公司表示,将模型擴展到 300 億參數隻是第一步,接下來他們将以降低成本爲前提,推出體積更大、質量更高的模型。