9 月 19 日,在 2024 杭州雲栖大會上,阿裏雲 CTO 周靖人表示,阿裏雲正在圍繞 AI 時代,樹立一個 AI 基礎設施的新标準,全面升級從服務器到計算、存儲、網絡、數據處理、模型訓練和推理平台的技術架構體系,讓數據中心成爲一台超級計算機,爲每個 AI 和應用提供高性能、高效的算力服務。
大會現場,通義大模型迎來了年度重磅發布。
基礎模型升級,性能媲美 GPT-4o,發布最強開源模型 Qwen2.5 系列,同時上架語言、音頻、視覺等 100 多款全模态模型,通義開源模型累計下載量已經突破 4000 萬,通義原生模型和衍生模型總數超過 5 萬,成爲僅次于美國 Llama 的世界級模型群。
打造最強 AI 基建
不同于傳統 IT 時代,AI 時代對基礎設施的性能、效率要求更高,CPU 主導的計算體系已快速向 GPU 主導的 AI 計算體系轉移。阿裏雲正以 AI 爲中心,全面重構底層硬件、計算、存儲、網絡、數據庫、大數據,并與 AI 場景有機适配、融合,加速模型的開發和應用,打造一個 AI 時代的最強 AI 基建。
周靖人表示:" 雲廠商擁有全棧技術儲備,并通過基礎設施的全面升級,讓 AI 訓練、推理、部署和應用整個生命周期變得更高效。"
大會現場,周靖人展示了 AI 驅動的阿裏雲全系列産品家族升級。最新上線的磐久 AI 服務器,支持單機 16 卡、顯存 1.5T,并提供 AI 算法預測 GPU 故障,準确率達 92%;阿裏雲 ACS 首次推出 GPU 容器算力,通過拓撲感知調度,實現計算親和度和性能的提升;爲 AI 設計的高性能網絡架構 HPN7.0,可穩定連接超過 10 萬個 GPU ,模型端到端訓練性能提升 10% 以上;阿裏雲 CPFS 文件存儲,數據吞吐 20TB/s,爲 AI 智算提供指數級擴展存儲能力;人工智能平台 PAI,已實現萬卡級别的訓練推理一體化彈性調度,AI 算力有效利用率超 90%。
過去兩年,模型的尺寸已增長數千倍,但模型的算力成本正在持續下降,企業使用模型的成本也越來越低。周靖人強調:" 這是 AI 基礎設施全面革新帶來的技術紅利,我們會持續投入先進 AI 基礎設施的建設,加速大模型走進千行百業。"
阿裏雲宣布通義千問三款主力模型再次大幅降價,最高降幅 85%,百萬 tokens 價格低至 0.3 元。過去半年,阿裏雲百煉平台持續降低大模型調用的門檻,進一步推動大模型的普惠。
據悉,中國一汽、聯想、微博、攜程、喜馬拉雅、三得利(中國)等 30 多萬企業客戶已經接入通義大模型;未來,生物醫藥、工業仿真、氣象預測、遊戲等行業還在加速擁抱大模型,将帶來新一輪的 AI 算力增長。
周靖人表示:" 爲應對 GPU 算力的指數級增長需求,尤其是即将爆發的推理市場,阿裏雲已經準備好了。"
開放最先進的大模型
過去一年,大模型技術實現了多個裏程碑式跨越,從大語言到視頻生成到多模态模型,大模型的能力邊仍在不斷擴展,在數學、代碼及推理等能力上持續攀升。
作爲業内最早布局大模型技術的科技公司之一,去年 4 月,阿裏雲發布首個大語言模型通義千問,如今通義大模型家族已全面涵蓋語言、圖像、視頻、音頻等全模态,性能均跻身世界第一梯隊,同時通義模型持續開源,已成爲最受企業和開發者歡迎的國産大模型。
大會現場,周靖人重磅宣布,通義旗艦模型 Qwen-Max 全方位升級,性能接近 GPT-4o;同時發布最強開源模型 Qwen2.5 系列,成爲僅次于美國 Llama 的世界級模型群,此次共開源 100 款模型,創造大模型開源史上之最,讓企業和開發者以低成本的方式用上大模型。
面向編程場景,阿裏雲通義靈碼再次升級,推出全新 AI 程序員,和上一代産品不同,它同時具備架構師、開發工程師、測試工程師等多種崗位技能,能自主完成任務分解、代碼編寫、缺陷修複、測試等開發開發工作,最快分鍾級完成應用開發,幫助軟件開發提效數十倍。
百模大戰一年後,應用成爲了大模型産業的主旋律。作爲最早提出模型即服務(MaaS)理念的企業,阿裏雲一直把大模型生态的繁榮作爲首要目标。目前,魔搭社區已成爲中國最大的模型社區,擁有超 690 萬開發者用戶,與行業合作夥伴合作貢獻了超 10000 款模型。
" 我們希望企業和開發者能以最低的成本做 AI、用 AI,讓所有人都能用上最先進的大模型。" 周靖人說。