5天時間,謹慎三家中國AI企業接連發布了三款對標OpenAI o1系列的看待大模型。
1月20日,中國正超開年出圈的越美“東方神秘力量”DeepSeek(深度求索)發布推理模型DeepSeek-R1,在后訓練階段大規模使用了強化學習技術,謹慎在僅有極少標注數據的看待情況下,極大提升了模型的中國正超推理能力,使得它在數學、越美代碼、謹慎自然語言推理等任務性能上比肩OpenAI o1正式版,看待后者為OpenAI在2024年12月上線的中國正超推理模型。
與o1相比,越美R1的謹慎最大優勢之一在于高性價比——API服務定價為每百萬輸入tokens 1元(緩存命中)/ 4元(緩存未命中)、每百萬輸出tokens 16元,看待遠低于o1每百萬輸入tokens 15美元(約合人民幣110元)、中國正超每百萬輸出tokens 60美元(約合人民幣437元)。也就是說,R1的價格約為o1的三十分之一。
更令外界興奮的是,DeepSeek同步了開源模型權重,允許用戶通過R1輸出、蒸餾等方式訓練其他模型;而o1并未開源,基本處于“黑匣子”狀態。
1月21日,另一家中國大模型明星企業月之暗面推出了Kimi k1.5多模態思考模型。在long-CoT長思考模式下,k1.5的數學、代碼、多模態推理能力達到OpenAI o1正式版水平;在short-CoT短思考模式下,k1.5的數學、代碼、視覺多模態和通用能力,超越了OpenAI GPT-4o和Anthropic Claude 3.5 Sonnet。
Kimi k1.5尚未開源,但首次分享了詳細的技術報告,其中關鍵就是利用強化學習(RL)增強其推理能力:長上下文擴展和改進的策略優化建立了簡單、有效的RL框架,無需依賴蒙特卡洛樹搜索(MCTS)、價值函數和過程獎勵模型(PRM)等復雜技術。
英偉達高級研究科學家吉姆·范(Jim Fan)指出,DeepSeek和Kimi都簡化了RL框架,例如繞過MCTS,只需通過線性化思維軌跡,然后進行傳統自回歸預測;盡可能依賴事實和最終結果,而不是密集獎勵建模。
1月24日,中國AI企業百川智能的全場景深度思考模型Baichuan-M1-preview正式上線,測試結果顯示,它在數學、代碼等多個權威評測中的表現超越了2024年9月發布的OpenAI o1-preview(預覽版)。
除了推理能力,M1-preview還解鎖了“醫療循證模式”,能精準回答醫療臨床、科研問題,幫助用戶做出醫療決
copyright © 2016 powered by 上海昊昌機電設備有限公司 sitemap