國產 AI 最卷一夜!大模型黑馬 DeepSeek、Kimi 硬剛 OpenAI o1,實測體驗到底有多強
趕在放假前,支棱起來的國產 AI 大模型廠商井噴式發(fā)布了一大堆春節(jié)禮物。
前腳 DeepSeek-R1 正式發(fā)布,號稱性能對標 OpenAI o1 正式版,后腳 k1.5 新模型也正式登場,表示性能做到滿血版多模態(tài) o1 水平。
如果再加上此前強勢登場的智譜 GLM-Zero,階躍星辰推理模型 Step R-mini,星火深度推理模型 X1,年末上大分的國產大模型拉開了真刀真槍的帷幕,也給以 OpenAI 為代表的海外模型狠狠上了一波壓力。
- DeepSeek-R1 :在數(shù)學、代碼、自然語言推理等任務上,性能比肩 OpenAI o1 正式版
- 月之暗面 k1.5:數(shù)學、代碼、視覺多模態(tài)和通用能力全面超越 GPT-4o 和 Claude 3.5 Sonnet。
- 智譜 GLM-Zero:擅長處理數(shù)理邏輯、代碼和需要深度推理的復雜問題
- 階躍 Step-2 mini:極速響應,平均首字時延僅 0.17 秒,還有 Step-2 文學大師版
- 星火 X1:數(shù)學能力亮眼,有全面思考過程,拿捏小學、初中、高中、大學全學段數(shù)學
井噴不是偶然的爆發(fā),而是積蓄已久的力量,可以說,國產 AI 模型在春節(jié)前夕的突圍,將有望重新定義 AI 發(fā)展的世界坐標。
昨晚率先發(fā)布的 DeepSeek-R1 現(xiàn)在已經上架 DeepSeek 官網與 App,打開就能用。
9.8 和 9.11 哪個大以及 Strawberry 里有幾個 r 的難題在第一次測試中就順利過關,別看思維鏈略顯冗長,但正確答案事實勝于雄辯。
面對弱智吧難題「跳多高才能跳過手機上的廣告」的拷問, 響應速度極快的 DeepSeek-R1 不僅能夠避開語言陷阱,還提供了不少規(guī)避廣告的的建議,十分人性化。
幾年前,有一道名為「如果昨天是明天,今天就是星期五,實際今天是星期幾」的邏輯推理題走紅網絡,在面臨同樣問題的拷問后,OpenAI o1 給出的答案是周日,DeepSeek-R1 則是周三。
但就目前來看,至少 DeepSeek-R1 更靠近答案。
據(jù)介紹,DeepSeek-R1 在數(shù)學、代碼、自然語言推理等任務上,性能比肩 OpenAI o1 正式版,理論上更偏向于理科生。
正好趕上小紅書上中美兩國網友在友好交流數(shù)學作業(yè),我們也讓 DeepSeek-R1 幫忙解疑答惑。
插個冷知識,上回 DeepSeek 海外爆火時就有網友發(fā)現(xiàn),其實 DeepSeek 也支持圖片識別,我們可以直接讓模型分析美國網友上傳的試卷圖片。
攏共兩道題,第一道題選 C,第二道題選 A,并且,「自信滿滿」的 DeepSeek-R1 推測第二道題原題的選項中無 18,結合選項推測原題可能存在筆誤(如方程應為 r2=9cos?(2θ)r2=9cos(2θ))。
在隨后的線性代數(shù)證明題中,,DeepSeek-R1 提供的證明步驟邏輯嚴謹,同一道題目還提供了多種驗證方法,展現(xiàn)出深厚的數(shù)學功底。
始于性能,陷于成本,忠于開源。 DeepSeek-R1 正式發(fā)布之后,也同步開源模型權重。我宣布,來自中國東方的 DeepSeek 才是真正的 OpenAI。
據(jù)悉,DeepSeek-R1 遵循 MIT License,允許用戶通過蒸餾技術借助 R1 訓練其他模型。DeepSeek-R1 上線 API,對用戶開放思維鏈輸出,通過設置 model=’deepseek-reasoner’ 即可調用。
并且,DeepSeek-R1 訓練技術全部公開,論文鏈接指路?? https://github.com/deepseek-ai/DeepSeek-R1/blob/main/DeepSeek_R1.pdf
DeepSeek-R1 技術報告里提到一個值得關注的發(fā)現(xiàn),那就是 R1 zero 訓練過程里出現(xiàn)的「aha moment(頓悟時刻)」。
在模型的中期訓練階段,DeepSeek-R1-Zero 開始主動重新評估初始解題思路,并分配更多時間優(yōu)化策略(如多次嘗試不同解法)。換句話說,通過 RL 框架,AI 可能自發(fā)形成類人推理能力,甚至超越預設規(guī)則的限制。
并且這也將有望為開發(fā)更自主、自適應的 AI 模型提供方向,比如在復雜決策(醫(yī)療診斷、算法設計)中動態(tài)調整策略。正如報告所說,「這一時刻不僅是模型的『頓悟時刻』,也是研究人員觀察其行為時的『頓悟時刻』?!?/p>
除了主打的大模型,DeepSeek 的小模型同樣實力不俗。
DeepSeek 通過對 DeepSeek-R1-Zero 和 DeepSeek-R1 這兩個 660B 模型的蒸餾,開源了 6 個小模型。其中,32B 和 70B 型號在多個領域達到了 OpenAI o1-mini 的水準。
并且,僅 1.5B 參數(shù)大小的 DeepSeek-R1-Distill-Qwen-1.5B 在數(shù)學基準測試中超越了 GPT-4o 和 Claude-3.5-Sonnet,AIME 得分為 28.9%,MATH 得分為 83.9%。
HuggingFace鏈接:https://huggingface.co/deepseek-ai
在 API 服務定價方面,號稱 AI 屆拼多多的 DeepSeek 也采用了靈活的階梯定價:每百萬輸入 tokens 根據(jù)緩存情況收費 1-4 元,輸出 tokens 統(tǒng)一 16 元,再次大幅降低開發(fā)使用成本。
DeepSeek-R1 發(fā)布以后,也再次在海外 AI 圈引起轟動,收獲了大量「自來水」。其中,博主 Bindu Reddy 更是給 Deepseek 冠上了開源 AGI 和文明的未來之稱。
出色的評價源于模型在網友的實際應用中出色的表現(xiàn)。從 30 秒詳細闡釋勾股定理,到 9 分鐘深入淺出地講解量子電動力學原理并提供可視化呈現(xiàn)。DeepSeek-R1 沒有任何差錯。
甚至也有網友特別欣賞 DeepSeek-R1 所展示的思維鏈,認為「像極了人類的內心獨白,既專業(yè)又可愛」。
英偉達高級研究科學家 Jim Fan 對 DeepSeek-R1 給予了高度評價。他指出這代表著非美國公司正在踐行 OpenAI 最初的開放使命,通過公開原始算法和學習曲線等方式實現(xiàn)影響力,順便還內涵了一波 OpenAI。
DeepSeek-R1 不僅開源了一系列模型,還披露了所有訓練秘密。它們可能是首個展示 RL 飛輪重大且持續(xù)增長的開源項目。
影響力既可以通過『ASI 內部實現(xiàn)』或『草莓計劃』等傳說般的項目實現(xiàn),也可以簡單地通過公開原始算法和 matplotlib 學習曲線來達成。
在深入研究論文后,Jim Fan 特別強調了幾個關鍵發(fā)現(xiàn):
完全由強化學習驅動,沒有任何 SFT(監(jiān)督微調)。讓人聯(lián)想到 AlphaZero——從零開始掌握圍棋、將棋和國際象棋,而不是先模仿人類大師的棋步。這是論文中最關鍵的發(fā)現(xiàn)。 使用硬編碼規(guī)則計算的真實獎勵。
避免使用強化學習容易破解的學習獎勵模型。 隨著訓練進展,模型的思考時間逐步增加——這不是預先編寫的程序,而是一種涌現(xiàn)特性! 自我反思和探索行為的涌現(xiàn)。
GRPO 替代了 PPO:它移除了 PPO 的評論網絡,改用多個樣本的平均獎勵。這是一種減少內存使用的簡單方法。需要注意的是,GRPO 是作者團隊提出的一種創(chuàng)新方法。
整體來看,這項工作展示了強化學習在大規(guī)模場景中實際應用的開創(chuàng)性潛力,并證明某些復雜行為可以通過更簡單的算法結構實現(xiàn),而無需進行繁瑣的調整或人工干預。
一圖勝千言,更明顯的對比如下:
就這樣,DeepSeek 再次在海內外完成二次爆火,不僅是一次技術突破,更是中國乃至世界的開源精神的勝利,也因此收獲了不少海外忠實擁躉。
同一天上線的還有 Kimi v1.5 多模態(tài)思考模型。
自去年 11 月 Kimi 推出 k0-math 數(shù)學模型,12 月發(fā)布 k1 視覺思考模型以來,這是第三次 K 系列的重要上新。
在短思考模式(short-CoT)的較量中,Kimi k1.5 展現(xiàn)出壓倒性優(yōu)勢,其數(shù)學、代碼、視覺多模態(tài)和通用能力全面超越了行業(yè)翹楚 GPT-4o 和 Claude 3.5 Sonnet。
在長思考模式(long-CoT)的競爭中,Kimi k1.5 的代碼和多模態(tài)推理能力已經比肩 OpenAI o1 正式版,成為全球范圍內首個在 OpenAI 之外實現(xiàn) o1 級別多模態(tài)推理性能的模型。
伴隨著模型的重磅發(fā)布,Kimi 還首次公開了完整的模型訓練技術報告。
GitHub 鏈接:https://github.com/MoonshotAI/kimi-k1.5
據(jù)官方介紹,k1.5 模型的核心技術突破主要體現(xiàn)在四個關鍵維度:
- 長上下文擴展。我們將 RL 的上下文窗口擴展到 128k,并觀察到隨著上下文長度的增加,性能持續(xù)提升。我們的方法背后的一個關鍵思想是,使用部分展開(partial rollouts)來提高訓練效率——即通過重用大量先前的軌跡來采樣新的軌跡,避免了從頭開始重新生成新軌跡的成本。我們的觀察表明,上下文長度是通過 LLMs 持續(xù)擴展RL的一個關鍵維度。
- 改進的策略優(yōu)化。我們推導出了long-CoT的 RL 公式,并采用在線鏡像下降的變體進行穩(wěn)健的策略優(yōu)化。該算法通過我們的有效采樣策略、長度懲罰和數(shù)據(jù)配方的優(yōu)化進一步得到改進。
- 簡潔的框架。長上下文擴展與改進的策略優(yōu)化方法相結合,為通過LLMs學習建立了一個簡潔的RL框架。由于我們能夠擴展上下文長度,學習到的 CoTs 表現(xiàn)出規(guī)劃、反思和修正的特性。增加上下文長度的效果是增加了搜索步驟的數(shù)量。因此,我們展示了可以在不依賴更復雜技術(如蒙特卡洛樹搜索、價值函數(shù)和過程獎勵模型)的情況下實現(xiàn)強大的性能。
- 多模態(tài)能力。我們的模型在文本和視覺數(shù)據(jù)上聯(lián)合訓練,具有聯(lián)合推理兩種模態(tài)的能力。該模型數(shù)學能力出眾,但由于主要支持LaTeX等格式的文本輸入,依賴圖形理解能力的部分幾何圖形題則難以應對。
k1.5 多模態(tài)思考模型的預覽版將陸續(xù)灰度上線官網和官方 App。值得一提的是,k1.5 的發(fā)布同樣在海外引起了巨大的反響。有網友對這個模型不吝贊美之詞,讓海外見證了中國 AI 實力的崛起。
實際上,年末國內推理模型的密集發(fā)布絕非偶然,這是 OpenAI 去年 10 月發(fā)布 o1 模型在全球 AI 領域掀起的漣漪終于傳導至中國的顯著標志。短短數(shù)月從追趕到比肩,國產大模型用行動證明了中國速度。
菲爾茲獎得主、數(shù)學天才陶哲軒曾認為這類推理模型或許只需再經過一兩輪迭代與能力提升,就能達到「合格研究生」的水準。而 AI 發(fā)展的遠景遠不止于此。
當前,我們正見證著 AI 智能體一個關鍵的轉型時刻。從單純的「知識增強」向「執(zhí)行增強」跨越,開始主動參與決策制定和任務執(zhí)行的過程。與此同時,AI 也在突破單一模態(tài)的限制,向著多模態(tài)融合的方向快速演進。當執(zhí)行遇上思考,AI才真正具備了改變世界的力量。
基于此,像人一樣思考的模型正在為 AI 的實際落地開辟更多可能性。
表面上看,年末這波國內推理模型的密集涌現(xiàn),表面上看或許帶有「中國式跟隨者創(chuàng)新」的影子,但深入觀察就會發(fā)現(xiàn),無論是在開源策略的深度,還是在技術細節(jié)的精確度上,中國廠商依然走出了一條獨具特色的發(fā)展道路。
還沒有評論,來說兩句吧...