訂閱
糾錯
加入自媒體

開源大模型迎來新選擇,字節(jié)跳動開源Seed-OSS系列模型

前言:

在大模型技術(shù)加速迭代的今天,開源生態(tài)正成為推動行業(yè)創(chuàng)新的核心力量。 

近日,字節(jié)跳動Seed團隊突然官宣開源Seed-OSS系列大語言模型,以360億參數(shù)的中等規(guī)模入局,卻憑借原生512K超長上下文、可編程[思考預(yù)算]等突破性技術(shù),在七項公開基準測試中刷新開源模型最優(yōu)成績。  

作者 | 方文三

圖片來源 |  網(wǎng) 絡(luò)  

超長上下文與可控推理的雙重突破 

Seed-OSS系列最引人矚目的兩大核心特性,徹底改變了開源大模型的能力邊界:原生512K超長上下文與可編程[思考預(yù)算]機制。

前者解決了信息處理的廣度問題,后者則實現(xiàn)了推理過程的精準控制。

原生512K上下文窗口是Seed-OSS的[撒手锏]。

這一能力并非通過后期外推或插值實現(xiàn),而是在預(yù)訓(xùn)練階段就直接構(gòu)建,能穩(wěn)定支持512K tokens的序列長度,相當(dāng)于一次性處理90萬個漢字,約等于《三體》三部曲全集的文本量。

這一容量是當(dāng)前主流開源模型(如DeepSeek V3.1)的4倍,能輕松應(yīng)對完整財報分析、長篇法律合同審查、大型代碼庫理解等專業(yè)場景。

在長文檔理解基準測試RULER-128K中,Seed-OSS-36B-Instruct以94.6分的成績遠超第二名Qwen3-32B的77.5分,領(lǐng)先優(yōu)勢達17.1個百分點。

這一數(shù)據(jù)印證了其超長上下文的實際效果。

在處理128K以上的真實長文檔任務(wù)時,模型能保持信息連貫性,避免因上下文截斷導(dǎo)致的關(guān)鍵信息丟失,這對需要深度挖掘長文本邏輯關(guān)系的場景至關(guān)重要。

[思考預(yù)算]機制則體現(xiàn)了Seed-OSS對推理過程的精細化控制能力。

用戶可通過[thinking_budget]參數(shù)限定模型的中間推理步數(shù),預(yù)算單位為tokens,推薦設(shè)置為512的整數(shù)倍(如0、512、1K、2K等)。

其底層通過動態(tài)規(guī)劃算法實現(xiàn),模型會在推理過程中實時評估剩余預(yù)算,并優(yōu)先分配資源到關(guān)鍵邏輯節(jié)點。

這種機制讓模型能根據(jù)任務(wù)難度動態(tài)調(diào)整推理策略:對于IFEval等簡單指令跟隨任務(wù),增加預(yù)算對性能影響不大,設(shè)置0預(yù)算(即時響應(yīng)模式)可實現(xiàn)快速響應(yīng)并降低成本;

而面對AIME24高難度數(shù)學(xué)推理或LiveCodeBench代碼生成任務(wù)時,預(yù)算從512提升到4K,準確率分別提高6.3%和4.7%。

例如在代碼生成中,更高預(yù)算會讓模型自動增加函數(shù)依賴關(guān)系驗證步驟,顯著提升代碼可靠性。

開源模型性能七項測試霸榜 

Seed-OSS-36B-Instruct在七項公開基準測試中均取得開源模型最優(yōu)成績,覆蓋通用知識、數(shù)學(xué)推理、代碼生成、長文檔理解等核心領(lǐng)域,用硬數(shù)據(jù)證明了其中等規(guī)模參數(shù)的強大實力。

在通用知識與多領(lǐng)域能力評估基準MMLU-Pro中,Seed-OSS-36B-Instruct得分82.7,比開源領(lǐng)域次優(yōu)模型Qwen3-30B-A3B高出0.8分。

這一成績表明,即使在不依賴超大規(guī)模參數(shù)的情況下,通過優(yōu)化訓(xùn)練數(shù)據(jù)與網(wǎng)絡(luò)結(jié)構(gòu),模型仍能在跨領(lǐng)域知識掌握上實現(xiàn)領(lǐng)先。

復(fù)雜數(shù)學(xué)推理是大模型的[試金石],Seed-OSS在AIME24基準中以91.7分領(lǐng)先Qwen3-30B-A3B 4.0分,展現(xiàn)出對高級數(shù)學(xué)問題的強處理能力。

這背后既有數(shù)據(jù)增強策略的功勞,也得益于[思考預(yù)算]機制提供的充足推理空間。

模型能在預(yù)算范圍內(nèi)完成公式推導(dǎo)、步驟分解和自我驗證,大幅降低計算錯誤率。

代碼生成領(lǐng)域,Seed-OSS-36B-Instruct在LiveCodeBench v6中得分67.4,比OAI-OSS-20B高出3.6分;

HumanEval通過率76.8%,MBPP達到80.6%,均刷新開源模型紀錄。

這與其時序數(shù)據(jù)增強策略密切相關(guān),通過學(xué)習(xí)Git提交記錄中的代碼演變過程,模型能更好地理解代碼邏輯與開發(fā)規(guī)范。

軟件工程任務(wù)評估基準SWE-Bench Verified中,模型得分56,比OpenHands高出1.2分,證明其在解決真實軟件工程問題上的實用性。

而在智能體任務(wù)基準AgentBench中,Seed-OSS同樣排名開源模型第一,驗證了其在多步驟交互、工具使用等復(fù)雜場景的適用性。

多語言能力上,Seed-OSS在涵蓋90種語言的XTREME評測中,平均得分比Llama 3-65B高4.3分,這得益于其155K子詞的多語言分詞器和跨語言對比學(xué)習(xí)策略。

邏輯推理方面,BBH基準得分87.7,超過Qwen3-30B-A3B的81.2分,展現(xiàn)出強大的邏輯鏈構(gòu)建能力。

更令人驚嘆的是,這些成績是在僅使用12T token訓(xùn)練數(shù)據(jù)的情況下取得的,相比之下,很多同規(guī)模模型的訓(xùn)練數(shù)據(jù)量都在15T以上。

這意味著Seed-OSS團隊通過更高效的訓(xùn)練策略和數(shù)據(jù)處理方法,實現(xiàn)了[少而精]的性能突破,為大模型訓(xùn)練的成本優(yōu)化提供了新思路。 

從網(wǎng)絡(luò)設(shè)計到訓(xùn)練策略的革新 

Seed-OSS系列的卓越性能并非偶然,而是建立在對大模型技術(shù)架構(gòu)的系統(tǒng)性優(yōu)化之上。

從網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計到訓(xùn)練策略選擇,每一處細節(jié)都體現(xiàn)了工程化與學(xué)術(shù)創(chuàng)新的深度結(jié)合。

在網(wǎng)絡(luò)結(jié)構(gòu)上,Seed-OSS-36B采用360億參數(shù)的稠密Transformer架構(gòu),包含64層網(wǎng)絡(luò)和5120的隱藏維度。

其核心創(chuàng)新在于注意力機制的設(shè)計,使用分組查詢注意力(GQA),設(shè)置80個查詢頭和8個鍵值頭。

與傳統(tǒng)多頭注意力相比,GQA通過讓多個查詢頭共享鍵值頭,在保持模型性能的同時,顯著降低了推理過程中的內(nèi)存占用和計算量。

這一優(yōu)化使單張80GB顯存顯卡就能運行半精度模型,大幅降低了部署成本。

位置編碼技術(shù)是支撐512K超長上下文的關(guān)鍵。Seed-OSS采用旋轉(zhuǎn)位置編碼(RoPE),但將基頻參數(shù)從常規(guī)的1×10提升至1×10。

這一看似簡單的調(diào)整,讓模型能更精準地捕捉長序列中的相對位置關(guān)系,從根本上解決了長文本處理中的上下文連續(xù)性問題。

在處理長達1600頁的合同文本時,Seed-OSS-36B-Instruct的上下文連續(xù)性錯誤率比同規(guī)模模型降低42%,這在法律文書審查、金融財報分析等專業(yè)場景中價值連城。

訓(xùn)練策略上,使用12T token的高質(zhì)量語料,經(jīng)過去重、毒性過濾和版權(quán)清洗三重處理,確保數(shù)據(jù)質(zhì)量。

訓(xùn)練框架結(jié)合PyTorch 2.3和Megatron-LM的混合并行技術(shù),動用1024張A100顯卡連續(xù)訓(xùn)練60天,在精度控制上采用bf16前向計算加fp32主權(quán)重,梯度裁剪設(shè)為1.0,學(xué)習(xí)率通過余弦退火降到1×10。

在多語言對齊方面,通過中文、英文語料的跨語言對比學(xué)習(xí),使MMLU-Pro的中英混合測試得分提升3.2分;

針對代碼生成任務(wù),利用Git提交記錄構(gòu)建時序訓(xùn)練數(shù)據(jù),將HumanEval得分提高2.1分;

在數(shù)學(xué)推理訓(xùn)練中,刻意混入15%的錯誤推導(dǎo)過程,迫使模型學(xué)會識別邏輯漏洞,最終使AIME24的準確率提升6.3%。

推理優(yōu)化方面,Seed-OSS支持4-bit和8-bit量化(包括GPTQ、AWQ兩種方式),并提供vLLM和Transformers雙后端推理腳本。

通過vLLM后端優(yōu)化,單卡80GB顯存可實現(xiàn)每秒32 token的生成速度,完全滿足直播字幕生成等實時場景需求。

而創(chuàng)新性的[思考預(yù)算]機制,則讓用戶能通過token級開關(guān)控制推理深度,實現(xiàn)性能與成本的靈活平衡。

Seed團隊此前已陸續(xù)開源Seed-Coder代碼生成模型、BAGEL多模態(tài)模型、Seed Diffusion語言模型等項目,加上此次的Seed-OSS系列,形成了覆蓋多領(lǐng)域的開源矩陣。

從技術(shù)趨勢看,Seed-OSS的成功驗證了兩大方向的價值。

①中等規(guī)模模型的精細化優(yōu)化,通過網(wǎng)絡(luò)結(jié)構(gòu)創(chuàng)新、訓(xùn)練策略改進和推理機制設(shè)計,360億參數(shù)模型能在特定場景媲美更大規(guī)模模型。

②[可控性]成為大模型實用化的核心指標,[思考預(yù)算]機制將性能與成本的調(diào)控權(quán)交還給用戶,這種[以人為本]的設(shè)計思路可能成為未來大模型的標配功能。

結(jié)尾: 

從可選項到標配,開源正在重塑大模型的競爭格局。Seed-OSS系列的出現(xiàn),不僅是一次技術(shù)突破,更是對行業(yè)創(chuàng)新模式的探索。

當(dāng)技術(shù)紅利通過開源惠及更多主體,當(dāng)創(chuàng)新成本因共享機制大幅降低,大模型的黃金時代才真正拉開序幕。

部分資料參考:

擬合論見:《36B模型卻能讀懂90萬字上下文?解密字節(jié)首個開源大語言模型》

量子位:《字節(jié)突然開源Seed-OSS,512K上下文碾壓主流4倍長度!推理能力刷新紀錄》

智東西:《字節(jié)首次開源推理模型,連奪7項第一》

       原文標題 : AI芯天下丨熱點丨開源大模型迎來新選擇,字節(jié)跳動開源Seed-OSS系列模型

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號