訂閱
糾錯
加入自媒體

深度丨國內(nèi)開源AI份額增至30%,中國思路改寫全球格局

前言

美國風投a16z與全球模型聚合平臺OpenRouter聯(lián)合發(fā)布的《State of AI》研究顯示,中國開源AI模型的周使用量占比已從2024年底的1.2%飆升至2025年后期的近30%,全球下載量正式超越美國。

100萬億Token的背后,是數(shù)千萬開發(fā)者的用腳投票,是從模式預(yù)測到機器思考的技術(shù)躍遷

圖片來源 |  網(wǎng) 絡(luò) 

圖片

中國開源AI的爆發(fā)式增長

2024年底,在OpenRouter平臺的全球流量池中,中國開源模型的身影幾乎可以忽略不計1.2%的周使用量占比,讓其只能徘徊在全球AI生態(tài)的邊緣。

彼時,行業(yè)共識依然是閉源模型定調(diào)技術(shù)上限,開源模型只是廉價平替,Meta的Llama系列、OpenAI的GPT家族牢牢掌控著話語權(quán)。

誰也沒有想到,這場力量對比的反轉(zhuǎn)會來得如此迅猛。

2025年,隨著DeepSeek V3、Qwen 3 Coder、Kimi K2等模型密集發(fā)布,中國開源AI開啟了指數(shù)級增長模式

每一次重要版本更新都伴隨著使用量的顯著躍升,且增長極具持續(xù)性,表明這些模型已深度融入真實生產(chǎn)工作流。

2025年后期,部分周度的使用量占比已逼近30%,全年平均份額穩(wěn)定在13%左右,與其他地區(qū)開源模型的平均份額基本持平。

更具里程碑意義的是,中國開源模型的全球下載量在2025年中完成了歷史性反超。

Hugging Face數(shù)據(jù)顯示,截至2025年8月,中國開源模型的累計下載量已超越美國。

僅阿里Qwen系列就貢獻了月度40%以上的新衍生模型,衍生模型總數(shù)突破18萬,遠超Meta Llama系列的15%占比。

DeepSeek模型更是以1.28萬次點贊成為Hugging Face平臺最受歡迎的開源模型,是Llama頭號模型點贊數(shù)的兩倍。

這場爆發(fā)式增長的背后,是中國開源生態(tài)從單點突破到集團軍作戰(zhàn)的進化。

2024年底,DeepSeek家族曾占據(jù)超50%的開源Token量,形成一家獨大的格局。

而到2025年底,市場已演變?yōu)槲鍙姞幇缘膽?zhàn)國時代,沒有任何單一開源模型能持續(xù)占據(jù)超過25%的市場份額

流量均勻分布在DeepSeek、Qwen、Kimi K2、MiniMax M2、GPT-OSS等五到七個主要競爭者之間。

這種健康的多元化態(tài)勢,既為開發(fā)者提供了更豐富的選擇,也迫使模型提供者通過持續(xù)創(chuàng)新維持競爭力,推動整個生態(tài)螺旋式上升。

圖片

中型模型崛起與推理能力革新

報告數(shù)據(jù)顯示,中國模型在核心技術(shù)維度實現(xiàn)了三大關(guān)鍵突破,徹底打破了開源模型性能不如閉源的刻板印象。

中型模型的崛起過去,開源模型市場呈現(xiàn)兩極分化,要么是參數(shù)少于150億的小型模型,雖輕便但能力有限;要么是參數(shù)超700億的大型模型,雖強大但成本高昂。

中國團隊率先找到了破局之道參數(shù)在150億到700億之間的中型模型,在能力與效率之間實現(xiàn)了最佳平衡。

2024年11月Qwen2.5-Coder-32B發(fā)布后,Mistral Small 3、GPT-OSS 20B等模型迅速跟進,共同催生了中型模型這一新興賽道。

這類模型足夠聰明,能處理復雜邏輯推理和代碼生成,又足夠輕盈,推理成本低廉,成為支撐100萬億Token處理量的中流砥柱。

圖片

推理范式革新2024年12月OpenAI發(fā)布o1模型,標志著AI從文本預(yù)測邁入機器思考時代,而中國開源模型快速跟進并實現(xiàn)超越。

DeepSeek R1、Qwen3等模型引入擴展的推理時計算過程,包含內(nèi)部多步思考、潛在規(guī)劃和迭代優(yōu)化,在數(shù)學推理、邏輯一致性和多步?jīng)Q策等方面實現(xiàn)系統(tǒng)性提升。

報告顯示,推理模型的Token處理量已占總量的50%,其中DeepSeek R1、Qwen3均躋身推理模型使用量前列。

而馬斯克xAI旗下的Grok Code Fast 1雖占據(jù)推理流量榜首,但中國模型的追趕速度讓行業(yè)矚目。

更關(guān)鍵的是成本效率的顛覆性突破,GPU資源受限的背景下,中國團隊通過極致優(yōu)化的數(shù)據(jù)處理、稀疏注意力等前沿架構(gòu),將大模型訓練成本壓縮至原來的10%。

Kimi K2為例,其256K上下文、200-300次工具調(diào)用的強大能力,訓練成本僅460萬美元,而美國同規(guī)模閉源模型的訓練成本預(yù)估高達3億美元。

DeepSeek-V3僅用2048個GPU在57天內(nèi)完成訓練,成本約557.6萬美元,僅為其他主流模型的1/10。

這種成本優(yōu)勢轉(zhuǎn)化為市場競爭力,中國開源模型的每百萬Token成本普遍低于0.4美元,而OpenAI的GPT-4/5高達35美元,Anthropic的Claude系列約2美元。

英偉達CEO黃仁勛直言,DeepSeek和Qwen是[開源AI模型之中最好的]。

Airbnb CEO布萊恩·切斯基公開表示,公司核心應(yīng)用大量依賴Qwen,其[OpenAI的產(chǎn)品更好更便宜]。

硅谷80%的初創(chuàng)公司選擇中國開源模型,只因每月1億Token的使用成本能從30萬美元暴跌至1400美元,成本優(yōu)勢直接決定了企業(yè)的生存能力。

圖片

編程與角色扮演的[雙引擎]驅(qū)動

100萬億Token的數(shù)據(jù)揭示了一個反直覺的真相,AI的核心價值不僅在于生產(chǎn)力提升,更在于情感連接與創(chuàng)造性表達。

編程與角色扮演兩大場景,共同構(gòu)成了中國開源AI的增長雙引擎,合計占據(jù)了大部分開源模型Token使用量。

編程場景的爆發(fā)式增長尤為引人注目,2025年編程相關(guān)的查詢量從年初占總Token量的11%攀升至年底的超過50%,成為第一大應(yīng)用場景。

這一趨勢背后是AI對開發(fā)工作流程的徹底重構(gòu),如今的編程任務(wù)不再局限于簡單的代碼補全,而是擴展到復雜的系統(tǒng)設(shè)計、調(diào)試優(yōu)化和多步驟問題解決。

中國開源模型在編程領(lǐng)域的表現(xiàn)尤為亮眼,Qwen3-Coder在多項國際編程測試中表現(xiàn)出色,甚至能與Anthropic的Claude系列掰手腕,迫使Claude在OpenRouter上的編程場景市場份額從7月的46%一個月內(nèi)降至32%。

DeepSeek、MiniMax等模型也在開源編程領(lǐng)域快速崛起,形成對西方模型的有力沖擊。

圖片

而在開源模型的使用中,角色扮演場景的占比更是高達52%,超過了編程場景,成為最受歡迎的應(yīng)用方向。

中國開源模型在這一領(lǐng)域占據(jù)絕對優(yōu)勢,DeepSeek的流量中,有驚人的三分之二來自角色扮演和休閑聊天。

對于海量C端用戶而言,AI首先是[情感投射對象],其次才是工具。

這種被主流敘事忽略的需求,在開源社區(qū)得到了充分釋放,形成了巨大的[供需真空]。

編程與角色扮演的雙輪驅(qū)動揭示了AI生態(tài)的多元性,閉源模型更像[穿著西裝的精英],專注于嚴肅的生產(chǎn)力場景。

而中國開源模型則兼具[工程師][游吟詩人]的雙重特質(zhì),既能夠高效處理代碼邏輯,又能靈活滿足情感與創(chuàng)意需求。

這種全場景覆蓋能力,讓中國開源模型獲得了更廣泛的用戶基礎(chǔ),也為生態(tài)增長提供了源源不斷的動力。

圖片

水晶鞋效應(yīng)與回旋鏢效應(yīng)

在模型迭代速度日新月異的AI行業(yè),吸引用戶不難,留住用戶才是真正的核心競爭力。

報告提出的[灰姑娘水晶鞋效應(yīng)]與中國模型獨有的[回旋鏢效應(yīng)],揭示了中國開源AI高粘性的底層邏輯。

[灰姑娘水晶鞋效應(yīng)]的核心是:當一個新模型恰好滿足了一類長期未被解決的高價值需求時,就會形成[完美契合],用戶會將其深度融入工作流和業(yè)務(wù)流程,形成強大的鎖定效應(yīng)。

即使后續(xù)出現(xiàn)更優(yōu)的替代方案,高昂的遷移成本也讓用戶難以割舍,中國模型精準把握了這一邏輯,契合了中小企業(yè)的降本需求

更具中國特色的是DeepSeek展現(xiàn)出的[回旋鏢效應(yīng)],部分用戶在嘗試其他模型后,會重新回歸DeepSeek。

這種現(xiàn)象背后,是中國模型在特定維度建立的難以替代的優(yōu)勢,可能是成本效率、特定領(lǐng)域的性能,或是對中文場景的深度適配。

用戶在探索其他選項后發(fā)現(xiàn),在角色扮演、中文編程、長文檔處理等場景中,中國模型依然是[無可替代的舊愛]

這種基于獨特體驗的留存,比單純依靠技術(shù)參數(shù)堆砌的競爭力更加堅固。

中國模型的高留存,還得益于對用戶行為變化的敏銳捕捉。

報告顯示,2025年用戶發(fā)送給AI的平均提示詞長度從1500個Token增長到6000多個,增長了近4倍。

AI的輸出內(nèi)容從平均150個Token增長到400個,增長了近3倍。

這一變化反映了AI角色從[助手][協(xié)作者]的轉(zhuǎn)變,而中國模型早早就布局了長上下文處理能力。

圖片

從硅谷主導到多極共生

中國開源AI的崛起,正在打破全球AI發(fā)展的[西方中心論],推動形成全球分布式創(chuàng)新的新格局。

報告數(shù)據(jù)顯示,亞洲在全球AI使用量中的份額已從約13%顯著提升至31%,北美份額則從50%以上首次跌破50%,標志著AI使用正從美國主導轉(zhuǎn)向全球共享。

全球企業(yè)對中國開源模型的接納,正在突破地緣的壁壘。

Airbnb的客服AI由13個模型組成,在很大程度上依賴阿里Qwen

硅谷初創(chuàng)公司紛紛將推理任務(wù)、RAG應(yīng)用遷移到Kimi K2。

Meta甚至在最新的[牛油果]模型訓練中,蒸餾了阿里Qwen的開源模型。

這種接納的背后,是商業(yè)邏輯的必然選擇,AI研發(fā)成本高企、商業(yè)化壓力增大的背景下,中國模型[又好又便宜]的優(yōu)勢幾乎無法抗拒。

對于中小企業(yè)和初創(chuàng)公司而言,中國開源模型的低成本意味著[活下去]的可能。

對于大型企業(yè)而言,中國模型的高適配性和靈活性能夠降低試錯成本、提升創(chuàng)新效率。

目前,在LMArena、Artificial Analysis等多個開源模型排行榜上,前10名幾乎全部來自中國團隊,中國已成為全球開源AI技術(shù)標準的重要制定者之一。

圖片

推理即服務(wù),生態(tài)定勝負

中國開源AI的成功,正是在于找到了自己的獨特定位,不是成為閉源模型的[平替],而是成為AI普及的[基礎(chǔ)設(shè)施],就像Linux、MySQL一樣,通過開放共享推動整個行業(yè)的進步。

中國開源AI正在通過技術(shù)普惠+生態(tài)共建的路徑,構(gòu)建一個全球性的開發(fā)者社區(qū)。

當大量開發(fā)者和企業(yè)基于中國開源框架構(gòu)建應(yīng)用時,其背后的工具鏈、評測基準、安全規(guī)范將潛移默化地成為全球產(chǎn)業(yè)的一部分。

部分資料參考:騰訊科技:《a16z 100萬億Token研究揭示的真相:中國力量重塑全球AI版圖》,算泥:《一百萬億Token里的AI現(xiàn)狀:OpenRouter和a16z重磅研究帶你透視AI江湖》,快刀青衣:《100萬億token背后六大洞察:效率與創(chuàng)意并重》,鳳凰網(wǎng)科技:《昔日開源霸主承認蒸餾阿里千問,世界進入中國AI時間》,紫金財經(jīng):《AI浪潮之下,國產(chǎn)大模型趕超了嗎?》,奇偶工作室:《80%美國小公司,都在使用中國開源模型!成本是生死線》

       原文標題 : 深度丨國內(nèi)開源AI份額增至30%,中國思路改寫全球格局

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號