訂閱
糾錯
加入自媒體

美團最新推理模型來了:專注 Thinking,具備 SOTA 水準

今日,美團發(fā)布了最新推理模型 LongCat-Flash-Thinking。

該模型是國內首個同時具備「深度思考 + 工具調用」「非形式化 + 形式化」推理能力相結合的大語言模型。模型總參數達 5600 億個,采用創(chuàng)新的混合專家 (MoE) 架構,可根據上下文需求激活 18.6B~31.3B 個參數(平均 ~27B),優(yōu)化計算效率和性能。

聲明: 本網站所刊載信息,不代表OFweek觀點?帽菊靖寮,務經書面授權。未經授權禁止轉載、摘編、復制、翻譯及建立鏡像,違者將依法追究法律責任。

發(fā)表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關注公眾號
    OFweek人工智能網
    獲取更多精彩內容
    文章糾錯
    x
    *文字標題:
    *糾錯內容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網安備 44030502002758號