當(dāng)前位置:

OFweek 人工智能網(wǎng)

評(píng)測(cè)

真“六邊形戰(zhàn)士”!Capybara把圖像視頻全打通:一個(gè)模型搞定T2I、T2V、I2V!

作者:Capybara 團(tuán)隊(duì) 解讀:AI生成未來(lái) 亮點(diǎn)直擊 統(tǒng)一的視覺(jué)創(chuàng)作模型 Capybara: 針對(duì)當(dāng)前視覺(jué)內(nèi)容創(chuàng)作領(lǐng)域高度碎片化(單一模態(tài)、功能割裂、接口不兼容)的問(wèn)題,本文提出了Capybar

2026-03-16 16:20 評(píng)論

大廠“龍蝦”vs開源“澳龍”,2026 claw橫評(píng)

2026年3月,一只紅色的“龍蝦”爬上了開源世界的王座。OpenClaw憑借27.3萬(wàn)的GitHub星標(biāo),超越了Linux——英偉達(dá)CEO黃仁勛更是將其譽(yù)為“我們這個(gè)時(shí)代最重要的軟件發(fā)布”。 它標(biāo)志著

2026-03-16 10:41 評(píng)論

4B參數(shù)干翻14B!國(guó)產(chǎn)統(tǒng)一多模態(tài)“全能戰(zhàn)士” InternVL-U開源:理解、生成與編輯迎新高度

作者:Changyao Tian等 解讀:AI生成未來(lái) InternVL-U生成和圖像編輯效果 亮點(diǎn)直擊 InternVL-U 架構(gòu):構(gòu)建了一個(gè)僅有 4B 參數(shù)的輕量級(jí)、高效統(tǒng)一多模態(tài)模型(UMM),

2026-03-13 14:33 評(píng)論

圖像生成迎來(lái)“思考-研究-創(chuàng)造”新范式!Mind-Brush:統(tǒng)一意圖分析、多模態(tài)搜索和知識(shí)推理

作者:Jun He,Junyan Ye等 解讀:AI生成未來(lái) 亮點(diǎn)直擊 Mind-Brush,一個(gè)新穎的智能體框架,該框架統(tǒng)一了意圖分析、多模態(tài)搜索和知識(shí)推理,以實(shí)現(xiàn)圖像生成的“思考-研究-創(chuàng)造”范式

2026-03-12 13:56 評(píng)論

Openclaw部署實(shí)錄:安裝易翻車、本地模型弱,本地「龍蝦」不適合普通人

有的錢可不是那么好省的。 這段時(shí)間,如果你關(guān)注AI圈子,一定會(huì)被一個(gè)名字給刷屏——Openclaw。 (圖源:百度) 上到GITHUB這個(gè)最大的開源社區(qū),中到各種媒體爭(zhēng)相轉(zhuǎn)發(fā),下到各個(gè)up主甚至普通人

2026-03-10 15:58 評(píng)論

ICLR 2026 | DragFlow 讓DiT也能“指哪打哪”:基于區(qū)域監(jiān)督的拖拽式圖像編輯新SOTA

作者:Zihan Zhou,Shilin Lu等 解讀:AI生成未來(lái) 亮點(diǎn)直擊 首個(gè)基于 Diffusion Transformer(DiT)架構(gòu)量身打造的圖像精確區(qū)域編輯框架。 研究團(tuán)隊(duì)摒棄了傳統(tǒng)的

2026-03-09 17:19 評(píng)論

CVPR 2026|“像素級(jí)對(duì)齊大師” VA-π: 25分鐘微調(diào)FID暴降50%

作者:Xinyao Liao*, Qiyuan He*, Kai Xu, Xiaoye Qu, Yicong Li, Wei Wei, Angela Yao 作者單位:華中科技大學(xué),新加坡國(guó)立大學(xué)解讀

2026-03-03 17:13 評(píng)論

CVPR 2026|“全能AI海報(bào)設(shè)計(jì)師”PosterOmni開源: 6大任務(wù)笑傲開源社區(qū),媲美閉源商用

作者:Sixiang Chen等 解讀:AI生成未來(lái) 很多AI 海報(bào)生成默認(rèn)從一句 prompt 出發(fā)(Text-to-Poster)。但在真實(shí)設(shè)計(jì)流程里,更常見的起點(diǎn)其實(shí)是一張參考圖/舊海報(bào)/產(chǎn)品主

2026-02-26 15:04 評(píng)論

NeurIPS`25 | 清華提出模型驅(qū)動(dòng)的生成式探索機(jī)制MoGE,助力強(qiáng)化學(xué)習(xí)算法突破性能上限

作者:Likun Wang等 解讀:AI生成未來(lái) 本文介紹清華大學(xué)李升波教授課題組(iDLab)在NeurIPS 2025發(fā)表的《Off-policy Reinforcement Learning w

2026-02-25 16:32 評(píng)論

顛覆性突破!何愷明團(tuán)隊(duì)重磅工作「Drifting Models」革新生成范式:一步推理直接創(chuàng)紀(jì)錄

作者:Mingyang Deng等 解讀:AI生成未來(lái) 亮點(diǎn)直擊 全新的生成范式:提出了“漂移模型” (Drifting Models),這一范式不再依賴于推理時(shí)的迭代過(guò)程,而是將分布演化的過(guò)程轉(zhuǎn)移到

2026-02-10 16:19 評(píng)論

一張圖生成游戲?谷歌Genie體驗(yàn):萬(wàn)物皆可玩,但離“殺死游戲公司”還遠(yuǎn)

一張圖生成游戲,真的假的? 在開始之前,我想先問(wèn)大家一個(gè)簡(jiǎn)單的問(wèn)題: 你們還在苦苦等待《GTA 6》的發(fā)售嗎? 我是不清楚大家的想法啦,但小雷真的非常期待它的到來(lái)。要知道《GTA 5》發(fā)布至今已經(jīng)過(guò)去

2026-02-09 10:24 評(píng)論

視頻理解大模型覺(jué)醒!Video-o3發(fā)布:像偵探一樣主動(dòng)搜尋關(guān)鍵幀,登頂Video-Holmes!

作者:Xiangyu Zeng等 解讀:AI生成未來(lái) 亮點(diǎn)直擊 Video-o3,一個(gè)創(chuàng)新的框架,它通過(guò)迭代地發(fā)現(xiàn)顯著的視覺(jué)線索、對(duì)關(guān)鍵片段進(jìn)行細(xì)致檢查以及在收集到足夠證據(jù)時(shí)自適應(yīng)終止搜索過(guò)程,解決了

2026-02-05 14:53 評(píng)論

Google“AI奧運(yùn)會(huì)”:用游戲基準(zhǔn)測(cè)試模型真實(shí)能力

AI新產(chǎn)品每天接連發(fā)布,測(cè)試基準(zhǔn)和平臺(tái)也是層出不窮。 不過(guò),你是否想過(guò),游戲也能用來(lái)測(cè)試AI? 2026年2月初,Google和Kaggle一起想出了一個(gè)新點(diǎn)子:在Kaggle的Game Arena上

2026-02-04 10:56 評(píng)論

擴(kuò)散模型迎來(lái)“終極簡(jiǎn)化”!何愷明團(tuán)隊(duì)新作:像素級(jí)一步生成,速度質(zhì)量雙巔峰

作者:Yiyang Lu等 解讀:AI生成未來(lái) 亮點(diǎn)直擊 Pixel MeanFlow (pMF)?,這是一種針對(duì)一步生成(one-step generation)的創(chuàng)新圖像生成模型。pMF 的核心突

2026-02-02 15:51 評(píng)論

擴(kuò)散模型對(duì)齊迎來(lái)“最強(qiáng)解”!HyperAlign屠榜評(píng)測(cè):超網(wǎng)絡(luò)動(dòng)態(tài)適配,畫質(zhì)、語(yǔ)義雙巔峰

作者:Xin Xie等 解讀:AI生成未來(lái) 亮點(diǎn)直擊 HyperAlign,一種通過(guò)超網(wǎng)絡(luò)自適應(yīng)調(diào)整去噪操作的框架,能夠高效且有效地實(shí)現(xiàn)擴(kuò)散模型的測(cè)試時(shí)對(duì)齊,確保生成的圖像更好地反映用戶意圖的文本語(yǔ)義

2026-01-27 16:14 評(píng)論

一統(tǒng)視覺(jué)江湖!OpenVision 3發(fā)布:一個(gè)編碼器實(shí)現(xiàn)理解與生成完美統(tǒng)一,性能雙殺CLIP

作者:Letian Zhang等 解讀:AI生成未來(lái) 亮點(diǎn)直擊 統(tǒng)一架構(gòu):OpenVision 3是一種先進(jìn)的視覺(jué)編碼器,能夠?qū)W習(xí)單一、統(tǒng)一的視覺(jué)表示,同時(shí)服務(wù)于圖像理解和圖像生成任務(wù)。 簡(jiǎn)潔設(shè)計(jì):核

2026-01-26 16:27 評(píng)論

告別時(shí)空崩壞,生成式游戲迎來(lái)“穩(wěn)態(tài)”時(shí)刻!南大等StableWorld:打造無(wú)限續(xù)航虛擬世界

作者:Ying Yang等 解讀:AI生成未來(lái) 亮點(diǎn)直擊 識(shí)別了長(zhǎng)時(shí)交互式世界建模中不穩(wěn)定性的根本原因:同一場(chǎng)景內(nèi)的微小漂移會(huì)不斷累積,最終導(dǎo)致整體場(chǎng)景崩潰。 一種簡(jiǎn)單而有效的方法?StableWor

2026-01-26 16:22 評(píng)論

角色動(dòng)畫最新SOTA!港大&螞蟻等CoDance:解綁-重綁實(shí)現(xiàn)任意數(shù)量、位置角色同屏起舞

作者:Shuai Tan等 解讀:AI生成未來(lái) 圖1。由CoDance生成的多主體動(dòng)畫。給定一個(gè)(可能錯(cuò)位的)驅(qū)動(dòng)姿勢(shì)序列和一張多主體參考圖像,CoDance生成協(xié)調(diào)且可姿勢(shì)控制的群舞,無(wú)需每個(gè)主體的

2026-01-20 13:48 評(píng)論

視頻生成效率革命!英偉達(dá)TMD蒸餾框架:Wan2.1模型實(shí)時(shí)化,速度和質(zhì)量最佳均衡!

作者:Weili Nie等 解讀:AI生成未來(lái) 亮點(diǎn)直擊 一種新穎的視頻擴(kuò)散蒸餾框架:?轉(zhuǎn)移匹配蒸餾(TMD),它將長(zhǎng)去噪軌跡蒸餾成緊湊的少步概率轉(zhuǎn)移過(guò)程。 解耦的擴(kuò)散主干設(shè)計(jì):?將教師模型分解為語(yǔ)義

2026-01-19 15:31 評(píng)論

Qwen3-VL-Flash提升13.62%!浙大等首創(chuàng)CoV:多步推理具身問(wèn)答Agent,通用提點(diǎn)神器

作者:CoV團(tuán)隊(duì) 解讀:AI生成未來(lái) 亮點(diǎn)直擊 CoV 框架:首創(chuàng)“視鏈提示”(Chain-of-View, CoV),一個(gè)免訓(xùn)練、測(cè)試時(shí)(test-time)的具身問(wèn)答智能體框架。 主動(dòng)視覺(jué)推理:將

2026-01-14 14:06 評(píng)論
上一頁(yè)   1  2 3 4 5 6 7 ... 10   下一頁(yè)

資訊訂閱

粵公網(wǎng)安備 44030502002758號(hào)