777精品久无码人妻蜜桃,国产日本精品视频在线观看 ,国产亚洲99久久精品熟女av,brazzersvideosex欧美最新版,人人爽人人人爽人人爽

2025全球時(shí)空智能大會(huì)
5月21-22日 北京
開(kāi)幕在即!WGDC25全球時(shí)空智能大會(huì)完整日程公布
即刻注冊(cè)  鎖定席位

阿里開(kāi)源全功能視頻大模型,單一模型全面支持視頻生成和編輯

分享至

5月14日,阿里巴巴正式開(kāi)源通義萬(wàn)相Wan2.1-VACE。據(jù)了解,這是目前業(yè)界功能最全的視頻生成與編輯模型,單一模型可同時(shí)支持文生視頻、圖像參考視頻生成、視頻重繪、視頻局部編輯、視頻背景延展以及視頻時(shí)長(zhǎng)延展等多種生成和編輯能力。該模型擁有1.3B和14B兩個(gè)版本,其中1.3B版本可在消費(fèi)級(jí)顯卡運(yùn)行。

昆侖萬(wàn)維正式開(kāi)源Matrix-Game大模型,為工業(yè)界首個(gè)開(kāi)源的10B+空間智能大模型

分享至

5月13日,昆侖萬(wàn)維正式開(kāi)源(17B+)Matrix-Game大模型,即Matrix-Zero世界模型中的可交互視頻生成大模型。Matrix-Game是Matrix系列在交互式世界生成方向的正式落地,也是工業(yè)界首個(gè)開(kāi)源的10B+空間智能大模型,它是一個(gè)面向游戲世界建模的交互式世界基礎(chǔ)模型,專為開(kāi)放式環(huán)境中的高質(zhì)量生成與精確控制而設(shè)計(jì)。

字節(jié)跳動(dòng)開(kāi)源一款 Deep Research 項(xiàng)目

分享至

5月9日,據(jù)“字節(jié)跳動(dòng)開(kāi)源”公號(hào)顯示,基于LangStack的全新Deep Research開(kāi)源項(xiàng)目——DeerFlow,正式在ByteDance的GitHub官方組織上開(kāi)源。在演示視頻中,字節(jié)跳動(dòng)技術(shù)團(tuán)隊(duì)演示了包括深度研究、MCP集成、報(bào)告AI增強(qiáng)編輯以及播客生成等功能。

英偉達(dá)開(kāi)源多個(gè)代碼大模型 以阿里通義千問(wèn)為底座

分享至

英偉達(dá)近日開(kāi)源其代碼推理模型(Open Code Reasoning model),包括32B、14B和7B三個(gè)參數(shù)。該模型以阿里通義千問(wèn)Qwen2.5-32B、Qwen2.5-14B、Qwen2.5-7B為底座模型。

騰訊混元發(fā)布并開(kāi)源視頻生成工具HunyuanCustom,支持主體一致性生成

分享至

5月9日,騰訊混元團(tuán)隊(duì)發(fā)布并開(kāi)源全新的多模態(tài)定制化視頻生成工具HunyuanCustom。該模型基于混元視頻生成大模型(HunyuanVideo)打造,在主體一致性效果超過(guò)現(xiàn)有的開(kāi)源方案,并可媲美頂尖閉源模型。HunyuanCustom融合了文本、圖像、音頻、視頻等多模態(tài)輸入生視頻的能力,是一款具備高度控制力和生成質(zhì)量的智能視頻創(chuàng)作工具。

北京人形機(jī)器人開(kāi)源社區(qū)已上線

分享至

2025年4月,北京人形機(jī)器人開(kāi)源社區(qū)(opensource.x-humanoid-cloud.com)已正式上線,包含博客、論壇交流、技術(shù)文檔展示、開(kāi)源項(xiàng)目展示、活動(dòng)發(fā)布、專家學(xué)者認(rèn)證、開(kāi)源課程發(fā)布等豐富功能,通過(guò)開(kāi)放共享核心技術(shù)與研發(fā)資源,促進(jìn)全球開(kāi)發(fā)者協(xié)作創(chuàng)新、加速行業(yè)技術(shù)突破,為具身智能產(chǎn)業(yè)融合搭建起人才培育、技術(shù)迭代和產(chǎn)業(yè)落地的基座平臺(tái)。

清華、星動(dòng)紀(jì)元開(kāi)源首個(gè)AIGC機(jī)器人大模型

分享至

5月7日消息,來(lái)自于清華大學(xué)叉院的ISRLab和星動(dòng)紀(jì)元 ——ICML Spotlight高分作品AIGC生成式機(jī)器人大模型VPP(Video Prediction Policy),入選ICML2025 Spotlight。VPP將視頻擴(kuò)散模型的泛化能力轉(zhuǎn)移到了通用機(jī)器人操作策略中,巧妙解決了diffusion推理速度的問(wèn)題,開(kāi)創(chuàng)性地讓機(jī)器人實(shí)時(shí)進(jìn)行未來(lái)預(yù)測(cè)和動(dòng)作執(zhí)行,大大提升機(jī)器人策略泛化性,并且現(xiàn)已全部開(kāi)源。

小米首個(gè)開(kāi)源推理大模型發(fā)布

分享至

4月30日,小米開(kāi)源首個(gè)為推理(Reasoning)而生的大模型「Xiaomi MiMo」,聯(lián)動(dòng)預(yù)訓(xùn)練到后訓(xùn)練,全面提升推理能力。在數(shù)學(xué)推理(AIME 24-25)和 代碼競(jìng)賽(LiveCodeBench v5)公開(kāi)測(cè)評(píng)集上,MiMo 僅用 7B 的參數(shù)規(guī)模,超越了 OpenAI 的閉源推理模型 o1-mini 和阿里 Qwen 更大規(guī)模的開(kāi)源推理模型 QwQ-32B-Preview。

阿里千問(wèn)3登頂全球最強(qiáng)開(kāi)源模型

分享至

4月29日,阿里巴巴開(kāi)源新一代通義千問(wèn)模型Qwen3(簡(jiǎn)稱千問(wèn)3),參數(shù)量?jī)H為DeepSeek-R1的1/3,成本大幅下降,性能全面超越R1、OpenAI-o1等領(lǐng)先模型,登頂全球最強(qiáng)開(kāi)源模型。千問(wèn)3是國(guó)內(nèi)首個(gè)“混合推理模型”,將“快思考”與“慢思考”集成進(jìn)同一個(gè)模型,大大節(jié)省算力消耗。據(jù)了解,千問(wèn)3采用混合專家(MoE)架構(gòu),總參數(shù)量235B,激活僅需22B。千問(wèn)3預(yù)訓(xùn)練數(shù)據(jù)量達(dá)36T tokens,并在后訓(xùn)練階段經(jīng)過(guò)多輪強(qiáng)化學(xué)習(xí),將非思考模式無(wú)縫整合到思考模型中。

理想星環(huán)OS操作系統(tǒng)正式開(kāi)源,代碼已開(kāi)放下載

分享至

4月28日,理想汽車官宣,自研星環(huán)OS正式開(kāi)源。據(jù)了解,理想星環(huán)OS是理想汽車的自研汽車操作系統(tǒng),今年3月理想汽車創(chuàng)始人李想宣布該系統(tǒng)將開(kāi)源,目前第一批開(kāi)源代碼已登陸理想汽車官網(wǎng)開(kāi)源論壇。

字節(jié)跳動(dòng)開(kāi)源多模態(tài)AI Agent—UI-TARS-1.5

分享至

4月23日,字節(jié)跳動(dòng)開(kāi)源了多模態(tài)AI Agent UI-TARS的最新1.5版本。與上一代相比,1.5版本在計(jì)算機(jī)使用、瀏覽器使用和手機(jī)使用等基準(zhǔn)測(cè)試中均表現(xiàn)非常出色。在計(jì)算機(jī)使用方面,OSworld測(cè)試得分為42.5,高于OpenAI CUA的36.4、Claude 3.7的28以及之前的最高水平38.1(200步);Windows Agent Arena(50步)得分為42.1,遠(yuǎn)超之前的29.8。瀏覽器使用方面,WebVoyager得分為84.8,接近OpenAI CUA和之前最高水平的87,Online-Mind2web得75.8,優(yōu)于OpenAI CUA的71、Claude 3.7的62.9和之前的71。手機(jī)使用方面,Android World得64.2,高于之前的59.5。

字節(jié)Seed智能體模型UI-TARS-1.5開(kāi)源

分享至

4月17日,字節(jié)跳動(dòng)豆包大模型團(tuán)隊(duì)(Seed)發(fā)布并開(kāi)源UI-TARS-1.5。據(jù)介紹,這是一款基于視覺(jué)-語(yǔ)言模型構(gòu)建的開(kāi)源多模態(tài)智能體,能夠在虛擬世界中高效執(zhí)行各類任務(wù)。目前,UI-TARS-1.5已在7個(gè)典型的GUI圖形用戶界面評(píng)測(cè)基準(zhǔn)中取得SOTA表現(xiàn),并首次展現(xiàn)了其在游戲中的長(zhǎng)時(shí)推理能力和在開(kāi)放空間中的交互能力。

上海人工智能實(shí)驗(yàn)室開(kāi)源通用多模態(tài)大模型書生·萬(wàn)象3.0

分享至

4月17日,上海人工智能實(shí)驗(yàn)室(上海AI實(shí)驗(yàn)室)升級(jí)并開(kāi)源了通用多模態(tài)大模型書生·萬(wàn)象3.0(InternVL3)。通過(guò)采用創(chuàng)新的多模態(tài)預(yù)訓(xùn)練和后訓(xùn)練方法,InternVL3多模態(tài)基礎(chǔ)能力全面提升,在專家級(jí)基準(zhǔn)測(cè)試、多模態(tài)性能全面測(cè)試中,10億~780億參數(shù)的全量級(jí)版本在開(kāi)源模型中性能均位列第一,同時(shí)大幅提升了圖形用戶界面(GUI)智能體、建筑場(chǎng)景圖紙理解、空間感知推理以及通識(shí)學(xué)科推理等方面的能力。

中國(guó)自研AI圖像生成模型HiDream-I1與HiDream-E1官宣全面開(kāi)源

分享至

4月15日,HiDream智象未來(lái)團(tuán)隊(duì)宣布正式開(kāi)源圖像生成大模型HiDream-I1與交互編輯模型HiDream-E1。HiDream-I1在權(quán)威榜單Artificial Analysis中24小時(shí)內(nèi)登頂,成為首個(gè)躋身全球第一梯隊(duì)的中國(guó)自研生成式AI模型,并在圖像質(zhì)量、語(yǔ)義理解、藝術(shù)表現(xiàn)三大維度刷新行業(yè)紀(jì)錄,實(shí)現(xiàn)圖像的多風(fēng)格生成,涵蓋動(dòng)漫、肖像、科幻等場(chǎng)景。目前,設(shè)計(jì)工具Recraft已集成HiDream模型,用戶3步即可實(shí)現(xiàn)“一鍵出圖+智能編輯”。

群核科技朱皓:開(kāi)源模型將成為推動(dòng)全球人工智能發(fā)展最強(qiáng)勁的引擎

分享至

4月14日舉行的2025年世界互聯(lián)網(wǎng)大會(huì)亞太峰會(huì)主論壇暨數(shù)智未來(lái)論壇上,群核科技聯(lián)合創(chuàng)始人兼首席技術(shù)官朱皓表示,人工智能正在賦能千行百業(yè),但并不能很好走進(jìn)物理世界。需要借助開(kāi)源的力量,加速AI走向物理世界。朱皓介紹,近年來(lái),人工智能從技術(shù)和應(yīng)用上都取得了飛躍式的發(fā)展。但今天的人工智能依然屬于二維世界,仍難以理解空間關(guān)系和物理規(guī)律。要想創(chuàng)造更大的價(jià)值,就需要向三維現(xiàn)實(shí)進(jìn)階,用以理解三維世界的空間智能技術(shù),成為了關(guān)鍵突破點(diǎn)。開(kāi)源模型將成為推動(dòng)全球人工智能發(fā)展最強(qiáng)勁的引擎。

智譜發(fā)布新一代開(kāi)源模型,極速版最高達(dá)到200tokens/秒

分享至

4月15日,智譜發(fā)布新一代開(kāi)源模型GLM-4-32B-0414系列,包含基座、推理、沉思模型權(quán)重,并遵循MIT License。目前系列所有模型可以通過(guò)“z.ai”訪問(wèn)體驗(yàn)。據(jù)介紹,推理模型GLM-Z1-Air/AirX-0414模型推理速度可以做到最高200 Tokens/秒(MaaS平臺(tái)bigmodel.cn上實(shí)測(cè))。

?智譜將開(kāi)源推理模型GLM-Z1-Air和基座模型GLM-4-Air0414

分享至

3月31日,智譜將于4月14日開(kāi)源推理模型GLM-Z1-Air和基座模型GLM-4-Air0414,并于近期陸續(xù)上線bigmodel.cn。上述模型是智譜新推出的AI Agent“沉思”背后的模型。

階躍星辰Step-Video-TI2V圖生視頻模型開(kāi)源

分享至

3月20日,階躍星辰開(kāi)源圖生視頻模型——Step-Video-TI2V,一款基于30B參數(shù)Step-Video-T2V訓(xùn)練的圖生視頻模型,支持生成102幀、5秒、540P分辨率的視頻,具備運(yùn)動(dòng)幅度可控和鏡頭運(yùn)動(dòng)可控兩大核心特點(diǎn),同時(shí)天生具備一定的特效生成能力。與此同時(shí),Step-Video-TI2V已完成與華為昇騰計(jì)算平臺(tái)的適配,并在魔樂(lè)社區(qū)(Modelers)上線。

群核科技開(kāi)源空間理解多模態(tài)模型,可用于具身智能訓(xùn)練等領(lǐng)域

分享至

3月19日,在GTC2025全球大會(huì)上,群核科技宣布開(kāi)源其自主研發(fā)的空間理解模型SpatialLM。該模型僅通過(guò)一段視頻即可生成物理正確的3D場(chǎng)景布局。據(jù)了解,SpatialLM突破了傳統(tǒng)大語(yǔ)言模型對(duì)物理世界幾何與空間關(guān)系的理解局限,讓機(jī)器具備空間認(rèn)知與推理能力,將為具身智能等相關(guān)領(lǐng)域提供空間理解基礎(chǔ)訓(xùn)練框架。此外,該模型接下來(lái)還將迭代自然語(yǔ)言和場(chǎng)景交互功能。

昆侖萬(wàn)維開(kāi)源R1V視覺(jué)思維鏈推理模型

分享至

3月18日,昆侖萬(wàn)維正式開(kāi)源首款工業(yè)界多模態(tài)思維鏈推理模型Skywork R1V,即日起開(kāi)源模型權(quán)重和技術(shù)報(bào)告。

點(diǎn)擊加載更多