777精品久无码人妻蜜桃,国产日本精品视频在线观看 ,国产亚洲99久久精品熟女av,brazzersvideosex欧美最新版,人人爽人人人爽人人爽

搜索中心

美團發(fā)布并開源視頻生成模型 將融入自動駕駛、具身智能等場景中

分享至

10月27日,美團LongCat團隊發(fā)布并開源LongCat-Video視頻生成模型,以統(tǒng)一模型在文生、圖生視頻基礎任務上達到開源SOTA(最先進水平),并依托原生視頻續(xù)寫任務預訓練,實現(xiàn)分鐘級長視頻連貫生成,保障跨幀時序一致性與物理運動合理性。美團LongCat團隊認為,此次發(fā)布的視頻生成模型,是為探索“世界模型”邁出的第一步。未來,LongCat模型也會融入公司近年來持續(xù)投入的自動駕駛、具身智能等深度交互業(yè)務場景中。

視頻孿生企業(yè)「智匯云舟」完成新一輪融資

分享至

10月20日消息,近日,安徽智匯云舟科技有限公司宣布完成新一輪融資,本輪融資由合肥高新創(chuàng)業(yè)投資管理合伙企業(yè)(有限合伙)追加投資。這是繼2025年年初獲融惠太鶴數(shù)千萬元B+輪融資后,公司在今年內迎來的又一資本加持。根據(jù)規(guī)劃,兩輪融資資金將集中投向三大核心方向:在核心技術研發(fā)上,第一,公司將重點聚焦“孿舟”3D GIS引擎,以AI化、視算一體化、行業(yè)化作為發(fā)展方向。深度融合AI能力,提升數(shù)字孿生工作流的效率,智能化實現(xiàn)視頻實時三維融合建模制作,降低實施成本;統(tǒng)一空間可視化與空間計算,為數(shù)字孿生提供LI位置智能服務,提升數(shù)字孿生平臺業(yè)務價值;深入重點垂直行業(yè),為行業(yè)用戶提供行業(yè)專屬工具組件和專業(yè)API能力。

阿里Wan2.2-S2V正式發(fā)布:一張圖+一段音頻 即可生成人物動態(tài)視頻

分享至

8月26日,阿里云正式發(fā)布全新多模態(tài)視頻生成模型通義萬相Wan2.2-S2V,并宣布開源。Wan2.2-S2V極大地簡化了視頻制作過程,僅需提供一張靜態(tài)圖片和一段音頻,模型便能生成面部表情自然、口型與音頻高度一致、肢體動作流暢絲滑的電影級數(shù)字人視頻。支持分鐘級長視頻穩(wěn)定生成,不止嘴動,手勢、表情、姿態(tài)都能動。而且模型在訓練中充分挖掘跨域泛化能力,可自然驅動卡通人物、動物形象、二次元角色、藝術風格化人像,不再局限于真人肖像。無論是萌寵說話,還是動漫角色唱歌,Wan2.2-S2V都能精準還原音畫同步效果。其提供480P與720P兩檔分辨率,兼顧效率與畫質,適用于短視頻、數(shù)字人、輕量影視等場景。

特斯拉發(fā)布FSD演示視頻:舊金山到洛杉磯全程 580公里零干預

分享至

8月13日,特斯拉在X平臺發(fā)布了其 FSD 技術迄今為止行程最長的演示視頻,展示了從舊金山灣區(qū)到洛杉磯的零干預駕駛之旅。視頻顯示在整個駕駛過程中,車輛無需駕駛員干預。

阿里開源全功能視頻大模型,單一模型全面支持視頻生成和編輯

分享至

5月14日,阿里巴巴正式開源通義萬相Wan2.1-VACE。據(jù)了解,這是目前業(yè)界功能最全的視頻生成與編輯模型,單一模型可同時支持文生視頻、圖像參考視頻生成、視頻重繪、視頻局部編輯、視頻背景延展以及視頻時長延展等多種生成和編輯能力。該模型擁有1.3B和14B兩個版本,其中1.3B版本可在消費級顯卡運行。

特斯拉發(fā)布人形機器人擎天柱“跳舞”視頻

分享至

5月13日晚間,特斯拉官方微博發(fā)布人形機器人擎天柱(Optimus)“跳舞”視頻,并表示其人形機器人優(yōu)化“仿真到現(xiàn)實”(Sim-to-Real)的訓練代碼,通過強化學習完成訓練。

騰訊混元發(fā)布并開源視頻生成工具HunyuanCustom,支持主體一致性生成

分享至

5月9日,騰訊混元團隊發(fā)布并開源全新的多模態(tài)定制化視頻生成工具HunyuanCustom。該模型基于混元視頻生成大模型(HunyuanVideo)打造,在主體一致性效果超過現(xiàn)有的開源方案,并可媲美頂尖閉源模型。HunyuanCustom融合了文本、圖像、音頻、視頻等多模態(tài)輸入生視頻的能力,是一款具備高度控制力和生成質量的智能視頻創(chuàng)作工具。

階躍星辰Step-Video-TI2V圖生視頻模型開源

分享至

3月20日,階躍星辰開源圖生視頻模型——Step-Video-TI2V,一款基于30B參數(shù)Step-Video-T2V訓練的圖生視頻模型,支持生成102幀、5秒、540P分辨率的視頻,具備運動幅度可控和鏡頭運動可控兩大核心特點,同時天生具備一定的特效生成能力。與此同時,Step-Video-TI2V已完成與華為昇騰計算平臺的適配,并在魔樂社區(qū)(Modelers)上線。

阿里云視頻生成大模型萬相2.1開源

分享至

2月25日,阿里云宣布視頻生成大模型萬相2.1(Wan)開源,此次開源采用Apache2.0協(xié)議,14B和1.3B兩個參數(shù)規(guī)格的全部推理代碼和權重全部開源,同時支持文生視頻和圖生視頻任務,全球開發(fā)者可在Github、HuggingFace、魔搭社區(qū)下載體驗。

阿里巴巴公布圖生視頻專利 可實現(xiàn)智能化端到端圖生視頻

分享至

天眼查知識產權信息顯示,近日,阿里巴巴有限公司申請的“一種圖生視頻方法和裝置”專利公布。摘要顯示,本發(fā)明實施例將包含目標對象的源圖像輸入第一視頻生成模型得到素材視頻,根據(jù)素材視頻確定幀間變換矩陣序列,然后從源圖像中得到目標對象對應的對象掩碼圖像,將幀間變換矩陣序列應用于對象掩碼圖像可得到多張掩碼圖像從而組成掩碼圖像序列,將幀間變換矩陣序列應用于源圖像可得到多張目標對象圖像從而組成目標對象圖像序列,根據(jù)源圖像、掩碼圖像序列和目標對象圖像序列確定目標輸入數(shù)據(jù),將目標輸入數(shù)據(jù)輸入支持局部重繪的第二視頻生成模型,得到對應的目標視頻。通過兩次模型生成視頻,實現(xiàn)了智能化端到端的圖生視頻,無需引入預設運動參數(shù)即可在保持目標對象不擴散的同時,實現(xiàn)運動軌跡多樣性。

谷歌第二代AI視頻生成模型Veo 2亮相:分辨率可達4K

分享至

12月17日消息,谷歌今日宣布,其最新的AI視頻生成模型Veo 2正式亮相。據(jù)介紹,Veo 2模型能夠生成最高4K(4096 x 2160像素)分辨率、時長達到2分鐘的視頻片段,相較于OpenAI的Sora模型,分辨率提升了4倍,視頻時長增加了6倍。Veo 2模型不僅能夠在給定文本提示或文本和參考圖像的情況下生成視頻,還能更真實地模擬運動、流體動力學和光的屬性,實現(xiàn)不同的鏡頭和電影效果,以及“細致入微”的人類表情。

Meta為雷朋智能眼鏡增加AI視頻、實時翻譯功能

分享至

Meta周一表示,它正在更新雷朋Meta智能眼鏡,該眼鏡具有實時人工智能視頻功能和實時語言翻譯功能。從周一開始,該公司開始推出v11軟件更新。該公司表示,在實時AI會話中,Meta AI可以看到用戶所看到的內容,并更自然地與他們交談。用戶可以獲得實時、免提的幫助,無需說“Hey Meta”就可以提出問題,并可以自如參考他們之前討論過的內容。用戶也可以隨時打斷,詢問后續(xù)問題或改變話題。

圖森未來正式發(fā)布圖生視頻大模型“Ruyi”

分享至

12月17日消息,今日,圖森未來宣布正式發(fā)布圖生視頻大模型“Ruyi”,并將Ruyi-Mini-7B版本正式開源,用戶可以從huggingface上下載使用。據(jù)介紹,Ruyi是一個基于DiT架構的圖生視頻模型,它由兩部分構成:一個Casual VAE模塊負責視頻數(shù)據(jù)的壓縮和解壓,一個Diffusion Transformer負責壓縮后的視頻生成。模型的總參數(shù)量約為7.1B,使用了約200M個視頻片段進行訓練。Ruyi是圖森未來正式發(fā)布的第一款“圖生視頻”模型。

字節(jié)跳動AI豆包電腦版上線視頻生成功能

分享至

12月10日消息,字節(jié)跳動視頻生成模型PixelDance已在豆包電腦版正式開啟內測,部分用戶已開通體驗入口。內測頁面顯示,用戶每日可免費生成十支視頻。

OpenAI正式推出Sora視頻生成模型

分享至

12月10日消息,當?shù)貢r間周一,OpenAI宣布正式向用戶開放其AI視頻生成模型Sora。該系統(tǒng)可根據(jù)文本提示生成視頻。Sora將于當天晚些時候向美國及其他市場ChatGPT付費用戶開放。新版工具Sora Turbo可生成最長20秒視頻,并且可以提供這些視頻的多種變體。

點擊加載更多