2025-10-27 11:22:51
每經(jīng)記者|趙雯琪 每經(jīng)編輯|余婷婷
每經(jīng)北京10月27日電(記者 趙雯琪)美團LongCat團隊今日發(fā)布并開源LongCat-Video視頻生成模型,以統(tǒng)一模型在文生、圖生視頻基礎任務上達到開源SOTA(最先進水平),并依托原生視頻續(xù)寫任務預訓練,實現(xiàn)分鐘級長視頻連貫生成,保障跨幀時序一致性與物理運動合理性。
美團LongCat團隊認為,此次發(fā)布的視頻生成模型,是為探索“世界模型”邁出的第一步。未來,憑借精準重構真實世界運行狀態(tài)的能力,LongCat模型也會融入公司近年來持續(xù)投入的自動駕駛、具身智能等深度交互業(yè)務場景中,成為公司更好連接“比特世界”和“原子世界”的技術基礎。
如需轉載請與《每日經(jīng)濟新聞》報社聯(lián)系。
未經(jīng)《每日經(jīng)濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關注每日經(jīng)濟新聞APP
