新京報貝殼財經(jīng)訊(記者羅亦丹)“相信我,這是你能用到的最強大的視覺生成模型。”4月15日,快手高級副總裁、社區(qū)科學(xué)線負責(zé)人蓋坤在可靈2.0模型發(fā)布會上說。


這是在可靈1.0發(fā)布10個月后,快手方面對可靈全系模型的一次重要升級,包括文生圖視頻“可圖大模型2.0”,以及視頻生成大模型“可靈大模型2.0”。蓋坤介紹,可靈2.0模型在動態(tài)質(zhì)量、語義響應(yīng)、畫面美學(xué)等維度,保持全球領(lǐng)先;可圖2.0模型在指令遵循、電影質(zhì)感及藝術(shù)風(fēng)格表現(xiàn)等方面顯著提升。


貝殼財經(jīng)記者注意到,可靈2.0還上線了一種可以將文字、圖片、短視頻甚至MMW等不同格式文件結(jié)合起來一起編輯的新交互模式“MVL(Multi-modal Visual Language直譯為多模態(tài)視覺語言)”。


據(jù)了解,當前視頻生成主要分文生視頻和圖生視頻兩種,快手副總裁、可靈AI負責(zé)人張迪就披露,85%的視頻創(chuàng)作通過圖生視頻完成。有AI創(chuàng)作者告訴記者,當前業(yè)界主流的視頻制作方式是首先通過文字生成圖片,再通過圖片生成視頻。


而在蓋坤的演示中,通過MVL方式,用戶能夠結(jié)合圖像參考、視頻片段等多模態(tài)信息,將腦海中的多維度復(fù)雜創(chuàng)意傳達給AI,而不僅僅是文字的提示語句。如下圖所示,用戶使用AI生成視頻時,在提示詞中也可以夾帶圖片或視頻。


快手高級副總裁、社區(qū)科學(xué)線負責(zé)人蓋坤演示多模態(tài)交互方式。新京報貝殼財經(jīng)記者羅亦丹/攝


“我們的理念是致力于研發(fā)很強大的基礎(chǔ)模型,同時致力于定義一個人和AI更完備的溝通方式,而這背后,我們的愿景是讓每個人都能用AI講出好故事,希望這個愿望早日成真?!鄙w坤說。


編輯 陳莉 校對 柳寶慶