7月27日消息,新壹科技今日發(fā)布了國(guó)內(nèi)首款聚焦視頻的大模型“新壹視頻大模型”,以及AIGC視頻生成平臺(tái)“秒創(chuàng)視頻創(chuàng)作平臺(tái)”,首款基于商用的數(shù)字人平臺(tái)“新壹數(shù)字人平臺(tái)”,此外,還發(fā)布了國(guó)內(nèi)首款明星數(shù)字人祝福視頻制作產(chǎn)品“秒祝”。
新壹科技創(chuàng)始人、董事長(zhǎng)韓坤在會(huì)上表示,由于沒有從實(shí)際場(chǎng)景出發(fā),導(dǎo)致大部分通用大模型的實(shí)用性并不強(qiáng),難以真正重塑實(shí)際的生產(chǎn)。我們需要建立一個(gè)連接AI技術(shù)能力和垂直場(chǎng)景需求的大模型,能夠提供釋放生產(chǎn)力的能力,并創(chuàng)造更多實(shí)際價(jià)值的垂直場(chǎng)景大模型。
為此,新壹科技發(fā)布國(guó)內(nèi)首個(gè)聚焦在視頻領(lǐng)域的大模型——新壹視頻大模型。新壹視頻大模型是以視頻生成為核心的多模態(tài)AIGC模型。基于深度學(xué)習(xí)海量視頻樣本,新壹視頻大模型擁有了從腳本生成、素材匹配、智能剪輯配音到數(shù)字人播報(bào)的AI全流程視頻生產(chǎn)能力。
新壹視頻大模型具備多模態(tài)感知、實(shí)時(shí)學(xué)習(xí)、自迭代及多場(chǎng)景交叉推理的核心能力。能夠處理多模態(tài)的輸入信息,可以理解文字的含義,識(shí)別圖像的內(nèi)容,感知音樂的情緒,基于對(duì)內(nèi)容深度準(zhǔn)確的理解,生成視頻。
新壹視頻大模型采用了自監(jiān)督學(xué)習(xí)方案,會(huì)觀察和學(xué)習(xí)大量的視頻數(shù)據(jù),通過分析視頻的結(jié)構(gòu)、內(nèi)容、風(fēng)格等多個(gè)維度,自我理解和把握視頻制作的規(guī)則和邏輯。從而在處理視頻制作任務(wù)時(shí),能有出色的表現(xiàn)。
新壹視頻大模型能跨場(chǎng)景進(jìn)行知識(shí)遷移與關(guān)聯(lián),選擇合適素材,調(diào)整視頻風(fēng)格,生成滿足創(chuàng)作者需求且質(zhì)量高的視頻;其可面向行業(yè)級(jí)的垂直場(chǎng)景對(duì)新壹視頻大模型做定向訓(xùn)練。
韓坤表示,新壹視頻大模型不僅僅是一個(gè)工具,更是一個(gè)理解用戶、理解視頻、理解美學(xué)的藝術(shù)家。新壹科技將以“釋放AIGC視頻生產(chǎn)力”作為公司新的定位,這也是公司要達(dá)成的首要目標(biāo)。
同時(shí),新壹科技還現(xiàn)場(chǎng)演示了秒創(chuàng)視頻創(chuàng)作平臺(tái)的操作全過程。據(jù)悉,秒創(chuàng)試運(yùn)營(yíng)半年多以來,已經(jīng)積累了200多萬的用戶,每天產(chǎn)出超過10萬分鐘視頻。
新壹科技還發(fā)布了數(shù)字人平臺(tái)。通過多模態(tài)合成AI技術(shù),該平臺(tái)可以將真人錄制的視頻和音頻素材,快速生成2D寫實(shí)數(shù)字人;谛乱家曨l大模型, 24內(nèi)小時(shí)即可完成一個(gè)數(shù)字人的訓(xùn)練。
韓坤表示,接下來,新壹科技將推出更多的垂直場(chǎng)景服務(wù)平臺(tái)和產(chǎn)品,比如為政府政務(wù)、金融保險(xiǎn)、適老養(yǎng)老、智能交互數(shù)字人以及游戲等垂直場(chǎng)景提供服務(wù),目前已經(jīng)有解決方案和產(chǎn)品正在落地。
目前,新壹科技的AI生成能力已覆蓋文本、圖像、音視頻等內(nèi)容模態(tài),是國(guó)內(nèi)AIGC領(lǐng)域布局最為全面、技術(shù)最成熟的公司之一,已經(jīng)實(shí)現(xiàn)從大模型到平臺(tái)服務(wù)再到產(chǎn)品服務(wù)落地的AIGC業(yè)務(wù)全鏈路打通。(靜靜)