導(dǎo)航菜單

刷屏科技圈的“視頻生成”到底有多顛覆 前景如何

導(dǎo)讀 2024年2月16日凌晨作為科技巨頭的OpenAI公司在其官網(wǎng)上發(fā)布了第1個(gè)紋身視頻大模型Sora,據(jù)OpenAI公司介紹這個(gè)模型,可以根據(jù)圖片、視頻、文...

2024年2月16日凌晨作為科技巨頭的OpenAI公司在其官網(wǎng)上發(fā)布了第1個(gè)紋身視頻大模型Sora,據(jù)OpenAI公司介紹這個(gè)模型,可以根據(jù)圖片、視頻、文字等不同的提示詞,生成最長(zhǎng)可以達(dá)到一分鐘的高清視頻。

OpenAI官網(wǎng)上上傳了幾十個(gè)演示視頻,從演示視頻可以看到該模型生成的視頻中,有多個(gè)富有情感的角色,鏡頭是通過(guò)多維度拍攝,疊加運(yùn)鏡的畫(huà)面非常有質(zhì)感,絲毫看不出來(lái)是AI模型生成,比如在演示視頻中就有一個(gè)可以和好萊塢大片相媲美的電影預(yù)告片。讓人看了直呼視頻行業(yè)很可能會(huì)受到?jīng)_擊,將會(huì)有部分的人失業(yè)。

其實(shí)在AI領(lǐng)域中文本自動(dòng)生成視頻并不罕見(jiàn),但Sora模型之所以會(huì)成為開(kāi)年王炸,是因?yàn)橐韵聨c(diǎn):

1.Sora模型在生成視頻的時(shí)候,時(shí)長(zhǎng)最高可以長(zhǎng)達(dá)一分鐘,相比之下其他文生視頻的模型,生成時(shí)間只有十幾秒或者短短的幾秒。Sora模型生成的視頻非常的連貫,一分鐘視頻會(huì)通過(guò)不同的鏡頭展現(xiàn),視頻在呈現(xiàn)的時(shí)候不管是還原度,還是高精度都可圈可點(diǎn)。

2.Sora模型擁有超強(qiáng)的理解文本能力,不光完美的繼承了DALL·E 3畫(huà)質(zhì),還繼承了遵循指令的能力,能夠根據(jù)不同的文本指令,生成一個(gè)擁有非常多細(xì)節(jié)的視頻,在以往的AI視頻生成模型中,只能死板的照本宣科制作視頻,但是Sora模型已經(jīng)做到了可以理解不同文案,還會(huì)根據(jù)文案的基礎(chǔ)自己在對(duì)視頻進(jìn)行擴(kuò)展。

3.Sora出現(xiàn)之前以往的AI生成視頻模型,都是通過(guò)文本生成視頻,但是Sora能夠接受不同類(lèi)型的輸入提示。另外還能根據(jù)視頻中的時(shí)間維度,做到向前延伸或者向后延伸。

免責(zé)聲明:本文由用戶(hù)上傳,如有侵權(quán)請(qǐng)聯(lián)系刪除!

猜你喜歡:

最新文章: