??新華社舊金山2月20日電 新聞分析|視頻生成新模型Sora的突破與風(fēng)險 ??新華社記者吳曉凌 ??位于舊金山的美國人工智能公司“開(kāi)放人工智能研究中心”(OpenAI)近日推出能夠通過(guò)文本指令創(chuàng )建視頻的生成式人工智能模型Sora,這一突破鞏固了其在人工智能領(lǐng)域的領(lǐng)軍地位,但同時(shí)也加劇了對“深度偽造”等風(fēng)險的擔憂(yōu)。 ??“驚鴻一瞥”恐顛覆行業(yè) ??這是OpenAI首次進(jìn)軍人工智能視頻生成領(lǐng)域。據公司介紹,Sora使用Transformer架構,可根據文本指令創(chuàng )建近似現實(shí)且富有想象力的場(chǎng)景,生成多種風(fēng)格、不同畫(huà)幅、最長(cháng)為一分鐘的高清視頻。該模型還能夠根據靜態(tài)圖像生成視頻,或對現有視頻進(jìn)行擴展或填充缺失的幀。 ??一些分析人士認為,Sora再次凸顯人工智能技術(shù)進(jìn)步對現實(shí)生活和傳統行業(yè)的深遠影響。人工智能在視頻生成領(lǐng)域的巨大發(fā)展前景在為塑造影視產(chǎn)業(yè)新業(yè)態(tài)打開(kāi)大門(mén)的同時(shí),恐將顛覆現存影視產(chǎn)業(yè)。好萊塢去年遭遇了63年來(lái)首次編劇和演員全行業(yè)罷工,因為該行業(yè)的部分工作機會(huì )可能被人工智能取代。Sora橫空出世讓這一威脅變得更迫近和真切。其面世第二天,主營(yíng)圖像處理、視頻制作軟件的奧多比公司(Adobe)股價(jià)應聲下跌超過(guò)7%。 ??雖不是第一家涉足文本轉視頻領(lǐng)域的公司,但Sora的推出使OpenAI在這一賽道取得領(lǐng)先,鞏固了其在生成式人工智能領(lǐng)域的領(lǐng)軍地位。第三方信息分析機構高德納咨詢(xún)公司的分析師錢(qián)德拉塞卡蘭表示:“在這個(gè)領(lǐng)域沒(méi)有一家公司比OpenAI更雄心勃勃,且這種雄心似乎有增無(wú)減?!?/p> ??OpenAI稱(chēng),Sora對語(yǔ)言有著(zhù)深刻的理解,不僅了解用戶(hù)文本提示,還了解所述事物在物理世界中的存在方式?!拔覀冋诮淌谌斯ぶ悄芾斫夂湍M運動(dòng)中的物理世界,目標是訓練模型幫助人們解決需要與現實(shí)世界交互的問(wèn)題?!?/p> ??“深度偽造”擔憂(yōu)加劇 ??Sora發(fā)布可謂一石激起千層浪,但此次推出的更像是預覽版,公眾尚難以深入全面了解該模型的優(yōu)缺點(diǎn)。OpenAI表示,目前僅主要向一些設計師和電影制作人等特定人群提供Sora訪(fǎng)問(wèn)權限,以獲取有關(guān)改進(jìn)該模型的反饋。公司不僅未公布訓練Sora模型的數據等基礎細節,更沒(méi)有確定向公眾發(fā)布的日期。 ??OpenAI承認,目前Sora生成視頻中可能包含不合邏輯的圖像,混淆左右等空間細節,難以準確模擬復雜場(chǎng)景的物理原理和因果關(guān)系實(shí)例等。例如,一個(gè)人咬了一口餅干,餅干上卻沒(méi)有咬痕。 ??不過(guò),隨著(zhù)算力增強、模型改進(jìn),人們可能會(huì )在短期內獲得更加完善、先進(jìn)的視頻生成功能。 ??不少業(yè)內人士擔心,Sora將為“深度偽造”(Deepfake)技術(shù)推波助瀾。加利福尼亞大學(xué)伯克利分校信息學(xué)院副院長(cháng)法里德就表示:“當新聞、圖像、音頻、視頻——任何事情都可以偽造時(shí),那么在那個(gè)世界里,就沒(méi)有什么是真實(shí)的?!?/p> ??針對造假顧慮,OpenAI稱(chēng)在真正面向公眾推出產(chǎn)品時(shí),將確保生成視頻包含來(lái)源元數據,并推出檢測視頻真偽的工具。OpenAI還承諾,在產(chǎn)品中使用Sora前將采取安全措施,包括由“錯誤信息、仇恨內容和偏見(jiàn)等領(lǐng)域的專(zhuān)家”對模型進(jìn)行對抗性測試來(lái)評估危害或風(fēng)險;核查并拒絕包含極端暴力、性?xún)热?、仇恨圖像、他人IP等文本輸入提示等。 ??即便如此,OpenAI也承認,盡管進(jìn)行了廣泛的研究和測試,“我們仍無(wú)法預測人們將使用我們技術(shù)的所有有益方式和濫用我們技術(shù)的所有方式”。 ??AI狂飆下的監管難題 ??在科技領(lǐng)域顛覆式創(chuàng )新不斷涌現的情況下,如何實(shí)現擁抱技術(shù)進(jìn)步和確保社會(huì )安全的平衡,越來(lái)越受到各界關(guān)注。 ??OpenAI表示,將與世界各地的政策制定者、教育工作者和藝術(shù)家合作,了解他們的擔憂(yōu),確定Sora的積極使用案例,并認為從現實(shí)世界的使用中學(xué)習是創(chuàng )建和發(fā)布越來(lái)越安全的人工智能系統的關(guān)鍵組成部分。 ??業(yè)內人士指出,在當下治理框架、管控措施都未跟上的情況下,僅靠企業(yè)恐無(wú)法提供社會(huì )所需的人工智能安全性和信任度。