IT之家 7 月 7 日消息,OpenAI 宣布正在組建一個(gè)新團隊,由其聯(lián)合創(chuàng )始人兼首席科學(xué)家 Ilya Sutskever 和 Alignment 負責人 Jan Leike 共同領(lǐng)導,以尋找引導和控制下一代“超智能人工智能系統”的方法。
▲ 圖源 OpenAI
據悉,該團隊目前具備最高優(yōu)先級,有權使用公司 20% 的計算資源,目標是在未來(lái)四年內解決“控制超智能 AI”的核心技術(shù)挑戰。團隊聲稱(chēng),他們需要時(shí)間來(lái)進(jìn)行“科學(xué)和技術(shù)”方面的突破,以引導和控制比人類(lèi)聰明得多的 AI 系統。
研究者 Sutskever 和 Leike 認為,“下一代超智能 AI”可能將在十年內誕生,這將是人類(lèi)迄今為止發(fā)明的最具影響力的技術(shù),可以幫助人類(lèi)解決許多原先需要大量人力資源才能解決的問(wèn)題。但研究者同時(shí)認為,該技術(shù)也有反噬人類(lèi)的可能,其巨大的力量可能導致人類(lèi)喪失主權甚至滅絕。
團隊表示,在“確保比人類(lèi)更聰明的 AI 系統遵循人類(lèi)的意圖”方面,他們當下還沒(méi)有一個(gè)合理的解決方案來(lái)引導或控制潛在的超智能 AI,當下人類(lèi)只能通過(guò)反饋來(lái)令 AI 調整生成過(guò)程,但人類(lèi)無(wú)法可靠地從根源監督 AI 系統。
OpenAI 計劃構建一個(gè)大致達到人類(lèi)水平的 AI “automated alignment researcher”,然后使用大量深度學(xué)習來(lái)擴展 AI 能力,并迭代地調整該超級智能。
為此,研究人員需要開(kāi)發(fā)可擴展的訓練方法,接著(zhù)驗證生成的模型,并最終對模型進(jìn)行一系列可控性測試。
IT之家發(fā)現,研究人員當下正計劃利用該 AI 系統來(lái)協(xié)助評估其它 AI 系統(可擴展的監督),同時(shí)還希望了解和控制他們的模型是如何將監督推廣到人類(lèi)研究員無(wú)法監督的任務(wù)上。
Sutskever 和 Leike 表示,隨著(zhù)研究的深入,預計其將來(lái)的研究重點(diǎn)也可能出現發(fā)生變化,甚至可能還會(huì )有新的研究領(lǐng)域隨之出現。
目前,這一新團隊還在對外招募機器學(xué)習研究人員和工程師。Sutskever 和 Leike 認為,招募更多的機器學(xué)習專(zhuān)家對于解決下一代超智能 AI 的問(wèn)題至關(guān)重要。他們計劃廣泛分享團隊的研究成果,并將促進(jìn)業(yè)界共同進(jìn)步。
這個(gè)新團隊的工作是對 OpenAI 現有工作的補充,旨在提高 ChatGPT 等當前模型的安全性,以及理解和減輕人工智能帶來(lái)的其他風(fēng)險,例如濫用、經(jīng)濟破壞、虛假信息、偏見(jiàn)和歧視、成癮和過(guò)度依賴(lài)等問(wèn)題。雖然新團隊將專(zhuān)注于將超智能 AI 系統與人類(lèi)意圖結合起來(lái)的機器學(xué)習挑戰,但我們正在積極與跨學(xué)科專(zhuān)家合作解決相關(guān)的社會(huì )技術(shù)問(wèn)題,以確保我們的技術(shù)解決方案考慮到更廣泛的人類(lèi)和社會(huì )問(wèn)題。