《科學(xué)報告》14日發(fā)表的一項人工智能(AI)研究指出,大型語(yǔ)言模型(LLM)AI機器人在創(chuàng )造性思維任務(wù)上或能超越一般人類(lèi),該任務(wù)要求受試者想出日常用品的替代用途(發(fā)散性思維的一個(gè)例子)。不過(guò),得分最高的人類(lèi)受試者依然能超過(guò)機器人的最佳答案。
發(fā)散性思維通常是指與創(chuàng )造性相關(guān)的一類(lèi)思維過(guò)程,需要為特定任務(wù)想出各種不同創(chuàng )意或對策。發(fā)散性思維一般通過(guò)一種名為“替代用途任務(wù)”(AUT)的項目進(jìn)行評估,受試者被要求在短時(shí)間內想出某個(gè)日常用品的其他用途,越多越好。受試者的回答從4個(gè)類(lèi)別進(jìn)行打分:流利度、靈活性、原創(chuàng )性和精細度。
此次任務(wù)需完成4個(gè)物品(繩子、盒子、鉛筆、蠟燭)的AUT。研究人員比較了AI和人類(lèi)的答案,通過(guò)語(yǔ)義距離(回答與物品原始用途的相關(guān)度)和創(chuàng )造性給回答的原創(chuàng )性打分。
芬蘭圖爾庫大學(xué)、挪威卑爾根大學(xué)及斯塔萬(wàn)格大學(xué)認知與行為神經(jīng)科學(xué)實(shí)驗室聯(lián)合團隊用一個(gè)計算方法,在0—2的范圍里量化語(yǔ)義距離,在1—5的范圍里量化創(chuàng )造性,讓不知道受試者身份的人類(lèi)打分者對他們的答案進(jìn)行客觀(guān)評價(jià)。平均而言,AI的回答在語(yǔ)義距離(0.95相對于0.91)和創(chuàng )造性(2.91相對于2.47)的得分上顯著(zhù)高于人類(lèi)的回答;人類(lèi)回答在這兩項的得分差距更大——最低分遠低于A(yíng)I的回答,但最高分普遍比AI高。最佳人類(lèi)回答在8個(gè)評分項中的7項都超過(guò)了所有AI的最佳回答。
以上結果表明,當前AI想象創(chuàng )意的能力至少已與一般人類(lèi)相當。但團隊強調,他們只評價(jià)了涉及創(chuàng )造性評估的單項任務(wù)的表現,今后的研究或能探索如何將AI融入創(chuàng )造性過(guò)程來(lái)提升人類(lèi)表現。
人類(lèi)對自己頭腦最引以為傲的是什么?是我們永不枯竭的創(chuàng )新思維。如果人工智能在這方面超過(guò)我們又會(huì )怎樣?我的第一觀(guān)感是:不敢相信、不愿接受、不能認可。不過(guò)細思量之下,這一測試首先對創(chuàng )造性的描述和考察都有限,研究人員也強調了,它只是“獨立單項任務(wù)”的表現。但在現實(shí)世界中,我們的創(chuàng )造性的發(fā)揮是在復雜且多元交錯的環(huán)境中進(jìn)行的。而且,即便是這樣單項的考核中,人類(lèi)創(chuàng )意的最高點(diǎn),仍然是機器尚無(wú)法企及的。