IT之家 7 月 31 日消息,用戶(hù)所使用的語(yǔ)言對于大型語(yǔ)言模型(LLM)的費用有很大的影響,可能造成英語(yǔ)使用者和其它語(yǔ)言使用者之間的人工智能鴻溝。最近的一項研究顯示,由于 OpenAI 等服務(wù)所采用的的服務(wù)器成本衡量和計費的方式,英語(yǔ)輸入和輸出的費用要比其他語(yǔ)言低得多,其中簡(jiǎn)體中文的費用大約是英語(yǔ)的兩倍,西班牙語(yǔ)是英語(yǔ)的 1.5 倍,而緬甸的撣語(yǔ)則是英語(yǔ)的 15 倍。
IT之家注意到,推特用戶(hù) Dylan Patel(@dlan522p)分享了一張照片,展示了牛津大學(xué)進(jìn)行的一項研究,該研究發(fā)現,讓一個(gè) LLM 處理一句緬甸語(yǔ)句子需要 198 個(gè)詞元(tokens),而同樣的句子用英語(yǔ)寫(xiě)只需要 17 個(gè)詞元。詞元代表了通過(guò) API(如 OpenAI 的 ChatGPT 或 Anthropic 的 Claude 2)訪(fǎng)問(wèn) LLM 所需的計算力成本,這意味著(zhù)緬甸語(yǔ)句子使用這種服務(wù)的成本比英語(yǔ)句子高出 11 倍。
詞元化模型(即人工智能公司將用戶(hù)輸入轉換為計算成本的方式)意味著(zhù),除了英語(yǔ)之外的其他語(yǔ)言使用和訓練模型要貴得多。這是因為像中文這樣的語(yǔ)言有著(zhù)不同、更復雜的結構(無(wú)論是從語(yǔ)法還是字符數量上),導致它們需要更高的詞元化率。例如,根據 OpenAI 的 GPT3 分詞器 ,“你的愛(ài)意(your affection)”的詞元,在英語(yǔ)中只需要兩個(gè)詞元,但在簡(jiǎn)體中文中需要八個(gè)詞元。盡管簡(jiǎn)體中文文本只有 4 個(gè)字符(你的愛(ài)意),而英文有 14 個(gè)字符。