OpenAI新模型GPT-5研發(fā)未達(dá)預(yù)期:成本高昂 效果不佳快訊
OpenAI還利用其另一款模型o1生成合成數(shù)據(jù),旨在通過海量數(shù)據(jù)喂養(yǎng)來提升模型性能,OpenAI已先后完成了至少兩輪大規(guī)模的數(shù)據(jù)訓(xùn)練嘗試。
12月23日消息,據(jù)報道,人工智能領(lǐng)域的先鋒企業(yè)OpenAI在推進(jìn)其下一代核心模型GPT-5的開發(fā)進(jìn)程上遭遇了延期挑戰(zhàn),且當(dāng)前成果尚未充分驗證巨額投入的合理性。
據(jù)內(nèi)部消息透露,OpenAI已先后完成了至少兩輪大規(guī)模的數(shù)據(jù)訓(xùn)練嘗試,旨在通過海量數(shù)據(jù)喂養(yǎng)來提升模型性能。然而,首輪訓(xùn)練進(jìn)程較預(yù)期滯后,預(yù)示著更大規(guī)模的訓(xùn)練任務(wù)不僅耗時冗長,而且經(jīng)濟(jì)成本高昂。
盡管GPT-5相較于其前身展現(xiàn)出了一定程度的性能提升,但這些進(jìn)步尚未達(dá)到能夠充分論證其高昂運(yùn)維成本的地步。
在數(shù)據(jù)獲取策略上,OpenAI采取了多元化路徑,不僅廣泛利用公開數(shù)據(jù)與許可協(xié)議資源,還積極招募專業(yè)人員,通過編寫新代碼及解決復(fù)雜數(shù)學(xué)問題來創(chuàng)新數(shù)據(jù)內(nèi)容。此外,OpenAI還利用其另一款模型o1生成合成數(shù)據(jù),進(jìn)一步豐富其數(shù)據(jù)集。
值得注意的是,OpenAI首席執(zhí)行官薩姆·阿爾特曼(Sam Altman)此前已公開承認(rèn),隨著AI模型復(fù)雜度急劇上升,公司在多線程項目管理,尤其是計算資源的高效配置上,正面臨前所未有的挑戰(zhàn)。鑒于此,OpenAI已預(yù)計GPT-5將無緣下一年發(fā)布。
OpenAI首席產(chǎn)品官Kevin Weil進(jìn)一步闡釋了公司的當(dāng)前戰(zhàn)略重心,強(qiáng)調(diào)在推動視頻模型Sora進(jìn)入下一階段重大升級之前,公司將全力以赴,致力于提升模型的安全性、模擬精準(zhǔn)度以及計算規(guī)模的可擴(kuò)展性,確保各項標(biāo)準(zhǔn)均達(dá)到行業(yè)頂尖水平。(鹿角)
1.TMT觀察網(wǎng)遵循行業(yè)規(guī)范,任何轉(zhuǎn)載的稿件都會明確標(biāo)注作者和來源;
2.TMT觀察網(wǎng)的原創(chuàng)文章,請轉(zhuǎn)載時務(wù)必注明文章作者和"來源:TMT觀察網(wǎng)",不尊重原創(chuàng)的行為TMT觀察網(wǎng)或?qū)⒆肪控?zé)任;
3.作者投稿可能會經(jīng)TMT觀察網(wǎng)編輯修改或補(bǔ)充。