國際期刊發(fā)表DeepSeek大規(guī)模推理模型訓(xùn)練方法 揭示AI背后的科學(xué)
中新網(wǎng)北京9月18日電 (記者 孫自法)作為一家專注于大語言模型(LLM)和通用人工智能(AGI)技術(shù)的中國公司,DeepSeek(深度求索)今年早些時候發(fā)布的開源人工智能(AI)模型DeepSeek-R1采用的大規(guī)模推理模型訓(xùn)練方法,頗受關(guān)注。
北京時間9月17日夜間,該訓(xùn)練方法在國際知名學(xué)術(shù)期刊《自然》上線發(fā)表,其揭示AI技術(shù)背后的科學(xué)研究表明,大語言模型的推理能力可通過純強化學(xué)習(xí)來提升,從而減少增強性能所需的人類輸入工作量。訓(xùn)練出的模型在數(shù)學(xué)、編程競賽和STEM(科學(xué)、技術(shù)、工程、數(shù)學(xué))領(lǐng)域研究生水平問題等任務(wù)上,比傳統(tǒng)訓(xùn)練的大語言模型表現(xiàn)更好。
論文通訊作者為DeepSeek創(chuàng)始人梁文鋒,他領(lǐng)導(dǎo)的DeepSeek-AI團隊表示,讓AI模型像人類一樣進行推理一直是難題,雖然大語言模型已顯示出一些推理能力,但訓(xùn)練過程需要大量計算資源。通過人工提示引導(dǎo)可改進這類模型,促使其生成中間推理步驟,從而大為強化其在復(fù)雜任務(wù)中的表現(xiàn)。不過,這個方法會導(dǎo)致計算成本過高,并限制其擴展?jié)摿Α?/p>
DeepSeek-AI團隊介紹說,DeepSeek-R1包含一個在人類監(jiān)督下的深入訓(xùn)練階段,以優(yōu)化推理過程。該模型使用了強化學(xué)習(xí)而非人類示例來開發(fā)推理步驟,從而減少了訓(xùn)練成本和復(fù)雜性。DeepSeek-R1在被展示優(yōu)質(zhì)的問題解決案例后,會獲得一個模板來產(chǎn)生推理過程。這一模型通過解決問題獲得獎勵,從而強化學(xué)習(xí)效果。
在評估AI表現(xiàn)的數(shù)學(xué)基準測試中,DeepSeek-R1-Zero和DeepSeek-R1得分分別為77.9%和79.8%。此外,該模型在編程競賽及研究生水平的生物學(xué)、物理和化學(xué)問題上同樣表現(xiàn)優(yōu)異。
《自然》同期發(fā)表國際同行專家的“新聞與觀點”文章指出,當前版本的DeepSeek-R1有一些能力限制,希望能在未來版本中得到改進。例如,該模型有時會混合語言,目前只針對中文和英文做了優(yōu)化;它對提示詞也很敏感,需要精心設(shè)計的提示詞工程,在某些任務(wù)上沒有展現(xiàn)出明顯提升,例如軟件工程任務(wù)。
DeepSeek-AI團隊總結(jié)認為,未來研究可以聚焦優(yōu)化獎勵過程,以確保推理和任務(wù)結(jié)果可靠。(完)