盡管國產大模型公司深度求索(DeepSeek)使得AI(人工智能)芯片龍頭英偉達股價暴跌,但英偉達依然給出高度評價。
當地時間1月27日,英偉達發言人表示:“DeepSeek是AI領域的一項卓越進步,也是測試時間縮放(Test Time Scaling)技術的完美范例。DeepSeek的工作展示了如何利用這種技術、廣泛可用的模型以及完全符合出口管制的計算資源來創建新型號。”
發言人補充道:“推理過程需要大量英偉達GPU和高性能網絡支持。我們現在掌握三種擴展規律:持續進行的預訓練與后訓練,以及新的測試時間縮放技術。”
值得注意的是,上述英偉達的表態也意味著,DeepSeek使用的GPU完全符合美國的出口管制要求。
其中,測試時間縮放技術是近來備受討論的一個話題。AI熱潮和對英偉達芯片的需求很大程度上是由“縮放定律(Scaling Law)”推動的,這是OpenAI研究人員在2020年提出的AI開發概念,通過擴展構建新模型所需的計算量和數據量來開發更好的AI系統。
而測試時間縮放技術指出,如果一個已完成完整訓練的AI模型在預測、生成文本或圖像時投入更多計算資源幫助其推理,相較于一味地縮短運行時間,模型將輸出更優質的答案。在R1模型之前,該技術已被應用于OpenAI的o1等模型中。
當地時間1月27日,美股三大指數收盤漲跌不一,英偉達(Nasdaq:NVDA)股價暴跌16.86%收于每股118.58美元,跌至過去10月以來的最低點;總市值2.90萬億美元,一日蒸發5900億美元(約合人民幣4.28萬億元),創史上最大單日個股市值蒸發紀錄。英偉達的暴跌也使得創始人黃仁勛的身家大幅縮水210億美元。
在英偉達的帶領下,美股半導體芯片板塊集體受挫,甲骨文下跌13.78%,超微電腦下跌12.49%,芯片制造商博通下跌17.4%,臺積電跌13%。隨著DeepSeek用更少的芯片、更低的成本實現了高性能的大模型,引發市場對AI科技巨頭估值的擔憂。
DeepSeek系量化巨頭幻方量化旗下大模型公司,1月20日,該公司正式發布推理大模型DeepSeek-R1。1月27日,DeepSeek應用登頂蘋果中國地區和美國地區應用商店免費APP下載排行榜,在美區下載榜上超越了ChatGPT。
推出后不久,R1就憑借其出色的性能、開源的性質、大幅下降的售價和訓練成本獲得了廣泛關注。更令市場驚訝的是,據DeepSeek介紹,R1的預訓練費用只有557.6萬美元,在2048塊英偉達H800 GPU(針對中國市場的低配版GPU)集群上運行55天完成。
英偉達方面的發言證明了,DeepSeek所使用的GPU完全符合出口管制規定。此前,OpenAI和Anthropic等AI初創企業一直在與谷歌、Meta等科技巨頭圍繞大模型展開激烈競爭,“大力出奇跡”的“燒錢”模式成為了在這些企業間流行的選項。而DeepSeek的橫空出世引發了對于“算力越多、能力越強”的質疑,震動了上游概念股。
外媒分析指出,如果DeepSeek的成功能夠鼓勵AI初創公司用更少的芯片構建強大的AI模型、并將它們更快地推向市場,那么英偉達的收入增長可能會放緩,因為大模型開發人員會復制DeepSeek使用數量更少且配置較低的AI芯片的策略。
美國銀行證券分析師Justin Post在27日的報告中寫道:“如果模型訓練成本被證明可以大幅降低,我們預計,使用AI云服務的廣告、旅游和其他消費應用公司將在短期內獲得成本效益,而長期來看,超大規模AI的相關收入和成本可能會更低。”
投行韋德布什資深股票分析師Daniel Ives表示,DeepSeek使用英偉達性能較弱的芯片構建出的大模型足以媲美OpenAI的ChatGPT和Meta的Llama 3.1,因此引起了美國科技股的波動。
不過,Ives強調,這對于投資者來說可能是一個買入的機會:“這是另一個黃金買入機會,而不是恐慌的時候。只有英偉達能推出自主研發、可用于機器人和更廣泛AI用例的芯片。DeepSeek的大模型雖然令人印象深刻,但不足以被視作威脅。為消費者使用推出具有競爭力的LLM模型是一回事,但推出更廣泛的AI基礎設施又是另一回事。”
接下來,市場將密切關注美國科技巨頭的業績表現,以及他們在AI方面的資本支出。1月末至2月初,亞馬遜、微軟、谷歌、Meta將集中披露財報。英偉達將在當地時間2月26日披露財報。