DeepSeek加速生成式AI產業邁入新階段:算力成長新動能與應用多元化
DeepSeek-R1發布後,有以下兩個重要的AI產業新趨勢值得關注。就算沒有DeepSeek-R1,這兩個趨勢終將顯著浮現,但DeepSeek-R1的出現,加速了趨勢發生。
- Scaling law邊際效益放緩時,AI算力仍可透過優化訓練方式持續成長並有利挖掘新應用。
- API/Token價格顯著下滑有,利AI軟體/服務與裝置AI,加速AI應用多元化。
趨勢一:Scaling law邊際效益放緩時,AI算力仍可透過優化訓練方式持續成長並有利挖掘新應用
- 過去1–2年,投資人對AI伺服器供應鏈的投資邏輯主要基於AI伺服器出貨量在Scaling law成立下可持續成長。然而,Scaling law的邊際效益正逐漸遞減,這讓市場更加關注DeepSeek透過Scaling law以外的方式顯著提升模型效益。
- 最常被引用之一的Chinchilla之Scaling law指出,AI模型性能由模型參數量 (N)、訓練資料量 (D) 與運算能力 (C) 三者決定,最理想的情境是N、D與C同時增加。
- Scaling law對提升模型性能邊際效益放緩原因:1) 人類創作的文本資料 (D) 幾乎已耗盡、2) 在運算能力 (C) 沒有大幅提升與訓練資料量 (D) 耗盡下,僅提升模型參數量 (N) 無助於模型效能、與 3) 運算能力 (C) 短期不易顯著提升 (原因如Blackwell系統尚未量產、電力供應限制等)。
- 從產業研究角度,DeepSeek-R1值得關注之處是該LLM透過優化訓練方式而非Scaling law顯著提升模型效益,這可由檢視與測試其開源成果驗證。
- Scaling Law 的邊際效益終有遞減時,此時透過優化訓練方式來提升模型效益,有利持續提升AI基礎建設的算力並挖掘新應用。對AI產業的長期發展而言,兩者缺一不可。
趨勢二:API/Token價格顯著下滑,有利AI軟體/服務與裝置AI,加速AI應用多元化
- 目前從生成式AI趨勢中獲利的方式,主要還是「賣鏟子」與降低成本,而非創造新業務或提升既有業務附加價值。
- DeepSeek-R1採取激進的定價策略,可免費使用且API/token定價最低者不到OpenAI-o1的1/100,此競爭壓力可能將帶動AI使用成本下滑。AI產業在中國市場競爭激烈,預期將見到其他中國廠商推出跑分優異的LLM且定價更為激進者。
- 近期AI供應鏈相關股票大幅修正,主因是投資人調整因Scaling law邊際效益放緩對AI伺服器出貨的負面影響,而非擔憂LLM服務供應商與CSP能否透過AI獲利,這是因為大部分投資人仍願意耐心等待獲利發生。
- AI軟體/服務與裝置端AI的成本,因API/Token價格下滑與訓練方法優化而降低,這有助於增加AI算力需求,並可降低投資人對AI投資能否獲利的疑慮。
- AI用量肯定會因為價格下滑而提升,但提升程度能否抵銷下滑幅度仍需觀察。此外,AI用量提升有助創造可獲利的商業模式,但這也並非絕對。不過,在投資人普遍仍願意耐心等待獲利出現時,上述顧慮目前可忽略。
結論:
- Scaling law是經驗法則,合理降低預期並理性看待反而有利長期投資趨勢。晶片升級 (C)、改善電力供應限制 (C) 與訓練導入更多多模態資料 (D) 等,都有利未來再加速Scaling law邊際效益。
- 只有大量部署者才會遇到Scaling law邊際效應放緩,這也再度驗證Nvidia的領先地位。等到Nvidia方案的Scaling law邊際效益再度加速時,預期屆時優勢將更為顯著 (vs. ASIC & AMD)。
- 近期GB200 NVL72量產不順,故此時調整Scaling law與AI伺服器出貨預期不是壞事。此次股價修正後,後續更有利反應GB300/Rubin利多。
- 一線CSP不會「只」因為有更好的訓練方式而砍資本支出,因為兩者不衝突。此時若放緩資本支出,等到Scaling law邊際效益再度加速時,就會落後競爭對手。
- 開放社群資源與中國競爭激烈環境,預期將見到其他中國廠商推出跑分優異的LLM且定價更為激進。屆時若LLM服務供應商還沒開始穩定獲利,獲利壓力將進一步承壓。
- 受益於API/Token價格顯著下滑,AI軟體/服務與裝置端AI將吸引更多投資人關注。而能否成為新的長期投資趨勢,取決於能否創造可獲利的商業模式。
- Nvidia仍是未來Scaling law邊際效益再次加速的贏家,但需關注短期GB200 NVL72量產問題與中長期美國的半導體出口禁令是否有變。
