• 上海人工智能實驗室開源書生萬億科學大模型


    中國產業經濟信息網   時間:2026-02-11





      日前,上海人工智能實驗室宣布,開源基于“通專融合”技術架構SAGE打造的萬億參數科學多模態大模型Intern(書生)-S1-Pro,為AI for Science(科學智能)從“工具革命”的1.0階段邁向以“革命的工具”驅動科學發現的2.0時代,提供了系統性開源基座。


      上海人工智能實驗室主任、首席科學家周伯文提出,可深度專業化通用模型是實現通用人工智能(AGI)的可行路徑,其關鍵挑戰在于:專家化模型在訓練過程中需要低成本、能規模化的密集反饋;能夠持續不斷地學習與主動探索,并具備為同一個問題提供多視角、多種解決方案的能力;并能引入對物理世界規律的考量,兼顧多項差異化能力的學習效率與性能。


      作為全球開源社區中參數規模最大的科學多模態模型之一,Intern-S1-Pro的性能表現穩居全球第一梯隊。其通過多項SAGE基礎模型層的技術創新,拓寬了模型應用邊界、提升了超大規模訓練可行性,推進了可深度專業化通用模型的探索。


      為構建能更深層次理解物理世界規律的科學大模型,研究團隊引入了傅里葉位置編碼(FoPE)并重構了時序編碼器。FoPE為AI賦予了雙重視角:既能像看“粒子”一樣捕捉文字之間的相對距離,又能像分析“波”一樣把握科學信號的整體規律與頻率。科學數據與語言的差異還體現在多尺度上,基于能自動適應數據密度的時序編碼器,模型首次能統一處理從寥寥數個到百萬級采樣的各類信號,支持的分析對象從天文、地理直接拓展至生理信號、生物聲學等領域,從而實現感知能力的重大躍遷。


      為了高效訓練承載這些能力的萬億參數超大規模模型,研究團隊革新了其內部的“路由機制”。傳統方法存在訓練低效和算力浪費兩大痛點。新技術通過“路由稠密估計”,讓模型在高效運行的同時能進行更充分的學習,提升了穩定性;進而通過“分組路由”策略,像智能交通系統一樣使海量計算芯片實現負載均衡,避免了資源閑置。


      通過算法與系統的協同創新,Intern-S1-Pro同時攻克了超大規模模型訓練在“學習效率”和“資源調度”上的核心瓶頸,為高效、穩健地訓練下一代萬億參數模型提供了關鍵基礎。通過上述底層架構的創新,Intern-S1-Pro不僅在規模上刷新了科學多模態模型的參數規模上限,也為SAGE架構所提出的“通用能力與專業能力協同演進”提供了可落地的實現路徑。


      值得一提的是,Intern-S1-Pro驗證了從原創模型架構到國產算力基座自主技術的完整鏈路。模型從架構設計之初,就與昇騰計算生態確立了聯合研發路線,實現了從最底層的算子、編譯優化到上層的訓練、推理框架的深度全棧適配。此外,Intern-S1-Pro還與沐曦聯合研發利用模型加速算子適配,為開放共享、面向未來的科學智能基礎設施奠定了堅實基礎。(記者 吳蔚)


      轉自:經濟參考報

      【版權及免責聲明】凡本網所屬版權作品,轉載時須獲得授權并注明來源“中國產業經濟信息網”,違者本網將保留追究其相關法律責任的權力。凡轉載文章及企業宣傳資訊,僅代表作者個人觀點,不代表本網觀點和立場。版權事宜請聯系:010-65363056。

    延伸閱讀

    ?

    版權所有:中國產業經濟信息網京ICP備11041399號-2京公網安備11010502035964

    www.色五月.com