英偉達(dá)推出新的小型語言模型Nemotron-Nano-9B-v2,擁有90億參數(shù),在同類基準(zhǔn)測試中表現(xiàn)最佳。該模型采用Mamba-Transformer混合架構(gòu),支持多語言處理和代碼生成,可在單個(gè)A10 GPU上運(yùn)行。獨(dú)特的可切換推理功能允許用戶通過控制令牌開啟或關(guān)閉AI推理過程,并可管理推理預(yù)算以平衡準(zhǔn)確性和延遲。模型基于合成數(shù)據(jù)集訓(xùn)練,采用企業(yè)友好的開源許可協(xié)議,支持商業(yè)化使用。