不断发布优秀产品和创新,同时让每个人都可以使用它们。以用户为中心,通过优质产品和服务,让用户的生活更为精彩! 坚持”利他”文化,做对用户和社会有价值、有长期利益的事情。在产品开发过程中,保持开放的心态
<小 伸进 国产:重新构想国内产品设计的发展思路与策略方向>
{随机干扰码}{随机干扰码}
AI导读
印度 AI 实验室 Sarvam 发布两款新一代 MoE 架构大语言模型,小型 30B-A1B 支持 32K 上下文,大型 105B-A9B 支持 128K,在印度语言测试中超越谷歌 Gemini 2.5 Flash,广泛基准表现优于 DeepSeek R1 和 Gemini Flash。
内容由AI智能生成
IT之家消息,印度 AI 实验室 Sarvam 当地时间本月 18 日在印度人工智能影响力峰会上发布了 2 款“从 0 构建”的最新一代 MoE 架构大语言模型。这两款模型即将在 Hugging Face 上以开源权重的形式提供,API 访问和仪表盘支持也将随后推出。
Sarvam 两款新模型中的较小型号采用 30B-A1B 设计,预训练数据集规模达 16T,支持 32K 上下文窗口,面向需求低延迟的实时应用场景;规模较大的型号则采用 105B-A9B 设计,支持 128K 上下文窗口,面向要求更为严苛的用例。
Sarvam 宣称其 105B-A9B 模型在本地化的印度语言基准测试中优于谷歌 Gemini 2.5 Flash 等竞争对手。而对于更广泛的工作负载,其“大多数基准测试中优于 DeepSeek R1,许多基准测试中优于谷歌 Gemini Flash”。
2026-03-20 13:44:13AI导读
印度 AI 实验室 Sarvam 发布两款新一代 MoE 架构大语言模型,小型 30B-A1B 支持 32K 上下文,大型 105B-A9B 支持 128K,在印度语言测试中超越谷歌 Gemini 2.5 Flash,广泛基准表现优于 DeepSeek R1 和 Gemini Flash。
内容由AI智能生成
IT之家消息,印度 AI 实验室 Sarvam 当地时间本月 18 日在印度人工智能影响力峰会上发布了 2 款“从 0 构建”的最新一代 MoE 架构大语言模型。这两款模型即将在 Hugging Face 上以开源权重的形式提供,API 访问和仪表盘支持也将随后推出。
Sarvam 两款新模型中的较小型号采用 30B-A1B 设计,预训练数据集规模达 16T,支持 32K 上下文窗口,面向需求低延迟的实时应用场景;规模较大的型号则采用 105B-A9B 设计,支持 128K 上下文窗口,面向要求更为严苛的用例。
Sarvam 宣称其 105B-A9B 模型在本地化的印度语言基准测试中优于谷歌 Gemini 2.5 Flash 等竞争对手。而对于更广泛的工作负载,其“大多数基准测试中优于 DeepSeek R1,许多基准测试中优于谷歌 Gemini Flash”。
2026-03-20 13:44:13AI导读
印度 AI 实验室 Sarvam 发布两款新一代 MoE 架构大语言模型,小型 30B-A1B 支持 32K 上下文,大型 105B-A9B 支持 128K,在印度语言测试中超越谷歌 Gemini 2.5 Flash,广泛基准表现优于 DeepSeek R1 和 Gemini Flash。
内容由AI智能生成
IT之家消息,印度 AI 实验室 Sarvam 当地时间本月 18 日在印度人工智能影响力峰会上发布了 2 款“从 0 构建”的最新一代 MoE 架构大语言模型。这两款模型即将在 Hugging Face 上以开源权重的形式提供,API 访问和仪表盘支持也将随后推出。
Sarvam 两款新模型中的较小型号采用 30B-A1B 设计,预训练数据集规模达 16T,支持 32K 上下文窗口,面向需求低延迟的实时应用场景;规模较大的型号则采用 105B-A9B 设计,支持 128K 上下文窗口,面向要求更为严苛的用例。
Sarvam 宣称其 105B-A9B 模型在本地化的印度语言基准测试中优于谷歌 Gemini 2.5 Flash 等竞争对手。而对于更广泛的工作负载,其“大多数基准测试中优于 DeepSeek R1,许多基准测试中优于谷歌 Gemini Flash”。
2026-03-20 13:44:13AI导读
印度 AI 实验室 Sarvam 发布两款新一代 MoE 架构大语言模型,小型 30B-A1B 支持 32K 上下文,大型 105B-A9B 支持 128K,在印度语言测试中超越谷歌 Gemini 2.5 Flash,广泛基准表现优于 DeepSeek R1 和 Gemini Flash。
内容由AI智能生成
IT之家消息,印度 AI 实验室 Sarvam 当地时间本月 18 日在印度人工智能影响力峰会上发布了 2 款“从 0 构建”的最新一代 MoE 架构大语言模型。这两款模型即将在 Hugging Face 上以开源权重的形式提供,API 访问和仪表盘支持也将随后推出。
Sarvam 两款新模型中的较小型号采用 30B-A1B 设计,预训练数据集规模达 16T,支持 32K 上下文窗口,面向需求低延迟的实时应用场景;规模较大的型号则采用 105B-A9B 设计,支持 128K 上下文窗口,面向要求更为严苛的用例。
Sarvam 宣称其 105B-A9B 模型在本地化的印度语言基准测试中优于谷歌 Gemini 2.5 Flash 等竞争对手。而对于更广泛的工作负载,其“大多数基准测试中优于 DeepSeek R1,许多基准测试中优于谷歌 Gemini Flash”。
2026-03-20 13:44:13AI导读
印度 AI 实验室 Sarvam 发布两款新一代 MoE 架构大语言模型,小型 30B-A1B 支持 32K 上下文,大型 105B-A9B 支持 128K,在印度语言测试中超越谷歌 Gemini 2.5 Flash,广泛基准表现优于 DeepSeek R1 和 Gemini Flash。
内容由AI智能生成
IT之家消息,印度 AI 实验室 Sarvam 当地时间本月 18 日在印度人工智能影响力峰会上发布了 2 款“从 0 构建”的最新一代 MoE 架构大语言模型。这两款模型即将在 Hugging Face 上以开源权重的形式提供,API 访问和仪表盘支持也将随后推出。
Sarvam 两款新模型中的较小型号采用 30B-A1B 设计,预训练数据集规模达 16T,支持 32K 上下文窗口,面向需求低延迟的实时应用场景;规模较大的型号则采用 105B-A9B 设计,支持 128K 上下文窗口,面向要求更为严苛的用例。
Sarvam 宣称其 105B-A9B 模型在本地化的印度语言基准测试中优于谷歌 Gemini 2.5 Flash 等竞争对手。而对于更广泛的工作负载,其“大多数基准测试中优于 DeepSeek R1,许多基准测试中优于谷歌 Gemini Flash”。
2026-03-20 13:44:13女女流浆水:探讨女性间的特殊情感与体液的文艺隐喻呈现