不断发布优秀产品和创新,同时让每个人都可以使用它们。以用户为中心,通过优质产品和服务,让用户的生活更为精彩! 坚持”利他”文化,做对用户和社会有价值、有长期利益的事情。在产品开发过程中,保持开放的心态
<国产精品综合色区小说:展现当代本土多元故事与精彩角色的文学长廊>
{随机干扰码}{随机干扰码}
AI导读
谷歌推出轻量级AI模型Gemini 3.1 Flash-Lite,性能飙升2.5倍,价格低至每百万输入0.25美元,支持多模态理解与逻辑推理,还能自定义“思考深度”,兼顾效率与精准度。
内容由AI智能生成
IT之家消息,谷歌昨日(3 月 3 日)发布博文,宣布推出轻量级 AI 模型 Gemini 3.1 Flash-Lite,声称是其速度最快、最具成本效益的 Gemini 3 系列模型。
开发者目前可通过 Google AI Studio 中的 Gemini API 获取预览版,企业级用户也能在 Vertex AI 平台上同步体验。
价格方面,为大幅降低 AI 应用门槛,谷歌为该模型制定了极具竞争力的价格:每百万输入 Tokens 收费 0.25 美元,每百万输出 Tokens 为 1.50 美元。
在低售价的同时,Gemini 3.1 Flash-Lite 在性能方面实现大幅跨越。权威评测平台 Artificial Analysis 的数据显示,与前代 2.5 Flash 相比,新模型的首字响应速度(TTFT)暴涨 2.5 倍,整体输出速度同步提升 45%。这种极低延迟特性,让其成为构建实时响应体验的理想之选。
在各项核心能力测试中,3.1 Flash-Lite 展现出越级挑战的实力。该模型不仅在 Arena.ai 排行榜上斩获了 1432 分的 Elo 得分,更在多模态理解与逻辑推理测试中全面领先同级竞品。
具体而言,它在 GPQA Diamond 测试中得分率高达 86.9%,在 MMMU Pro 测试中达到 76.8%,甚至在多项指标上超越了体积更大的上一代 Gemini 2.5 Flash 模型。IT之家附上相关数据如下:
除了硬核的性能指标,3.1 Flash-Lite 还在 AI Studio 和 Vertex AI 中标配了创新的“思考层级(thinking levels)”功能。
这一机制支持开发者灵活控制模型在执行任务时的“思考深度”:
在处理海量翻译或内容审核等对成本极度敏感的基础任务时,开发者可调低思考深度以追求极致效率; 而在面临生成用户界面、构建数据看板或复杂逻辑模拟等高难度任务时,则可调高思考层级,激发模型更深度的推理能力。Latitude、Cartwheel 以及 Whering 等早期测试企业目前已率先将 3.1 Flash-Lite 部署于复杂的业务场景中。测试团队反馈称,该模型不仅具备卓越的处理效率和逻辑推理能力,还能以媲美大型模型的精准度处理复杂输入指令。
2026-03-20 17:46:03AI导读
谷歌推出轻量级AI模型Gemini 3.1 Flash-Lite,性能飙升2.5倍,价格低至每百万输入0.25美元,支持多模态理解与逻辑推理,还能自定义“思考深度”,兼顾效率与精准度。
内容由AI智能生成
IT之家消息,谷歌昨日(3 月 3 日)发布博文,宣布推出轻量级 AI 模型 Gemini 3.1 Flash-Lite,声称是其速度最快、最具成本效益的 Gemini 3 系列模型。
开发者目前可通过 Google AI Studio 中的 Gemini API 获取预览版,企业级用户也能在 Vertex AI 平台上同步体验。
价格方面,为大幅降低 AI 应用门槛,谷歌为该模型制定了极具竞争力的价格:每百万输入 Tokens 收费 0.25 美元,每百万输出 Tokens 为 1.50 美元。
在低售价的同时,Gemini 3.1 Flash-Lite 在性能方面实现大幅跨越。权威评测平台 Artificial Analysis 的数据显示,与前代 2.5 Flash 相比,新模型的首字响应速度(TTFT)暴涨 2.5 倍,整体输出速度同步提升 45%。这种极低延迟特性,让其成为构建实时响应体验的理想之选。
在各项核心能力测试中,3.1 Flash-Lite 展现出越级挑战的实力。该模型不仅在 Arena.ai 排行榜上斩获了 1432 分的 Elo 得分,更在多模态理解与逻辑推理测试中全面领先同级竞品。
具体而言,它在 GPQA Diamond 测试中得分率高达 86.9%,在 MMMU Pro 测试中达到 76.8%,甚至在多项指标上超越了体积更大的上一代 Gemini 2.5 Flash 模型。IT之家附上相关数据如下:
除了硬核的性能指标,3.1 Flash-Lite 还在 AI Studio 和 Vertex AI 中标配了创新的“思考层级(thinking levels)”功能。
这一机制支持开发者灵活控制模型在执行任务时的“思考深度”:
在处理海量翻译或内容审核等对成本极度敏感的基础任务时,开发者可调低思考深度以追求极致效率; 而在面临生成用户界面、构建数据看板或复杂逻辑模拟等高难度任务时,则可调高思考层级,激发模型更深度的推理能力。Latitude、Cartwheel 以及 Whering 等早期测试企业目前已率先将 3.1 Flash-Lite 部署于复杂的业务场景中。测试团队反馈称,该模型不仅具备卓越的处理效率和逻辑推理能力,还能以媲美大型模型的精准度处理复杂输入指令。
2026-03-20 17:46:03AI导读
谷歌推出轻量级AI模型Gemini 3.1 Flash-Lite,性能飙升2.5倍,价格低至每百万输入0.25美元,支持多模态理解与逻辑推理,还能自定义“思考深度”,兼顾效率与精准度。
内容由AI智能生成
IT之家消息,谷歌昨日(3 月 3 日)发布博文,宣布推出轻量级 AI 模型 Gemini 3.1 Flash-Lite,声称是其速度最快、最具成本效益的 Gemini 3 系列模型。
开发者目前可通过 Google AI Studio 中的 Gemini API 获取预览版,企业级用户也能在 Vertex AI 平台上同步体验。
价格方面,为大幅降低 AI 应用门槛,谷歌为该模型制定了极具竞争力的价格:每百万输入 Tokens 收费 0.25 美元,每百万输出 Tokens 为 1.50 美元。
在低售价的同时,Gemini 3.1 Flash-Lite 在性能方面实现大幅跨越。权威评测平台 Artificial Analysis 的数据显示,与前代 2.5 Flash 相比,新模型的首字响应速度(TTFT)暴涨 2.5 倍,整体输出速度同步提升 45%。这种极低延迟特性,让其成为构建实时响应体验的理想之选。
在各项核心能力测试中,3.1 Flash-Lite 展现出越级挑战的实力。该模型不仅在 Arena.ai 排行榜上斩获了 1432 分的 Elo 得分,更在多模态理解与逻辑推理测试中全面领先同级竞品。
具体而言,它在 GPQA Diamond 测试中得分率高达 86.9%,在 MMMU Pro 测试中达到 76.8%,甚至在多项指标上超越了体积更大的上一代 Gemini 2.5 Flash 模型。IT之家附上相关数据如下:
除了硬核的性能指标,3.1 Flash-Lite 还在 AI Studio 和 Vertex AI 中标配了创新的“思考层级(thinking levels)”功能。
这一机制支持开发者灵活控制模型在执行任务时的“思考深度”:
在处理海量翻译或内容审核等对成本极度敏感的基础任务时,开发者可调低思考深度以追求极致效率; 而在面临生成用户界面、构建数据看板或复杂逻辑模拟等高难度任务时,则可调高思考层级,激发模型更深度的推理能力。Latitude、Cartwheel 以及 Whering 等早期测试企业目前已率先将 3.1 Flash-Lite 部署于复杂的业务场景中。测试团队反馈称,该模型不仅具备卓越的处理效率和逻辑推理能力,还能以媲美大型模型的精准度处理复杂输入指令。
2026-03-20 17:46:03AI导读
谷歌推出轻量级AI模型Gemini 3.1 Flash-Lite,性能飙升2.5倍,价格低至每百万输入0.25美元,支持多模态理解与逻辑推理,还能自定义“思考深度”,兼顾效率与精准度。
内容由AI智能生成
IT之家消息,谷歌昨日(3 月 3 日)发布博文,宣布推出轻量级 AI 模型 Gemini 3.1 Flash-Lite,声称是其速度最快、最具成本效益的 Gemini 3 系列模型。
开发者目前可通过 Google AI Studio 中的 Gemini API 获取预览版,企业级用户也能在 Vertex AI 平台上同步体验。
价格方面,为大幅降低 AI 应用门槛,谷歌为该模型制定了极具竞争力的价格:每百万输入 Tokens 收费 0.25 美元,每百万输出 Tokens 为 1.50 美元。
在低售价的同时,Gemini 3.1 Flash-Lite 在性能方面实现大幅跨越。权威评测平台 Artificial Analysis 的数据显示,与前代 2.5 Flash 相比,新模型的首字响应速度(TTFT)暴涨 2.5 倍,整体输出速度同步提升 45%。这种极低延迟特性,让其成为构建实时响应体验的理想之选。
在各项核心能力测试中,3.1 Flash-Lite 展现出越级挑战的实力。该模型不仅在 Arena.ai 排行榜上斩获了 1432 分的 Elo 得分,更在多模态理解与逻辑推理测试中全面领先同级竞品。
具体而言,它在 GPQA Diamond 测试中得分率高达 86.9%,在 MMMU Pro 测试中达到 76.8%,甚至在多项指标上超越了体积更大的上一代 Gemini 2.5 Flash 模型。IT之家附上相关数据如下:
除了硬核的性能指标,3.1 Flash-Lite 还在 AI Studio 和 Vertex AI 中标配了创新的“思考层级(thinking levels)”功能。
这一机制支持开发者灵活控制模型在执行任务时的“思考深度”:
在处理海量翻译或内容审核等对成本极度敏感的基础任务时,开发者可调低思考深度以追求极致效率; 而在面临生成用户界面、构建数据看板或复杂逻辑模拟等高难度任务时,则可调高思考层级,激发模型更深度的推理能力。Latitude、Cartwheel 以及 Whering 等早期测试企业目前已率先将 3.1 Flash-Lite 部署于复杂的业务场景中。测试团队反馈称,该模型不仅具备卓越的处理效率和逻辑推理能力,还能以媲美大型模型的精准度处理复杂输入指令。
2026-03-20 17:46:03AI导读
谷歌推出轻量级AI模型Gemini 3.1 Flash-Lite,性能飙升2.5倍,价格低至每百万输入0.25美元,支持多模态理解与逻辑推理,还能自定义“思考深度”,兼顾效率与精准度。
内容由AI智能生成
IT之家消息,谷歌昨日(3 月 3 日)发布博文,宣布推出轻量级 AI 模型 Gemini 3.1 Flash-Lite,声称是其速度最快、最具成本效益的 Gemini 3 系列模型。
开发者目前可通过 Google AI Studio 中的 Gemini API 获取预览版,企业级用户也能在 Vertex AI 平台上同步体验。
价格方面,为大幅降低 AI 应用门槛,谷歌为该模型制定了极具竞争力的价格:每百万输入 Tokens 收费 0.25 美元,每百万输出 Tokens 为 1.50 美元。
在低售价的同时,Gemini 3.1 Flash-Lite 在性能方面实现大幅跨越。权威评测平台 Artificial Analysis 的数据显示,与前代 2.5 Flash 相比,新模型的首字响应速度(TTFT)暴涨 2.5 倍,整体输出速度同步提升 45%。这种极低延迟特性,让其成为构建实时响应体验的理想之选。
在各项核心能力测试中,3.1 Flash-Lite 展现出越级挑战的实力。该模型不仅在 Arena.ai 排行榜上斩获了 1432 分的 Elo 得分,更在多模态理解与逻辑推理测试中全面领先同级竞品。
具体而言,它在 GPQA Diamond 测试中得分率高达 86.9%,在 MMMU Pro 测试中达到 76.8%,甚至在多项指标上超越了体积更大的上一代 Gemini 2.5 Flash 模型。IT之家附上相关数据如下:
除了硬核的性能指标,3.1 Flash-Lite 还在 AI Studio 和 Vertex AI 中标配了创新的“思考层级(thinking levels)”功能。
这一机制支持开发者灵活控制模型在执行任务时的“思考深度”:
在处理海量翻译或内容审核等对成本极度敏感的基础任务时,开发者可调低思考深度以追求极致效率; 而在面临生成用户界面、构建数据看板或复杂逻辑模拟等高难度任务时,则可调高思考层级,激发模型更深度的推理能力。Latitude、Cartwheel 以及 Whering 等早期测试企业目前已率先将 3.1 Flash-Lite 部署于复杂的业务场景中。测试团队反馈称,该模型不仅具备卓越的处理效率和逻辑推理能力,还能以媲美大型模型的精准度处理复杂输入指令。
2026-03-20 17:46:03永久免费看片:【探索多元影视作品:每日精选优质内容推荐】