9月18日,硅基流动大模型服务平台首发上线蚂蚁集团百灵团队最新开源的Ling-flash-2.0。硅基流动平台上线的Ling-flash-2.0支持128K最大上下文长度,价格为输入1元/M Toke … Continue reading 硅基流动上线蚂蚁集团Ling-flash-2.0模型
标签: 上下文
硅基流动上线腾讯混元翻译模型Hunyuan-MT-7B
每经AI快讯,9月17日消息,硅基流动大模型服务平台已上线腾讯混元团队最新开源的翻译模型 Hunyuan-MT-7B。这是硅基流动上线的第 129 个模型。该模型支持 33 个语种互译,支持 32K … Continue reading 硅基流动上线腾讯混元翻译模型Hunyuan-MT-7B
推理算力“正在耗尽”?百万Token时代来临 产业打响新一轮竞逐
《科创板日报》9月13日讯 在AI浪潮中,模型参数增长和算力堆叠一度成为竞逐焦点。不过站在当下时点,当生成式AI开启规模化落地,战场已经转向推理:真实场景中海量数据的瞬间调用、百万Token的连续推理 … Continue reading 推理算力“正在耗尽”?百万Token时代来临 产业打响新一轮竞逐
阿里开源新架构Qwen3-Next,模型训练成本降9成,长文本推理吞吐提升10倍
每经杭州9月12日电(记者叶晓丹)9月12日,阿里通义发布下一代基础模型架构Qwen3-Next。Qwen3-Next针对大模型在上下文长度和总参数两方面不断扩展(Scaling)的未来趋势而设计,采 … Continue reading 阿里开源新架构Qwen3-Next,模型训练成本降9成,长文本推理吞吐提升10倍
月之暗面宣布Kimi K2模型更新,上下文长度扩展至256K
9月5日,月之暗面发布Kimi K2模型的最新版本0905,扩展上下文长度至256K,支持高达60-100 Token/s的输出速度。Kimi应用和网页版中的K2模型已全量升级到0905最新版。
阿里云百炼宣布部分模型 上下文缓存降价
硅基流动:上线DeepSeek-V3.1,上下文升至160K
据硅基流动消息,8月25日,硅基流动大模型服务平台上线深度求索团队最新开源的DeepSeek-V3.1。DeepSeek-V3.1总参数共671B,激活参数37B,采用混合推理架构(同时支持思考模式与 … Continue reading 硅基流动:上线DeepSeek-V3.1,上下文升至160K
DeepSeek线上模型版本升级至V3.1
DeepSeek线上模型版本已升级至V3.1,上下文长度拓展至128k。
DeepSeek线上模型版本升级至V3.1
每经AI快讯,8月19日,记者注意到,DeepSeek线上模型版本已升级至V3.1,上下文长度拓展至128k。
DeepSeek线上模型版本升级至 V3.1
《科创板日报》19日讯,《科创板日报》记者注意到,DeepSeek线上模型版本已升级至V3.1,上下文长度拓展至128k。(记者 黄心怡)
