全国统一热线:400-650-6508

科普产业迎来新发展机遇

2025年02月18日    http://www.baogaoku.com   【字体:    

过去两年多,以OpenAI为代表的美国公司开启并引领了人工智能大模型投资热潮,因为不缺芯片芯片行业分析报告和算力,其主流思路是“越大越好”——以更强算力、更多数据训练更大的模型,来获得更高性能。这让大模型能源消耗巨大,训练成本惊人,也带来了商业推广难题:大模型投不起,小模型不好用。

DeepSeek改变了这一格局。他们在模型架构和训练过程中进行深度优化,在大幅降低计算资源消耗的同时,跻身世界顶级AI大模型之列,实现了“低成本”与“高性能”的兼得。同时,与OpenAI的闭源策略相反,DeepSeek免费开源其大模型,明示全部技术路线,更加推动了大模型技术从“奢侈品”向“日用品”的转变。

从技术进步角度看,低成本开源大模型开启竞争新赛道,AI的未来更值得期待。低成本是技术普及的基本要求,买得起才能让千家万户用得上。小汽车、个人电脑、手机的普及都是如此,人工智能产业大概也不会例外。这几年,企业界和科技界已经为降低大模型成本作出了大量努力,DeepSeek模型正是其中的杰出成果,证明“此路可通”。

但大模型价格还没有降到底。在降本增效这条路上,DeepSeek并非终点,而是一个新的起点。开源代码、开放API(应用程序编程接口)及训练方法,吸引全球开发者参与技术迭代。1月20日R1推出后,各国AI技术人员掀起“DeepSeek复现热潮”。有美国科研团队声称,仅用几十美元成本租用云计算资源,便复现了模型。

DeepSeek使用专家混合架构MoE实现了更高的成本效益。而就在2月12日,字节跳动豆包大模型团队宣布推出全新的稀疏模型架构UltraMem,优化了推理性能,使得推理速度较MoE架构提升了2倍至6倍,推理成本最高可降低83%。

网站导航
第一步 联系千讯报告库
第二步 双方签订服务合同
第三步 按照合同约定付款
第四步 交付报告
第五步 售后服务(一年)
全国统一热线:400-650-6508
       010-58672576 / 81
联系人:朱经理 韩小姐 刘小姐
邮  箱:qx@qx365.com