9月份以来,互联网(互联网行业分析报告)大模型论坛和闭门会议层出不穷。面对广阔的市场前景,相关企业和机构纷纷投入人力物力财力,试图抢占先机。深耕大模型市场,首先要明确应用场景。新技术一旦进入商业化阶段,抓住需求扩大需求是第一位的。在激烈的大模型竞争中,部分机构选择“先入场再看路”,边做边改、边研发边挖掘客户需求,导致用超高成本的大模型解决低级问题。
在大模型准确度还不够高、构架还不够稳的背景下,研发上先要明确应用场景,是做通用大模型还是行业大模型?是面向B端还是面向C端?当前大模型的主要商业场景集中在B端,这是基于规模化、规范化、实现难度等因素做出的抉择。现阶段,深耕B端企业客户是务实之举。当模型不断精调、算力成本大幅下降后,未来的AI明星应用必将诞生于C端。例如ChatGPT快速迭代,也是基于海量的C端用户基础,并经过一轮轮测试和完善才实现的。
其次要考虑算力投入的边界。毫无疑问,大模型之战的第一道坎是算力比拼。不同时期的算力标准是不一样的:去年10亿参数的模型就能称为大模型;随着入局者不断加码,目前大模型参数动辄上千亿。大模型有足够多的参数才能呈现出“智能涌现”效应,进而在各个场景下具备通用能力。甚至有观点认为,1万张顶级显卡才算是跨进了大模型的门槛。
公开资料显示,GPT-4的模型拥有近1.8万亿参数、13万亿训练数据,其训练一次的成本高达6300万美元。相对同质化竞争严重的通用大模型而言,成本投入相对较小的垂直大模型还有巨大的市场机遇。
尽管中国大模型发展如火如荼,但与以OpenAI(美国人工智能研究公司)为代表的一线机构相比,还存在不小的技术差距。中国需要抓紧时间,缩小与强者的差距。笔者建议,在政策支持层面,一是要加强对高端算力的支持,降低应用开发门槛;二是要加码人才培养,促进高校与企业通力合作,产学研协同创新。大模型也不是投一笔钱、做一个模型那么简单,它需要有算力、有数据、有经验丰富的AI工程师在好的研发平台上长期积累。
今年是大模型向上突破的一年,ChatGPT让人们看到了大模型的巨大潜力,也推动了大模型的迭代进程。可以预见,基于我国庞大和多样化的用户基础,我国大模型和其他AI技术将走向成熟,推动全社会向智能化和数字化转型。