生成式人工智能热此前在产业界掀起一股“百模大战”的热浪,不少企业纷纷斥资押注大模型。然而随着热潮逐渐淡去,各方也开始冷静下来。日前,第一财经记者从多方了解到,企业在大模型商业化落地,推动实际效益转化转化方面还存在诸多痛点。
在算力资源方面,沐曦科技创始人、董事长兼CEO陈维良对第一财经记者指出,大模型的训练、实施都需要巨大的算力,但当下算力的供给和需求之间存在着非常大的矛盾。“高效的算力正在支撑着生成式人工智能的发展,因此算力是一个基本需求,而如果我们不能降低AI的算力成本,实际上会限制它的推广程度。”陈维良认为,矛盾的解决路径就在于要进一步降低算力成本,提高GPU利用率。
国盛证券曾经估算,GPT-3训练一次的成本约为140万美元,对于一些更大的LLM模型,训练成本介于200万美元至1200万美元之间。今年1月平均每天约有1300万独立访客使用ChatGPT,对应芯片需求为3万多片英伟达A100GPU,初始投入成本约为8亿美元,每日电费在5万美元左右。
事实上,由算力短缺为大模型商业落地带来的问题远不是砸钱就能解决的。一位人工智能行业资深从业人士告诉记者,因受算力制约,多数大模型需要借助云端算力来帮助训练。但是,由于训练数据的敏感性,多数企业仅愿意将大模型的训练数据留存在本地部署,而这就构成了一对无法调和的矛盾。
此外,在闪马智能创始人、董事长兼CEO彭垚看来,算力成本高昂只是当前大模型商业化落地过程中的痛点之一。他指出,目前市场上的很多大模型都已经具备了很大数据量,甚至一些开源的模型已经诞生,因此数据的积累就已经花费了大量的资金和时间。而在这一背景下,对很多应用型的企业来讲,接下来需要把已有的学术资源变成业务落地性的模型。
“这里面对企业蕴含着两大挑战,第一是算力投资,模型训练需要投入巨大的算力资源,这需要企业持续的资金支持;第二个挑战则是在如何形成在行业数据方面的优势,这考验着企业对落地行业的理解,例如怎样将非常专业的处理数据标注出来。”事实上,记者了解到,当前能够进行专业数据标注的人才并不多,业界多数跨行业的合作都是为了解决数据标注的问题。例如此前华为联合上海联通、华山医院等发布了医疗大模型Uni-talk。
日前,“小模型”的概念也开始进入人们的视野。其实,小模型的概念一直伴随着大模型而存在,只不过此前大模型的概念过于如日中天罢了。在业界不少人士看来,“小模型”或能够在大模型之外提供一种更为经济的解决方案。
从概念上看,小模型并不是与大模型概念相对立的存在。根据任拓大数据研究院院长苏迭的定义,大模型从技术和训练内容来看位于生成式人工智能的最底层,对大模型训练的作用是建立基本的认知,让其具有泛化能力。这可以通俗理解为小学通识教育,会识字,会加减乘除。
而大模型之上还有中模型和小模型。中模型是基于大模型通过学习行业数据而建立的,对于中模型的训练集内容主要是某个具体行业的领域特征,类似中学的学科教育,历史地理,物理化学。
位于最顶端的是场景小模型,类似大学专业,土木工程、航空航天、工商管理。它是一种任务模型。小模型是基于中模型以及具体场景的数据而建立的,并且可以利用每家企业实际业务数据精调模型,帮助企业解决具体工作中问题。
从训练参数量来看,与大模型几十上百亿的训练参数量相比,小模型则更加聚焦于具体行业,训练参数量也会相对小得多。此前微软曾推出过一款训练参数量仅13亿的小模型产品ocra。而另一方面,从训练的角度来看,小模型的训练可借助端侧算力设施,在本地化部署的同时能够保证数据的安全。
对于品牌来说,大模型成本惊人难以入手,而行业中模型虽然能更垂直,但每家企业、每个品牌的应用场景各不相同,实际操作起来仍困难重重。唯有更具体的小模型,既“接地气”地直接指向实际场景,又成本可控,让企业品牌们能够在当前降本增效的大趋势下,兼顾布局。有业内人士对记者指出,当前市面上多数所谓的“大模型”产品从训练参数的定义来看应该是“小模型”。这些产品主要聚焦医疗、工业、电商等垂直领域。
上述业内人士对记者表示,大模型尽管具备强大的的学习能力和知识储备,但是高昂的训练和推理成本往往让企业望而却步。此外,大模型推理时延大,能耗和碳排放高等问题,也都限制了它在终端侧的使用。不过,小模型在应用时也存在数据标注的问题,相关人才的短缺问题依旧需要解决。
原创文章,如若转载,请注明出处:https://www.ncdyrs.com/n/41105.html