科大讯飞星火认知大模型宣布全面开放注册使用。记者注意到,近期已有多个国产大模型产品宣布正式面向公众开放服务。与此同时,不少企业也纷纷加快大模型面向工业、金融、政务、教育等行业应用。
接受《经济参考报》记者采访的专家表示,相关新进展释放出积极信号,即大模型行业进入规范健康发展的新阶段。这意味着我国人工智能大模型将获得更大的数据规模、更广泛的应用空间、更快速的技术迭代机会。
9月5日,科大讯飞宣布讯飞星火认知大模型面向全民开放,用户可以在各大应用商店下载“讯飞星火”APP或登录“讯飞星火”官网直接注册使用。此前,来自百度、商汤科技、百川智能、中科院等多个科技企业或科研机构自主研发的人工智能大模型宣布正式面向公众开放服务。与此同时,一些企业也表示其大模型已完成备案工作,将陆续开放。
近段时间,我国相关企业和科研机构加快布局人工智能大模型,但此前它们一直未面向公众开放。8月15日正式实施的《生成式人工智能服务管理暂行办法》(下称《暂行办法》)提出,利用生成式人工智能产品向公众提供服务前,应按照《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》向国家网信部门申报安全评估,并按照《互联网信息服务算法推荐管理规定》履行算法备案和变更、注销备案手续。
“《暂行办法》的实施和人工智能大模型陆续向公众开放服务,释放出积极的信号,即整个行业进入规范健康发展的新阶段。”赛智产业研究院院长赵刚对《经济参考报》记者表示,国产大模型将接受更广泛行业用户的测试和使用,产生更多面向消费者的场景和商业模式,同时在规范、安全和遵从AI伦理的前提下获得更好的发展,激发国产大模型自主研发活力和加快行业落地应用。
赛迪顾问人工智能产业研究中心分析师杜欣泽对《经济参考报》记者表示,这体现出我国以开放的态度推动生成式人工智能发展,鼓励企业在合规的前提下向公众开放服务,将加速其商业闭环的形成。
在多个人工智能大模型密集宣布正式面向公众开放服务的同时,不少企业也纷纷加快人工智能大模型面向工业、金融、政务、教育等细分行业的应用。
9月5日,百度智能云千帆大模型平台宣布实现2.0全面升级,并公布月活企业数已近万家,覆盖金融、制造、能源、政务、交通等行业的400多个业务场景。百度公司相关负责人表示,深度学习框架和大模型构成了产业智能化基座,将支撑各行各业的应用智能化重构。未来将加快政务、金融、工业、交通等垂直行业应用。此外,在正在举行的2023年中国国际服务贸易交易会上,记者看到,来自通信、金融、教育等行业的大模型应用纷纷亮相。
根据赛迪顾问研究显示,仅2023年1月至7月,我国就有共计64个大模型发布。截至2023年7月,我国已累计发布130个大模型。
“从大模型应用类型分析,国产大模型呈现出行业大模型占比较高的发展形态,我国大模型的发展更加贴近产业端。”杜欣泽表示,经过近十年的人工智能产业发展,我国涌现出一批专注于金融、医疗、教育、工业等垂直行业的人工智能赋能企业,通过深度参与到客户业务流程中,深耕行业并充分了解行业知识,逐渐形成了行业壁垒。
展望下一步,我国将进一步加快通用人工智能创新和发展。工信部日前表示,将结合全球通用人工智能发展的新态势,会同相关部门加快研究制定产业政策,进一步明确产业发展目标和重点任务,引导各界集聚资源形成发展合力。同时,将围绕算力、算法、数据、框架等底座技术加大创新攻关,加快推进软硬件适配,构建从智能芯片到算法框架到大模型的全栈式产业链。
赵刚认为,下一步行业大模型研发将带动企业级市场更加专业化细分化,市场呈现出百舸争流的态势。他建议,要结合技术的特点和各个应用方向,提前做好前后端贯穿的机制设计,规划好技术路线。在安全合规发展的前提下,持续推动产品的更快速迭代,创造更优的用户体验。支持开源社区建设,构建具有全球竞争力的产业生态。
8月31日,首批11家通过《生成式人工智能服务管理暂行办法》备案的AI大模型名单亮相。这些大模型将陆续向用户开放,并不断接受反馈进行迭代,成为各行各业广泛使用的数据服务平台。
从规模上看,第二批备案的大模型也在加快上市步伐。9月1日,国家互联网信息办公室发布了《关于第二批深度合成服务算法备案的信息公告》,公告显示,第二批深度合成服务共计110个算法信息完成备案。
这是一个关键节点,也被业内看作历史性机遇。9月份以来,大模型论坛和闭门会议层出不穷。面对广阔的市场前景,相关企业和机构纷纷投入人力物力财力,试图抢占先机。
笔者认为,深耕大模型市场,首先要明确应用场景。新技术一旦进入商业化阶段,抓住需求扩大需求是第一位的。在激烈的大模型竞争中,部分机构选择“先入场再看路”,边做边改、边研发边挖掘客户需求,导致用超高成本的大模型解决低级问题。
在大模型准确度还不够高、构架还不够稳的背景下,研发上先要明确应用场景,是做通用大模型还是行业大模型?是面向B端还是面向C端?
当前大模型的主要商业场景集中在B端,这是基于规模化、规范化、实现难度等因素做出的抉择。现阶段,深耕B端企业客户是务实之举。当模型不断精调、算力成本大幅下降后,未来的AI明星应用必将诞生于C端。例如ChatGPT快速迭代,也是基于海量的C端用户基础,并经过一轮轮测试和完善才实现的。
其次要考虑算力投入的边界。毫无疑问,大模型之战的第一道坎是算力比拼。不同时期的算力标准是不一样的:去年10亿参数的模型就能称为大模型;随着入局者不断加码,目前大模型参数动辄上千亿。大模型有足够多的参数才能呈现出“智能涌现”效应,进而在各个场景下具备通用能力。甚至有观点认为,1万张顶级显卡才算是跨进了大模型的门槛。
公开资料显示,GPT-4的模型拥有近1.8万亿参数、13万亿训练数据,其训练一次的成本高达6300万美元。因此笔者认为,相对同质化竞争严重的通用大模型而言,成本投入相对较小的垂直大模型还有巨大的市场机遇。
尽管中国大模型发展如火如荼,但与以OpenAI(美国人工智能研究公司)为代表的一线机构相比,还存在不小的技术差距。中国需要抓紧时间,缩小与强者的差距。笔者建议,在政策支持层面,一是要加强对高端算力的支持,降低应用开发门槛;二是要加码人才培养,促进高校与企业通力合作,产学研协同创新。正如百度集团副总裁侯震宇接受媒体采访时所言,大模型也不是投一笔钱、做一个模型那么简单,它需要有算力、有数据、有经验丰富的AI工程师在好的研发平台上长期积累。
今年是大模型向上突破的一年,ChatGPT让人们看到了大模型的巨大潜力,也推动了大模型的迭代进程。可以预见,基于我国庞大和多样化的用户基础,我国大模型和其他AI技术将走向成熟,推动全社会向智能化和数字化转型。