本报记者 许 洁
见习记者 刘霄引
4月11日,阿里巴巴集团董事会主席兼首席执行官、阿里云智能集团首席执行官张勇对外表示,让计算成为公共服务是阿里云始终不变的追求。
此前的4月7日,阿里云自研大模型“通义千问”开始邀请用户测试,引发市场关注。4月11日,阿里云智能首席技术官周靖人正式宣布推出大语言模型“通义千问”。
天使投资人、知名互联网专家郭涛在接受《证券日报》记者采访时表示,“通义千问”能够持续提高阿里生态圈的竞争力,在市场营销、客户服务、运营管理等领域不断为企业赋能,进一步提高效率、降低成本,助力企业高速发展。
赋能企业降本增效
张勇表示,阿里巴巴所有产品未来将接入大模型,全面升级。“要建设全新的AI开放生态,需要从阿里内部开始,目前,钉钉、天猫精灵已经在测试接入大模型,钉钉能实现自动写工作方案、生成应用等功能,天猫精灵接入‘通义千问’后显著提升了智能化水平。”
阿里云也将面向企业提供更普惠的AI基础设施和大模型能力。
据周靖人介绍,未来每一家企业在阿里云上既可以调用“通义千问”的全部能力,也可以结合企业自己的行业知识和应用场景,训练自己的企业大模型。比如,每家企业都可以有自己的智能客服、智能导购、智能语音助手、文案助手、AI设计师、自动驾驶模型等。
全联并购公会信用管理委员会专家安光勇对《证券日报》记者表示,“企业可以基于‘通义千问’开发智能对话系统,提供更便捷、智能的客户服务、产品推荐、用户互动等应用,提升用户体验和黏性,拓展业务边界。‘通义千问’还可以应用于市场调研、舆情分析、用户情感分析等领域,为企业决策提供数据支持和智能分析。”
“‘通义千问’部分能力能够达到GPT3.5的水平,尤其是其代码生成能力,虽然还有不足,但至少能解决一些问题。”浙江大学国际联合商学院数字经济与金融创新研究中心联席主任、研究员盘和林对《证券日报》记者表示。
相比于ChatGPT,“通义千问”在面向企业客户时或更有作为。郭涛认为,ChatGPT是通用型AI大模型,在企业级与消费级市场均拥有广泛的应用场景,而“通义千问”是阿里巴巴整合商业资源和技术积累推出的产业版AI大模型,为企业自身生态体系或垂直行业赋能,更多聚焦企业级市场。
让算力更普惠
事实上,阿里在云计算方面已进军To B领域。据了解,OPPO、复旦大学、南方电网等企业机构已经开始使用阿里云的算力和AI能力进行全新的AI探索。在阿里云的大模型魔搭社区上,超过100万开发者累计下载了超过1600万次各类模型,并直接调用阿里云的算力和一站式的AI大模型训练及推理平台。
在大模型技术层面,阿里同样具备深厚储备。国盛证券研报认为,阿里达摩院深耕NLP领域,在大模型技术路径上具备多年前瞻技术积累。
早在2019年,阿里达摩院就启动了大模型研发,在超大模型、语言及多模态能力、低碳训练、平台化服务、落地应用等多个方面,为中文大模型的发展做出一系列探索工作。
AI大模型加速了智能时代的到来,张勇表示,所有企业在智能化时代都将站在同一条起跑线上,互联网公司和非互联网公司不存在先进或者落后的区别,传统企业有弯道超车的机会。“所有产品都值得用大模型重做一遍,未来将看到应用爆发、效率革命,AI将成为各行各业新型生产力。”
据介绍,未来十年,阿里云将全面拥抱智能化时代。张勇表示,智能化时代带来算力的爆发,同时也提出了更高的要求,为此,阿里云希望做好核心两件事:让算力更普惠、让AI更普及。
在张勇看来,云计算是AI大规模普及的最佳方式。“未来,我们希望在阿里云上训练一个模型的成本,能够降低到现在的十分之一,甚至是百分之一。即使是中小企业,也能通过云平台获得AI大模型的能力和服务。”
本报记者 许林艳
“国产AI大模型”成为近日的热门词汇。
随着多家上市公司官宣进入AI大模型领域,国产AI大模型的关注度不断提升。投资者互动平台上也“热闹非凡”,多家上市公司被询问是否会推出大模型产品、有没有为大模型产品提供技术支持等。大模型的热度由此可见一斑。
浙商证券表示,在ChatGPT背后,不断迭代的GPT系列使得大模型成为当下科技企业核心竞争力的重要体现,未来,大模型将成为AIGC时代的核心支撑。
国产AI大模型竞争开启
仅4月10日,就有多家上市公司发布在大模型领域的最新进展。昆仑万维宣布,公司与奇点智源合作自研、能够真正实现智能涌现的国产大语言模型——“天工”3.5发布在即,并将于4月17日启动邀请测试。据昆仑万维介绍,“天工”大模型已经非常接近ChatGPT的智能水平。消息发布后,4月11日,昆仑万维收涨9.5%,报45.76元/股。
同日,商汤科技对外发布了“日日新SenseNova”大模型体系,推出自然语言处理、内容生成、自动化数据标注、自定义模型训练等多种大模型及能力。软通动力也在互动平台上表示,在数据业务方面,公司正在开展多模态大模型的研究,并已将其应用于例如风险识别等以图、文、视为一体化数据源的综合管理业务领域。
4月11日,阿里云正式发布自研大模型“通义千问”。此前,华为云人工智能领域首席科学家田奇也介绍了盘古大模型的进展及应用,着重介绍了CV大模型和科学计算大模型的应用范例。还有多家公司透露了发布大模型产品的计划。国产AI大模型已呈“百舸争流”之势。
中信建投证券研究所所长武超表示,大模型在整个生态中的定位,类似于智能手机时代的操作系统或应用商店,这一领域最终能领跑的龙头公司有望达到万亿元级市值,但竞争也会非常激烈。
“我国AI产业偏重于视觉识别技术的研发和应用,近年来,视觉识别已经到了一个瓶颈期。近期,以自然语言处理为核心的GPT大模型崛起,给AI企业带来了新的发展思路。因此,许多公司开始向大模型方向布局。”深度科技研究院院长张孝荣在接受《证券日报》记者采访时表示。
“大模型与传统人工智能相比,能够更有力地促进传统行业的智能转型。国内大型互联网企业也基本认为大模型的开发是面向未来的一个重要机遇。”北京社科院研究员王鹏对《证券日报》记者表示,此外,以ChatGPT为代表的大模型推出以后,市场的关注度非常高,上市公司在这一领域布局新的业务条线,能够有效获取市场关注,有利于企业的未来发展。
算力芯片领域受关注
大模型发展的背后除了海量数据之外,还需要庞大的智能算力支撑。
国际数据公司(IDC)等发布的数据显示,2022年我国智能算力规模达到268百亿亿次/秒,超过通用算力的规模;预计未来5年,我国智能算力规模的年复合增长率将达52.3%。
智能算力的发展与算力芯片息息相关。“GPU芯片是加大AI算力的核心。目前适合构建大模型的算力芯片就是GPU芯片。”张孝荣说。
王鹏也认为,“大模型对算力的要求很高,传统芯片相对低端化,算力有限。高端化的芯片比如GPU,其算力速度相对更快,有利于大模型的训练。”
不过目前,我国GPU芯片的发展还面临着一些阻碍。据张孝荣介绍,一是限于美国政府禁令,我国企业当前无法获得最先进的英伟达GPU;二是英伟达GPU价格昂贵,供应中国的单块芯片价格在1万美元至2万美元之间,而一个大模型需要数万块GPU,以此推算,算力投入至少需要几十亿元人民币,成本巨大。
“国家有关部门需加大政策扶持,进一步推动智能计算中心的建设运营,推进智能算力相关领域的发展,加强顶层设计和统筹规划,尽快解决算力芯片领域的瓶颈问题。”中国电子商务专家服务中心副主任、知名互联网专家郭涛对《证券日报》记者表示。
上市公司正在积极推进算力芯片领域建设。4月11日,甬矽电子在互动平台表示,公司正在积极研发与算力芯片相关的封装技术及产业应用。此外,中兴通讯总裁徐子阳曾在业绩说明会上透露,公司将于今年年底推出支持ChatGPT的GPU服务器。