• 官方微信

    CA800二维码微平台 大视野

  • 工控头条

    CA800二维码工控头条App

当前位置:自动化网>自动化新闻>行业资讯>中国智库报告丨人工智能大模型井喷式出现是喜还是忧?

中国智库报告丨人工智能大模型井喷式出现是喜还是忧?

发布时间:2023-06-26 来源:央广网 类型:行业资讯 人浏览
关键字:

导  读:

央广网北京6月26日消息(记者张棉棉)当前,全球各国人工智能大模型已呈现白热化竞赛态势。以“ChatGPT”为代表的大模型扎堆出炉。中国电子信息产业发展研究院近日发布《赛迪智库观点丨冷观人工智能大模型热》。大企业蜂拥而上推出大模型的背后又潜藏着哪些问题?如何推动大模型相关技术的发展?又该如何建立健全大模型监管...,系统,人工智能,智能,智能,人工智能

央广网北京6月26日消息(记者张棉棉)当前,全球各国人工智能大模型已呈现白热化竞赛态势。以“ChatGPT”为代表的大模型扎堆出炉。中国电子信息产业发展研究院近日发布《赛迪智库观点丨冷观人工智能大模型热》。

大企业蜂拥而上推出大模型的背后又潜藏着哪些问题?如何推动大模型相关技术的发展?又该如何建立健全大模型监管机制?总台中国之声记者张棉棉对话课题负责人、中国电子信息产业发展研究院未来产业研究中心研究员、高级咨询师钟新龙。

智库文章:《赛迪智库观点丨冷观人工智能大模型热》

智库机构:中国电子信息产业发展研究院

报告作者:钟新龙中国电子信息产业发展研究院未来产业研究中心研究员、高级咨询师

知天文晓地理的超级学者群

人工智能大模型,是一种能够利用大数据和神经网络来模拟人类思维和创造力的人工智能算法。它利用海量的数据和深度学习技术来理解、生成和预测新内容,通常情况下有数百亿乃至数万亿个参数,可以在不同的领域和任务中表现出智能。比如,我们熟悉的“ChatGPT”就属于“大模型”。这种大模型究竟能做什么?它和过去的人工智能又有怎样的区别?

记者:人工智能大模型对很多人来说,还是很有陌生感,能不能用通俗的语言再帮我们解释一下,究竟什么是人工智能大模型?

钟新龙:现在业界把它定义为通用人工智能大模型,什么叫通用人工智能?就是相当于大众心中一个无所不答,随时随地有回应的超级学者集群,这是一个非常平易近人且近似于拟人化的工具。一般来讲大模型通过学习大量的数据,然后理解和生成日常所用的自然语言。

比如汉语和英语,就是人类社会所使用的自然语言,包括平常见到的图像、音频或者其他类型的数据。而大模型就像是巨大的超级学者集群,也像人类学习各种样例一样。好比我们学习标准的范文文章,看标准的示例图片,听典型音乐,看典型视频等各种维度的信息,以分析现在人类世界的信息组成。

记者:这样的超级学者集群和过去的人工智能有什么区别?现在的“大模型”是否就相当于人工智能AI的底层应用?

钟新龙:是的,可以这么讲。因为通常这样来分,以去年下半年为一个时间节点,在此之前人工智能主要还是决策式人工智能时代。举个简单例子,比如我们想做语音识别或者语音转文字,这个是日常用户都能碰到的,还有图片转文字等,这些人工智能应用都是比较单一的算法,针对单一的场景是特定性质的,不存在场景迁移的可能性。再举个例子,我能不能做所谓的算法,满足泛化的任务需求,传统的这种决策式人工智能就做不到,因为只能用在特定场景,按特定模式做。

从去年下半年ChatGPT为例的大模型火了之后,业界把它叫作“通用人工智能大模型”。它能解决比较泛化的问题,而且最重要的是不需要用程序语言,比如常接触的C语言、Python或Java等程序语言。这是一个很突出的优势,因为程序语言不符合日常大众的使用习惯,大家日常用语肯定是用自然语言交流,比如中文、英语等。以这种大模型为例,它可以使用日常语言进行交流,这样就没有门槛,大家人人都能用,有什么问题都可以直接问,几乎绝大多数问题都能得到“像模像样”的回答,这就是这种通用人工智能大模型跟过去决策式人工智能根本上的不同。

大模型热潮涌来,成本等隐忧值得警惕

目前,在大模型领域,国内外巨头的竞争已经白热化。OpenAI已成为引领大模型发展的标杆企业,预计今年四季度OpenAI将发布更为高级的ChatGPT-5版本。5月24日,微软宣布Win11接入GPT-4;5月10日,微软的直接竞争对手谷歌推出新一代大模型PaLM2,已有超过25个AI产品和功能全线接入PaLM2;亚马逊与人工智能初创公司HuggingFace合作开发ChatGPT竞品——BLOOM;国内科技龙头企业也在密集发布自研大模型;百度发布大模型文心一言;阿里发布首个超大规模语言模型通义千问。这些大模型密集涌现背后究竟看中了怎样的商业价值?同时存在的最大隐忧又是什么?

记者:能帮我们先总结一下现在的大模型普遍特点是什么?

钟新龙:第一,比较显著的趋势是业界开始用大模型做应用赋能。比如微软的Copilot的Office,就是微软3月底宣布的。他们把AI放到Office应用里面来,能做到最基本的应用底层支撑。比如可以用对话的方式一键生成PPT,比如下命令快速处理表格等。国内其实有对标的,金山现在应该都开始进行内部测试了,也就是把大模型处理能力内置于WPS里面。

第二,AI底层应用趋势就是垂直行业的赋能。举个例子,在国外,我们知道像BloombergGPT其实就是典型的大模型赋能金融行业。从未来看,几乎所有的行业领域都要面临大模型重构,都会把行业智能根基根植于大模型之上。

当然这需要迭代应用开发的过程,也还需要时间沉淀的过程,可能未来3年至5年都会长期向这个方向努力,这是国际上的发展情况。

记者:这些国内外的龙头企业为什么都蜂拥而至研发大模型?他们看中大模型的哪些优势?

钟新龙:目前可能产业界主要聚焦这个点,也就是大模型的商业价值。说白了,做大模型应用开发最终还是要看商业价值。

当前比较初级阶段的应用,比如把类似于GPT的大型语言模型,把它接入自动化的客户服务和自动化的流程办公系统,或者做一些固定流程、固定模板的辅助工作,这样可以显著地提升效率和降低成本。比如做美术插画、文档定制,还有商城的平台客户服务等都可以做大模型的底层接入,会比传统的较为机械式的人工智能,获得更高的可用性和更强的有效性。

另外,由于经过这么多年的积累,特别是信息化数字化的长达10年至20年如此长的时间积累,所以我们相比历史上任何一个时期,都有更多的数据可以用,这才是训练大模型成为可能的必备要素。大模型即便放到历史维度中提前的某一个时刻,可能因为数据不够,训练的效果会不太好。

最后,目前来讲,在人工智能领域,几乎所有的研究团队,包括头部企业都在竞争开发最先进的大模型,而且不少头部大模型都开始走向开源开放。我想这种竞争是一种良性的竞争,它有利于推动技术的发展,也有利于推动技术的共享。

记者:国内外大模型集中出现的背后,技术层面又是否存在隐忧?

钟新龙:第一,所谓的成本问题,从训练成本来看,以ChatGPT为例,其训练成本一次大概就是数百万美金。在高度迭代和反复训练过程中,入门的门槛都是上亿级别的,甚至不包括算力成本。如果要包括算力成本,比如数万、数十万的专业计算卡,这就是数十亿的成本。如此高昂的成本,会把很多小型的研究机构或者中小型的公司直接排斥在外,这就会导致AI的研究和开发都集中在头部资源里面,加剧了不平等现象。

第二,目前众多的大模型的训练,其竞争会导致大量的能源消耗,比如碳排放,包括电力消耗等,都增加了经济成本和环境成本。

第三,就是数据成本,一般做大模型训练肯定需要很多数据,不仅这个数据量要大,质量还要高。在这个过程当中,收集和清洗大量的高质量的训练集,也要投入大量的时间和人力资源。

第四,在人工智能竞争方面,也会有一些维护和更新成本。举个例子,以GPT为例,从GPT-2至GPT-4,其参数量不断增加,随之而来会有反复迭代优化训练的成本,运营维护成本也会随之增加。不仅更新成本在增加,同时运营方还得做维护,反复地维护运营和更新的成本,都是随着大模型的复杂性和参数规模增加而呈非线性增长。

解决隐私泄露、成本增加等问题需要多措并举

随着大模型的飞速发展,业内普遍看好大模型的未来前景,然而隐私泄露等风险成本不断出现。究竟该如何看待这样的风险?应用赋能成本如何实现回本和增量营收的商业路径?又该怎样解决这样的问题?

记者:很多人都担心大模型会泄露隐私,带来风险,在这方面怎么看?

钟新龙:举个很简单的例子,如果有这些相关的风险,而不做基本的防范和矫正,就会有潜在的犯罪风险因素。通过大模型获得违法犯罪的方法和途径,肯定要进行禁止的。目前来讲,本身大模型的训练,大家也会发现它里面好的训练集来源也存在一定的版权纠纷争议。

我们可以看到比如说以国外为例,像谷歌和OpenAI他们就跟这种新闻出版机构会有版权授权签署证明,这就说明它们实际上在训练数据集的过程当中,其实是存在版权纠纷问题的,所以这个也是风险问题。对目前来讲,大模型需要关注的治理体系,特别是伦理和法律治理方面,还有很多工作要做。

记者:针对以上问题以及非常突出的成本问题,是否有比较好的解决方案?

钟新龙:针对这些问题,第一,研究一下,看看有没有好的方法能够降低计算资源跟能源消耗。比如我们可以做一些研究,或者采用更高效的训练算法跟硬件优化,以减少计算资源和人员的需求。

第二,呼应AI过于向头部集中,是不是可以考虑建立一些公共的计算资源跟数据集,这些可以向公众或者向这个行业的普通从事者开放。这样就可以让更多的中小型研究机构或者公司参与到大模型的研究跟开发的过程。

第三,我们必须要注重数据隐私保护,包括在收集或者使用数据的时候,需要遵循数据隐私和保护相关的法律和伦理规定。比如我们要运用合理的数据脱敏和匿名化技术,然后制定与版权方相关的使用授权规则,同时拟定类似于用户明确同意声明和风险因素声明。

第四,应该尽可能提升大模型的可解释性。

我们回顾人类在做决定的时候,每一个决定都是有一个逻辑链存在的,我们都是一步一步去做决定,所以人类的决定是可以解释的,但大模型目前的生成结果不可解释,所以这就导致大模型目前在获取公共信任方面可能还有一些欠缺点。针对欠缺点,可以通过研究大模型的可解释性,从伦理上从底层机制上就可以获得社会和大众的信任,甚至在相关的治理方面也会有相关更安全可靠的手段进行治理。

最后,关于防止偏见和保护公平,这个是目前几乎所有的大模型都会碰到的一个核心问题。比如在数据的收集和训练阶段,可能存在一些歧视性、非公平性和价值观存在偏见等问题,也难免在生成内容中可能涉及这些问题。针对问题,可能需要去研究如何采取介入更加公平或者防歧视性以及价值观纠偏的算法,对数据和模型进行矫正跟审计。

本文地址:http://www.ca800.com/news/d_1o4qsptm5mpu1.html

拷贝地址

上一篇:张勇:人工智能应该“可用、可靠、可信”

下一篇:聚焦数字文明发展,构建安全可信的人工智能

免责声明:本文仅代表作者个人观点,与中国自动化网无关。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容!来源网络如有误有侵权则删。

猜您喜欢

更多精彩信息看点 请扫描以下二维码