IBM专家观点:从ChatGPT走红,谈企业需要什么样的人工智能——从“百事通”到“业务助手”

2023-2-24 11:50:37

 ChatGPT火爆出圈

最近几周,AI业界最大的新闻无疑是ChatGPT横空出世,从而引发的业界震动。市场上有大量的评论文章,有把它描述成无所不能的,大有代替人类职业之势;也有提出担扰,某些顶级学术杂志和知名高校已经明确限制AI作者发表论文和科研成果。

出于好奇,笔者也试用了ChatGPT。整体感觉对于一般的开放性问题,ChatGPT生成的回答文法结构完整,语言风格自然,比之前的聊天机器人有明显的进步。内容的准确性和完整性,往往能超过正常交流时大多数人的“第一反应”,更像是经过了一番思考并整理后的结果,条理清晰,很有启发。但对于专业性问题,尤其是需要逻辑推理的知识,ChatGPT并没有像网上文章说的那么出色,经常“张冠李戴”或者形式上像模像样但内容上却不知所云。

为什么会这样呢?我们可以问一问ChatGPT自己。

“ChatGPT是由OpenAI公司开发的一款预训练语言模型,旨在生成人类可读的文本。它通过读取大量的文本数据,学习了如何生成与语言相关的内容,并在输入一段文本时生成一段有关的文本输出……”

ChatGPT中的GPT的全称是的“Generative Pre-trained Transformer -即生成性预训练变换模型“。借用一位名叫#硅谷学霸Jolin 的技术教育博主对GPT模型的浅显解释,她说,以ChatGPT为代表的”生成性AI”是一项技术突破,之前AI学习大多聚焦于观测、分类和分析内容,而生成性AI则不限于分析现有数据,它可以生成新内容,可以根据需要生成新的代码、诗歌、文章和艺术品。ChatGPT是专注于文本内容的生成性AI。所谓“预训练”是指该模型已经在某些有限的数据集上进行了训练,事实上,ChatGPT已经学习了2021年6月以前人类编写和发布在互联网上的海量信息,而且是通过“监督学习”和“人类反馈强化学习”这两种技术进行的学习。Transformer是一个非常底层的AI机器学习的算法架构,是一种深度神经网络。从GPT-1到今天的GPT-3.5都是采用Transformer架构,而GPT模型的进化有赖于底层硬件超级算力的效率提升,以支持AI对更多、更大数据集的训练和学习[i]。

也就是说,ChatGPT是通过海量(约45TB [ii] )语料训练而掌握了语法和语义结构的成熟的大型语言模型(Large Language Model, LLM),其特色是文本生成能力很强,产生的文字风格和内容很像之前的输入,即人类语言。由于训练语料涉及面广,所以ChatGPT对各行各业的信息都有涉猎,总能略知一二,有时甚至回答得头头是道。对某些专业领域,比如编程,甚至可以产生准确的代码并直接运行。然而,若仔细观察,这些代码往往都是解决特定的小任务,代码风格似曾相识。若要完成一个创新的算法,或者复杂问题的编程,ChatGPT就无能为力了。

总体而言,这类通过学习语料来生成文本的AI模型,都是在学习过去,其目标是模仿过去,生成出几可乱真的作品,并不是真正意义下的创造未来。ChatGPT也不例外。作为助手,对思考的广度往往有帮助,对思考的深度却不尽然。

从聊天到业务助手

ChatGPT让我们看到了大型语言模型的未来。然而,在企业应用中,为了创造业务价值,这类对话形式的应用(ChatBot)则更多用于对外的“客户服务”或对内的“业务助手”方面。这就对此类模型提出更高的要求——

第一, 准确性和专业性

企业往往要求回答准确且专业,如果对答案没有把握,回答“不知道”也好过生成一大段丰富而无用的文字。

ChatGPT是一种“开放领域系统”(Open-domain system),类似的还有Google的Bard,它们都需要海量的信息输入和长时间的训练,能应付所有领域的对话,回答内容相关度高,对答自知,语法自然。

而企业级的ChatBot是一种“封闭领域系统”(Close-domain system),往往不是需要一个乖巧的“百事通”,而是需要专业领域可靠的“知识助手”。它的训练语料是有限的,包含企业内部文档和资料、专业领域知识库、外部该领域的相关文章等等,大量的资料都是不公开的。ChatBot能回答的问题也限定在专业领域的场景语境中。不必面面俱到,但求简练、精准、专业。

第二,主动式对话

碰到提问模棱两可的时候,企业应用往往要求通过主动引导式对话,甚至反问的办法,迅速澄清意图。然后,再给出明确的答案。这一点ChatGPT目前尚未做到,当问题模糊时,回答也模糊,提问者发现后,换一种问法,或者在对话中缩小范围,可逐步得到想要的结果。整个过程中,ChatGPT每次都是被动回答。

第三,后台集成能力

ChatBot往往作为企业对话的渠道入口,在提供服务时需要和企业大量的后台系统集成。比如:在识别意图后可以从数据库或大数据平台中自动收集相关数据,并进行分析和推理,得到客户所需的明确答案;或者启动一条指令或一个后台流程,帮助客户完成相关操作。

IBM Watson服务企业级AI应用

OpenAI从2018年以来长期坚持研发大型语言模型,通过不断迭代,从最初的GPT-1到目前的GPT-3,且今年会发行GPT-4。目前,在开源社区找到GPT-3模型,也为企业开展此类研究提供了范本。

ChatGPT对企业的吸引力是毋庸置疑的,多数企业都有意愿拥有一个自己的ChatGPT。然而,当前ChatGPT采用最新的GPT-3.5模型,含有千亿级参数,一次训练就要花费数百万美元[iii]。大多数企业不具备如此大的算力,但如果为了获得对话模型,把企业内部数据都上传到网上,利用公有云训练也会有安全顾虑。所以,企业主导训练一个定制版ChatGPT,无论从财力还是合规方面都会有障碍。

IBM Watson,也就是IBM企业级的人工智能,经过十多年的发展,从研究到实验,至今已经发展成为一套可以在红帽 OpenShift上任意运行的AI能力,以产品化的方式提供给用户,帮助企业整合和分析混合环境下分散而复杂的企业数据,从而实现数据驱动的预测性决策、智能自动化和基于企业内外适时数据和洞察的安全策略与响应。

今天IBM Watson已经应用于全球四万多企业用户的业务场景当中,为具有不同水平AI技能的用户提供尖端的AI能力,无论是缺乏AI技能却想通过AI重获时间效率的商务及专业人士(例如人力资源、财务、网络安全管理人员等),还是具备一定AI技能并且正在大规模使用AI的数据科学家、IT专业人员等。

IBM Watson提供了许多不同的工具和服务,用于解决多种问题。它涵盖了语言处理,解释、回答和生成文本等多种功能,以帮助客户解决商业问题。同时,它也提供了语音识别、图像识别等其它功能,使之成为一个非常强大和全面的人工智能平台。

长期以来,IBM Watson面向企业级AI应用,特别为企业定制“业务助手”类的对话式应用。基本上,Watson有语音文字转换、意图识别、对话流设计、文本分析、知识整理、情感分析等功能。使得Watson可以在通用的语言模型上叠加专业领域知识,并有意识地设计和引导对话方向。

Watson通过后台的机器学习、自然语言处理、文本生成、语音识别与合成、对话系统、知识图谱技术,可以分解文本结构,精准定位观点、事实、论据、逻辑关系等,早在数年前,采用IBM Watson技术的IBM人工智能辩手(Project Debater)[iv]就曾以它的机智幽默和高情商而惊艳业界,它可以针对任何一个预设话题,比如“国家应该为每个人提供基本收入”,临时选择正方或反方,与人类的辩论冠军选手进行对辩。今天的ChatGPT也可以达到这个效果。应该承认,其通用语言模型和文本生成技术所呈现的体验感受甚至可以超过Watson,令人惊艳,其开放的用户界面更是让大众能够亲身体验这种惊艳,然而Watson的专业性、可设计性、集成性则更适合企业级的业务定位。IBM把这种普适性的大型基础模型称为基础模型(Foundation model)[v],它利用迁移学习(Transfer learning)经过少量的专业训练,就能进入一个知识领域,并且得到新的启发,这一点非常像人类的学习过程,有广阔的应用前景,也是IBM今后研究的重点。

我设想,对于企业已有的Watson对话模型,也可以利用ChatGPT得到增强。可以是协同模式:当发现是专业领域的封闭式问题,可用原有Watson模型回答,当发现是开放式问题,可用ChatGPT回答。也可以通过竞争模式:一次生成多个答案,由人类做裁判,相互学习,共同提高。

总言之,ChatGPT将人机对话的体验提高了一个档次,利用强大的搜索和知识整理的能力,在问题回答的广度上往往很有启发,但深度不足。目前只能学习(Learn)人类语言和知识,还做不到思考(Think)推理,也难以驾驭高度创新和深度思考的任务。我认为,对于企业级的应用,融合ChatGPT与IBM Watson之所长,不乏为快速高效地应用AI 提升体验、创造价值之选。

( 作者:陈宇翔,IBM杰出工程师、大中华区客户成功架构师、大中华区金融行业首席架构师 )

本文作者简介:

陈宇翔先生现任IBM大中华区客户成功架构师,他是IBM杰出工程师(Distinguish Engineer), 也是IBM大中华区金融行业首席架构师。在近25年的IT 从业经历中,他主持了许多大型项目的解决方案设计和IT 架构设计,熟悉银行领域相关业务,是行业高级顾问。陈宇翔先生也是软件和技术专家,长期致力于软件推广工作。同时拥有IBM 高级工程师和资深架构师认证。

陈宇翔先生长期致力于“人工智能、云计算、物联网、量子计算”的技术推广,结合金融行业创新应用,是金融行业创新解决方案设计的领导者和实践者。

关于 IBM

IBM 是全球领先的混合云、人工智能及企业服务提供商,帮助超过 175 个国家和地区的客户,从其拥有的数据中获取商业洞察,简化业务流程,降低成本,并获得行业竞争优势。金融服务、电信和医疗健康等关键基础设施领域的超过 4000 家政府和企业实体依靠 IBM 混合云平台和红帽 OpenShift 快速、高效、安全地实现数字化转型。IBM 在人工智能、量子计算、行业云解决方案和企业服务方面的突破性创新为我们的客户提供了开放和灵活的选择。对企业诚信、透明治理、社会责任、包容文化和服务精神的长期承诺是 IBM 业务发展的基石。了解更多信息,请访问:https://www.ibm.com/cn-zh

参考资料

[1] OpenAI公司在GitHub上开源的GPT-3模型, https://github.com/openai/gpt-3 

[2] IBM致力于基础模型研究

https://research.ibm.com/blog/what-are-foundation-models

https://research.ibm.com/blog/molecular-transformer-discovery

[i] 至顶网2023年2月8日文章:《助力AI科研,IBM研究院打造Vela超级计算机》链接:https://server.zhiding.cn/server/2023/0208/3147388.shtml

[ii] 东吴证券研报分析认为,ChatGPT的模型经历从GPT-1到GPT-3的升级,优化主要来自算力增加。GPT-1、GPT-2和GPT-3在算法模型并没有太大改变,但参数量从1.17亿增加到1750亿,预训练数据量从5GB增加到45TB,其中GPT-3训练一次的费用是460万美元,总训练成本达1200万美元。虽然训练数据量和算力大幅增加使GPT-3有显著优化,但高额投入也使其只能走B端变现。信息源:第一财经2022年12月7日报道:《拳打谷歌ChatGPT火出圈!投资人称更需警惕投资泡沫化跟风》。信息源:https://www.yicai.com/news/101616572.html

[iii] 东吴证券研报分析认为,ChatGPT的模型经历从GPT-1到GPT-3的升级,优化主要来自算力增加。GPT-1、GPT-2和GPT-3在算法模型并没有太大改变,但参数量从1.17亿增加到1750亿,预训练数据量从5GB增加到45TB,其中GPT-3训练一次的费用是460万美元,总训练成本达1200万美元。虽然训练数据量和算力大幅增加使GPT-3有显著优化,但高额投入也使其只能走B端变现。信息源:第一财经2022年12月7日报道:《拳打谷歌ChatGPT火出圈!投资人称更需警惕投资泡沫化跟风》,https://www.yicai.com/news/101616572.html

[iv] 新浪新闻 2019年5月20日文章:《AI下棋还在喧嚣,AI辩论早已启航》链接:http://client.sina.com.cn/news/2019-05-20/doc-ihvhiqax9982923.shtml

[v] 至顶网2023年2月14日文章《IBM运用基础模型加生成式AI,展示开创性AI研究成果》链接: https://www.sohu.com/a/640755030_114765




本站所刊登的各种新闻﹑信息和各种专题专栏资料,均为北京在线版权所有,未经协议授权禁止下载使用。
Copyright © 2000-2013 www.bjingzx.com All Rights Reserved 编辑QQ:2383424132
编辑QQ:2383424132