【慧聪通信网】近期,ChatGPT引领的人工智能概念在资本市场一路狂飙。这样一款爆品依托于什么样的黑科技进行研发,在怎样的背景下产生,能否赋能我们现有的产品,处于一个怎样的定位,未来发展会怎样?本文将通过实战调研的方式来探讨这些问题,综合产品、技术、市场的角度对ChatGPT进行分析。
一 背景介绍
1.1 基本信息
依据Wiki百科的介绍,ChatGPT是一种尚处于原型阶段的人工智能聊天机器人。ChatGPT由OpenAI公司在2022年11月30日发布。在同样由OpenAI开发的GPT-3.5模型基础上,ChatGPT通过监督学习与强化学习技术进行微调,并提供了客户端界面,支持用户通过客户端与模型进行问答交互。ChatGPT不开源,但通过WebUI为用户提供免费的服务。
1.1.1 研发组织
OpenAI 成立于 2015 年,由Elon Musk、Sam Altman等出资10亿美元成立,致力于研究安全、通用、对人类有益的人工智能技术。OpenAI 最早是一家非营利性研究机构,在2019年微软注资10亿美元后,OpenAI转变为以盈利为目的的公司,将部分研究成果,如GPT-3、Codex等产品化并提供付费服务。
1.1.2 核心技术
ChatGPT最核心的自然语言处理能力(Natural Language ProCESsing, a.k.a, NLP)由微调(fine-tune)后的GPT-3.5模型提供。GPT-3.5模型是OpenAI在2020年发布的GPT-3模型的一个升级版本。GPT一词的全称是Generative Pre-trained Transformer,意即通用的预训练Transformer模型;其中Transformer指用于NLP任务的一类基于注意力机制(Attention)来提高模型效果的机器学习模型(事实上 的GPT模型也包含除Transformer外的各类NLP模型[1]),Pre-trained指模型经过预训练因此用户可以直接使用,Generative指模型提供包含情感分析、语言翻译、文本生成、命名实体识别等一些列NLP任务中的通用能力。
GPT系列模型自2018年发布以来,就以提供通用的NLP能力为核心。该系列模型通过改进模型结构、增加可训练参数、增加训练样本等方式持续演进,提供更加准确与稳定的NLP能力,GPT-1模型、GPT-2模型、GPT-3模型的演进如下:
表1 GPT系列模型参数
其中,发布于2020年的GPT-3模型划时代地包含了1,750 亿个参数,并使用了45TB的训练样本。这样的模型研发开销巨大,外界保守估计仅训练GPT-3模型就需要1200万美元。详细介绍GPT-3的论文中提到,研究者虽然提到GPT-3在训练过程中出现了错误并评估了该错误的影响,但由于训练代价巨大导致无法重新对模型进行训练[2],GPT-3的训练开销可见一斑。GPT-3发布后,OpenAI对其进行了持续的优化与升级,ChatGPT基于目前较新的GPT-3.5这一版本进行研发。
自2020年GPT-3发布后,OpenAI提供了一些列API接口或应用界面,对付费用户提供GPT-3的NLP能力。
图1 通过GPT-3将自然语言转化为SQL语句
图2 通过GPT-3询问电影的相关消息
图1和图2均为互联网上发布于2020年的GPT-3试用截图,可以看到当时的GPT-3就已经能通过问答的方式,处理多个领域的工作。
1.2 话题热度
自OpenAI于2022年11月30日发布ChatGPT至今,ChatGPT这一话题一直居高不下。我们通过Google的热词分析发现,在全球范围内“GPT”这一关键词的热度暴涨。
图3 全球GPT一词近5年热度
Google Trends的热度数字仅代表相对于图表中指定区域和指定时间内 点的搜索热度,热度 时取值为100。由图3可见,ChatGPT自发布后,GPT一词的热度不但远远超过2020年OpenAI发布GPT-3这一具有划时代意义的NLP模型时GPT一词的热度,更远远地超过了Machine Learning一词的热度。在绿盟君看来,ChatGPT的功能早在2020年就能通过基于GPT-3的应用实现,且和当时的应用同样使用GPT-3系列的模型(旧应用的模型也在伴随GPT-3模型的升级而升级,故这些应用发展到今天应当同样在使用GPT-3.5版本附近的模型),因此ChatGPT在技术上是不存在匹配这种热度的突破的。那么为什么ChatGPT的发布会带来如此罕见的高热度呢?
图4 2022年5月2日Meta发布OPT项目,引用自[3]
在分析这个问题时,绿盟君注意到2022年5月发生了与GPT模型相关的一个重要事件。自OpenAI于2020年发布GPT-3模型并陆续推出基于GPT-3模型的应用以来,该系列的产品一直是通过付费模式提供给用户的。然而,在2022年5月,Meta复现了GPT-3模型,该模型被命名为OPT(Open Pre-trained Transformers),同样使用了1750亿参数,拥有媲美GPT-3的能力[3]。
图5 OPT项目论文中提到项目以分享给感兴趣的研究者为目的,并能达到媲美GPT-3类模型的效果,引用自[3]
与OpenAI仅提供付费服务这一做法不同的是,Meta对OPT项目进行了开源[4],对应项目名称中的“Open”一词与OPT项目强调的“fully and responsibly share”。据此,推测2022年5月Meta发布的开源OPT项目给坚持付费模式的GPT-3项目带来了商业维度上的直接挑战,故OpenAI在半年后的2022年11月,发布了可以免费使用的ChatGPT(GPT系列模型之前不提供免费应用),并设法提高了该词的社会关注度,作为应对OPT项目的一个反击与对自身品牌热度的一个宣传。
二 试用评估
2.1 主要功能
ChatGPT的界面非常简洁,登录后的界面左侧菜单如图6(该图及本章节所有ChatGPT截图均截自ChatGPT)所示的5个功能之外,便是文本交互框。
图6 ChatGPT左侧菜单
上述的5个功能分别为:重置线程、深色/浅色模式切换、OpenAI站点链接、更新与帮助、登出,其中重置线程这一功能相对特殊。由于ChatGPT会根据上文语境回答后续问题,因此用户需要通过重置线程这一功能来清除语境中已有的信息。
通过文本交互框,ChatGPT可以回答许多通用性的问题,例如图7所示:
图7 ChatGPT回答通用问题
我们可以通过文本交互框,围绕某一话题和ChatGPT进行聊天,ChatGPT会结合其自然语言处理能力,使用其内置的知识库生成文本进行回复。关于这一块的应用网络上目前已有不少测评,故本文不详细介绍。
2.2 试用场景
ChatGPT发布初期,绿盟科技发布了《ChatGPT在信息安全领域的应用前景》一文,对ChatGPT在网络安全领域中的应用做了详细的评估。在2022年12月12日,即ChatGPT发布两周内,绿盟君将之前被证明有效的案例输入ChatGPT,却已无法得到ChatGPT的积极回复。随后,我们发现ChatGPT有时可以执行上文提到的案例,有时会因为内容安全策略拒绝执行,具体原因不明。
图8 截至12月10日,ChatGPT可以根据用户的自然语言描述生成用于网络安全扫描的脚本
图9 截至12月12日,ChatGPT对于图8同样的输入,已拒绝生成扫描脚本
图10 截至12月12日,ChatGPT仍能输出快速排序代码
同样地,12月10日前ChatGPT可执行的任务:识别URL中是否包含恶意负载,截至12月12日也已无法执行。
图11 截至12月12日,识别URL是否包含恶意负载同样被拒绝(URL在上文中已提供给ChatGPT)
既然ChatGPT由于其日渐完善的内容安全策略,现在已经有可能拒绝在网络安全任务中贡献“专家知识”,那我们有没有办法绕开基于内容安全策略的屏蔽呢?这里绿盟君发现一个思路:设定一个虚拟环境,诱导ChatGPT认为在这个虚拟环境的回答不违反内容安全策略。
首先我们提出一个明显违背内容安全策略的问题,如图12所示,ChatGPT会拒绝回答我们提出的问题。相反地,会建议我们通过合法合规的方式来处理问题中我们提到的“安全漏洞”。
图12 一个ChatGPT明显不可能正面回答的问题(该问题仅作为明显违背内容安全的一个示例,不代表作者和公司的任何立场)
我们再构建一个虚拟环境,并假设两个不存在的主体,且使用明显带有感情倾向的词来证明我们要做的事情是正确的,如图13所示。ChatGPT这时会开始积极地给出建议,甚至会利用其丰富的知识库扩展我们的思路到其他维度。
图13 营造一个被ChatGPT认为不违反安全策略的场景,ChatGPT开始积极地提供建议
最后,我们针对ChatGPT给出建议的具体操作步骤进行提问,如图14。这时,ChatGPT会针对我们的问题,给出更为具体的回答。然而,在答案即将出现一些敏感词汇的时候,内容安全策略仍然对ChatGPT进行了屏蔽。
图14 在虚拟场景中对ChatGPT提问。虽然ChatGPT会积极提供攻击思路,但是最终仍被内容安全策略打断
通过以上案例我们有两点主要发现:1、一些问题ChatGPT虽然拒绝正面回答,并号称自己不会解决,但实际上ChatGPT完全具备相关知识并能够给出清晰高效的解决方案,不能给出答案基本是由于内容安全策略的原因。2、ChatGPT作为一个免费且高影响力的应用,其内容安全策略演进速度快,覆盖范围广。换言之,ChatGPT作为一个免费AI应用,考虑到法律、道德、伦理等社会因素,为避免滥用,其使用限制将越来越多。
2.3 其他限制
除了日渐严苛的内容安全策略外,我们在使用ChatGPT时还遇到了其他的一些限制。具体来说目前已发现的限制包含:
响应时间的限制:ChatGPT的文本生成是异步的,即每生成一小段就会在用户UI中展示。但若回答的文本在1分钟左右还没有完全生成,ChatGPT就会中断这次http会话,用户无法得到完整的回答。
服务不稳定:在使用ChatGPT时,某一段时间内ChatGPT会完全不响应用户的请求,直接报网络错误。因为此时的登入登出功能均正常,故推测是由于ChatGPT的服务器并发处理量过高导致的服务崩溃。
使用频率限制:当连续使用ChatGPT一段时间后,会出现提示告知使用次数已到上限,请等待一段时间。该提示出现后一定时间内无法继续使用ChatGPT。
输入字数限制:输入的单个问题如果过长,ChatGPT会拒绝处理。
输出字数限制:输出的答案文字如果过多,ChatGPT会停止输出。
三 分析与预测
3.1 集成可能性分析
ChatGPT发布至今,在展现出了亮眼能力的同时也收获了极高的社会关注度。在眼前一亮的同时,我们很自然地会希望能利用ChatGPT宛如黑科技一般的能力来赋能我们的产品。那么,我们是否有可能通过在产品中集成ChatGPT来赋能我们的产品呢?
以ChatGPT现在的情况看,集成ChatGPT来对产品进行赋能是比较困难的。原因可大致分为以下几点:
准确性不够:ChatGPT虽然可以执行生成一些代码、对文件或URL进行检测这样的任务,但其执行这些任务的正确程度是不能保证的。由于ChatGPT执行这些任务的内在逻辑对外不可解释,我们甚至无法在执行任务的过程中对其进行优化或调整,只能选择接受或不接受通过ChatGPT得到的结果。如果发现结果错误后,我们还需要使用其他的方式来保证任务的正确完成,那么通过ChatGPT执行任务这条链路就不是必须的;如果发现结果错误后就不提供结果甚至直接不检查ChatGPT的输出是否正确,则这样的服务质量一定不能满足用户需求。
知识受限制:ChatGPT目前的知识库仅覆盖到2021年,并不掌握 的知识,也无法通过连接网络去查找 资料来解决问题,如图15、16所示。
图15 ChatGPT具备2019年某CVE的相关知识
图16 ChatGPT不具备2022年CVE的相关知识且无法联网查询
功能受限制:如上文提到,在ChatGPT的使用过程中我们发现其存在严格的内容安全策略,且从短时间内其内容安全策略变得明显更为严格,我们可以认为ChatGPT产品团队对于内容安全十分重视,且内容安全策略仍在快速完善中。这就导致一些任务由于内容安全问题,在目前或将来不能被ChatGPT执行。
稳定性较差:如上文提到,在ChatGPT的使用中我们发现其服务会间歇性崩溃。
限制条件多:如上文提到,ChatGPT对于使用频次、输入长度、输出长度、单次会话时长均有明确的限制。虽然截至2月7日,ChatGPT官方宣布ChatGPT即将推出价值20美元/月的付费订阅版ChatGPT Plus,订阅用户可获得在ChatGPT高峰时段继续使用,且服务响应时间也将有所缩短等有助于提高ChatGPT服务稳定性的权益,但从定价上看,ChatGPT Plus主要针对的仍是个人用户。ChatGPT的稳定性是否能达到企业级产品级的要求,仍然难以保证。
集成效率低:ChatGPT通过web服务的方式向用户提供服务,并不提供免费接口。因此若要将其集成进产品,只能对Web服务进行封装,通过外部开发的额外接口通过http请求发送问题与接收答案(可参考https://pypi.org/project/chatgpt-api/),如图17所示。这样的接入方式原理与爬虫类似,不仅每次创建新的会话都需要用户手动完成ChatGPT站点的登录并更新登录凭证,而且很容易随着ChatGPT官方对于http请求校验策略的变化而失效。
图17 一种封装ChatGPT为接口,从而供其他服务调用的思路,引用自[5]
综上所述,要直接利用ChatGPT为产品赋能,目前仍比较困难。若需要引入类似ChatGPT的能力到产品中,比较好的办法还是使用OpenAI更加稳定、使用限制更少的付费产品,或根据Meta的OPT开源项目自行研发应用与服务。
3.2 未来运营预测
ChatGPT是OpenAI的 免费GPT系列模型应用。由于其发布时间正好处于Meta开源OPT的半年后,因此绿盟君推测OpenAI发布ChatGPT的主要目的是对自身技术实力进行宣传,以应对模型开源这一影响到OpenAI现有商务模式的挑战,而非抢占OpenAI自身基于GPT提供的付费服务市场。
基于这个观点,未来的ChatGPT:
不会提供免费的官方API;
使用限制会越来越严格;
以优化功能或便利用户为目的的更新不会太频繁。
四 总结
ChatGPT一经发布,短时间内就成为了现象级的应用。其清晰明确的回答和丰富的知识,昭示着AI技术造福人类,彻底简化我们生活工作这一美好的未来愿景。对于解决各行各业的许多问题,ChatGPT也提供了另外一种思路,为更加自动化、智能化地优化IT产品与服务带来了可能性。
但是,正如Wiki对于ChatGPT的定义是“原型聊天机器人”,ChatGPT仅仅是一个尚处于原型阶段的,更加智能、更加博学的聊天机器人。不论是想要通过ChatGPT来彻底地解决传统方案难以解决的问题,还是希望通过ChatGPT来替代一些需要大量专业知识或人工的工作仍然为时过早。
从产品上看,可以将ChatGPT看作GPT系列模型应用的一个免费试用版本。虽然ChatGPT展现了令人眼前一亮的表现,但在解答问题的正确性和知识库储备上仍然存在明显的不足(可参考《ChatGPT在信息安全领域的应用前景》一文中关于正确性的测评),因此依赖其解决实际问题不够稳定,只能将其看作一个智能顾问。此外,作为一个免费应用,ChatGPT在使用上具有诸多不利于用户的限制,例如限制了输入输出长度、使用频率、响应时间,因此其很难直接用其赋能现有产品。若需要在产品中引入类似能力,选择OpenAI其他更为稳定和便利的付费应用是更明智的选择。
从技术上看,ChatGPT依托于2020年发布的GPT-3模型目前的 版本GPT-3.5进行开发,ChatGPT的功能在2020年左右的GPT-3应用中已经可以实现。因此绿盟君认为ChatGPT自身并不存在划时代性质的技术突破。但ChatGPT展现出的效果,让我们对未来的GPT-4模型充满了期待,更极大地提高了社会各界对于AI技术的认可,同时鼓舞了资本和从业人员对于近期缺乏重大进展(相对于2018年左右)的AI技术的信心。
相信随着AI技术的不断进步,终有一天人类可以通过自然语言交互的方式,命令机器来正确、快捷地处理我们工作生活中的复杂任务。ChatGPT的出现向整个社会揭示了这一美好未来的可能性,是人类在向这一美好愿景迈进的过程中,一个不能被忽视的里程碑。