会上,张钹院士以《语言大模型(ChatGPT)的本质》为题,对聊天(对话)机器人的发展历史进行回顾,对语言大模型究竟要解决什么问题进行了探讨。张院士通过实例系统介绍了以微软小冰、IBM沃森等为代表的第一、二代聊天机器人的能力,以及以ChatGPT为代表的最新一代语言模型的语言生成能力,分析了人工智能实现对话或聊天的原理和本质,阐释了ChatGPT的性能、原理和局限性。
“ChatGPT语言跟人类自然语言生成原理最本质的区别是,ChatGPT生成的语言是外部算法驱动的,而人类的语言是由自身主观意图驱动的。GPT是将人类投喂的数据作为其接收的‘知识’来处理的,受制于程式算法的GPT,在处理这些外来‘知识’时,实际是不具备反思能力的。”谈及以ChatGPT为代表的AI大模型局限性,张钹表示,机器的“神经学习”并无相应的人类的心理过程,而只是机械的文字和数字符号的计算。
报告中他也补充称,随着数据、算法等核心要素的不断升级迭代,生成式大模型未来可能会突破人为限制,提升到自主创作层次,从理论上实现高质量内容生态的无限供给。但当前重要的是,需要对ChatGPT语言进行深入的研究和理解,而不是一味追求机器算法语言与人类自然语言的“对齐”。在张钹看来,某种程度上,生成式大模型正是机器认知智能发展到当下阶段的典型代表,这类智能和人类智能各有优劣,而在做大量“对齐”的治理后,大模型智能所生成的文本多维度和丰富性反而会下降,并不利于机器“智能涌现”的创新。他相信,只有人机认知协作才有可能应对未来社会或将带来的算力和认知挑战。
他同时还强调了对语言大模型实施必要的道德伦理监管及治理的重要性。