4月8日至9日,由中国人工智能学会主办的“人工智能大模型技术高峰论坛”在杭州萧山举行。本次活动设有一场主论坛,五场专题论坛。其中,联想控股与北京邮电大学共同承办了《大模型何大之有?——大模型技术、应用与展望专题论坛》的专题论坛,中国人工智能学会自然语言理解专委会副主任、联想控股副总裁、创新发展中心董事总经理于浩博士作为论坛主席主持会议。
据介绍,本次专题论坛瞄准大模型基础理论、技术热点、应用场景以及产业趋势,全面解读了大模型时代未来发展。来自产学研界的专家们围绕“AI大模型”展开深度研讨,全面解读人工智能“大”时代的技术趋势,启迪智能科技创新应用。从理论研究到技术创新,从场景应用到产业机遇,从安全监管到风险治理,上述嘉宾各抒己见,集思广益、凝聚共识,进一步深化人工智能大模型领域的交流与合作,为行业智能化发展与变革注入了新动能。
专题论坛期间,于浩与中国人工智能学会自然语言理解专委会副主任、苏州大学教授周国栋,以及国家工信安全中心高级工程师、国家智能语言创新中心首席专家张熠天博士共同进行圆桌话题讨论。以下为小编根据圆桌对话整理的部分精华内容,希望为您提供更多思考与借鉴,enjoy:
(△左2为中国人工智能学会自然语言理解专委会副主任、联想控股副总裁、创新发展中心董事总经理于浩博士)
于浩:学术界在前不久一直在讨论,认为ChatGPT出来之后,我们到底还能做什么方向?那么大模型是不是我们最后能用的一个“武器”?
周国栋:我觉得不应该是最后一个,而是第一个真正可用的工具。但是ChatGPT每使用一次成本大概一美元左右,这个代价还是太高。ChatGPT证明了大模型的一个可行性路径,但它肯定不是最佳路径。
张熠天:GPT的爆发,是多年的神经网络、深度学习等技术解决认知问题的一个‘涌现’。这个涌现基于模型的量大到一定的程度。按照OpenAI的框架,ChatGPT3.5模型1750万亿的参数相当于一个26层的神经网络。这个神经网络的模型类似于类脑应用,而1750万亿的参数可以在神经网络中建立一个大空间体系,相当于10000×10000×10000的立体空间,可以把互联网的数据灌进去。因为模型足够大,它可以把人类的认知形成一个知识图谱体系,并像摆放图书一样把不同的认知对应摆放到图书馆里不同的书架上。有了这样的机理,当大模型遇到不同的问题时,它可以调用并判断生成对应的词汇。
但是这种机理只是通过之前的认知来判断生成下一个词汇,而这个词汇只是一种聚类,选择一个就相当于是一个最优的选项,包括OpenAI也是这样来进行训练的。所以我觉得它的答案只是聚类找出一个结果,没有推理和因果,并没有达到通用认知的智能。
于浩:我一直有一个观点,就是我们一直在谈人工智能,包括机器到底能不能达到人类智能的水平。实际上这都是站在人的角度去评价机器。我们总拿碳基生物的逻辑思维去判断硅基生物,但我觉得也许就是“机器智能”,人类只是知道结果,并不知道机器是怎样得出结果的。这也许是一个很大的悖论。
此外我觉得包括ChatGPT在内的很多工具,只解决一个发现的问题,不能解决一个发明的问题。如果从‘0到1’的角度来看,它可能还是有些欠缺。但再继续发展下去是否能达到一个涌现来实现这种飞跃性的变化?
周国栋:认知机制包括自我学习和自我进化,两者存在一定的差别。自我学习并不能确保自我进化,但自我进化一定要自我学习。自我进化没有一个明确的指标来知道自己怎么做是好的,但ChatGPT的出现让我们能够去进行试验,这对我们今后研究更高层次的人工智能提供工具参考,以便我们能更好去理解机器模仿人类智能的机制。当我们理解透彻后,我们碳基生命就会成为硅基生命的引路人,最终相互合作、实现共存。
张熠天:理解一个科学问题的很好方式就是把它向大向小推到两个极端。在讨论大模型的基础上,我们把参数推到极大,比如参数量达到10兆级,那么这个超大模型的认知准确率能接近100%吗?如果继续放大,能超越人类的认知吗?我认为不能。因为以深度学习的框架来看,通用智能是机器的上限,并不会再飞跃或达到一个超越人类的人工智能。所以我认为机器不会有自我意识,这是它的边界。
周国栋:GPT3、GPT4基本上已经把网络上人类已有的通用知识全部虚拟进去了,但是多大程度上有效还是未知数。我们灌输给它的知识,它究竟能理解多少、表示多少,我们也不知道。
于浩:这其实是不可控的问题。GPT的学习、训练过程是‘黑箱’,我们控制不了。包括表示的结果也是不可控的。这种情况下,能否从大模型的角度去提供一种可控呢?
张熠天:确实在大模型下,我们要考虑对话、情感、认知、不同身份等问题,试图给机器加上一个更趋人类的认知去应用。但有一个问题,目前GPT的认知准确性达到了80%,如果机器具有自我意志来进行自训练的话,它在80%的基础上再指数级地提升80%,逐渐地会不会使这个认知接近100%?或者会不会在叠加80%的基础上出现偏差?这是一个问题。
另外一个极端,就是在错误的20%认知上,如果机器继续在这个基础上实现20%的错误叠加,或者说是一个负向认知的堆积,那么这种发展会不会是一种毁灭级的?
所以在当下我们的认知范围内,怎么去认知80%和80%的指数级正向叠加,以及20%和20%的指数级负面叠加,要想明白后才能走下一步,否则情愿停留在原地。
周国栋:我们可以根据人类的认知模式,抽象化各种场景,根据不同的场景来制定大模型的应用条件。我觉得这是很有效的。
于浩:之前网络上曾流传,有个患有抑郁情绪的用户跟ChatGPT聊天,结果机器顺着用户去聊天,最终导致用户自杀。正常来讲,ChatGPT应该马上叫停聊天或是建议他找心理医生去辅导,但这种所谓的“正向”聊天却造成了负面的后果。如何去判断、评价包括监管ChatGPT程序本身、数据和应用行为也是关注的一个重点。对此应如何看待?
张熠天:如果因为机器的智能化发展导致人类自杀,或者通过算法对人身权益产生侵害,那在某种程度上还是要给不可控的科技演变设置治理框架。就像核武器的核不扩散框架一样,要在机器发生涌现之前就先给它加上一个治理框架。
我们要让人类明确认识到,GPT与一些简单的机器回答有明显不同,它生成的结果已经超出了人类的基础认知,无法让我们判断这些答案究竟是人类给的还是机器自己给的。针对AIGC生成的东西,要明确地打上一个标签,告诉人类它是一个智能生成的结论,要意识到自身使用这个认知是有风险的。
所以我们必须是在可信可靠认知的框架下去发展大模型。在发展一项技术时,显然技术发展是比治理更快的,但我们治理的步伐、措施、手段、框架也不应该落后技术的发展。所以包括我们科学家、企业家在发展技术的同时,还要主动承担起治理责任,因为责任义务都是双向的。