科技峰会丨清华大学周伯文:多模态交互式AI正在成为趋势

21世纪经济报道 杨清清

人工智能技术正在持续演进中,多模态表征交互及大模型预训练模型均取得长足进步。

21世纪经济报道杨清清 北京报道

9月23日,由南方财经全媒体集团旗下《21世纪经济报道》主办的“2022年度21世纪科技峰会”正式召开。

在2022年度21世纪科技峰会“前沿科技篇”的主题演讲上,清华大学惠妍讲席教授、衔远科技创始人、IEEE/CAAI Fellow周伯文指出,近年来,人工智能技术正在持续演进中,多模态表征交互及大模型预训练模型均取得长足进步。

这也是周伯文团队重点关注的领域。周伯文指出,其在清华大学协同交互中心课题组的研究方向,主要是人工智能与以人为中心的世界和环境交互的过程中,如何不断迭代和自我学习,包括多模态表征交互、人机协同演绎、大小模型共同演化等方面。在这些研究方向的支撑下,周伯文团队更加关注可信赖AI的基本原则及新的人工智能范式,涉及可解释性、泛化性、鲁棒性等。

周伯文指出,当前随着人工智能技术的进步,构建跨场景、多任务、多模态的多模态基础模型已成为可能,它也成为了当前人工智能行业的热点与前沿。同时,在多模态融合之外,越来越多的应用在下游任务中引入自监督学习,提高多模态模型的表征能力,缓解缺少大规模监督数据的挑战。

此外,在多模态表征方面,当前业内也越来越多地引入知识表征及推理,通过强化模型的知识和推表征理能力,提高模型的可解释性。而随着多模态人工智能的进展,多模态交互式AI也成为一种趋势。

“传统研究大多是AI模型与数据之间的交互,各类预训练模型本质上是学习互联网上海量的不同模态数据的内在规律,但由于数据、算力等资源限制,从数据中学习的效果可能达到上限。这也就意味着,从交互中学习预计成为一种趋势。”周伯文判断道。

不过周伯文指出,在这个过程中,交互式AI同样面临数据和模型的问题,包括因数据导致的伦理问题、在真实世界中交互式AI使用时模型的可控性问题等,这些也仍是周伯文团队所致力于研究的方向。

(作者:杨清清 编辑:林曦)