(资料图片仅供参考)
人民网北京6月12日电 (记者赵竹青)6月9日至10日,由北京智源人工智能研究院主办的2023北京智源大会在中关村举行,中外200余位人工智能顶级专家参会,共话通用人工智能发展机遇与挑战。
北京智源人工智能研究院院长黄铁军认为,实现AGI(通用人工智能)需要三条技术路线并进,当下大模型时代运用的是第一条技术路线,即大数据、自监督学习和大算力的合力。第二条技术路线是强化学习训练出来的具身模型,第三条路线是类脑人工智能。
针对当前“大炼大模型”的现状,黄铁军认为,大模型需要具备三个条件:一是规模要大,参数达百亿规模以上;二是涌现性,能够产生预料之外的新能力;三是通用性,不限于专门问题或领域,能够处理多种不同的任务。他强调大模型技术体系是共建共享,“我们要共建一个智力社会所需要的一套基础的算法体系”。
虽然当前大模型生成的内容质量在持续提升,但仍有专家对大模型路径存疑。图灵奖得主杨立昆认为,基于自监督的语言模型无法获得关于真实世界的知识,这些模型在本质上是不可控的,并提出了“世界模型”的概念。
今年以来,人工智能的发展出现了很大的变化,随之而来的是对安全风险问题关注度的陡然提升。未来生命研究所创始人迈克斯·泰格马克相信,人类能够控制人工智能,但相应地,也需要对其进行更多、更全面的研究。
他曾提出暂停人工智能研究6个月,对此他解释说,自己并非反对人工智能,相反,恰恰是因为看到了其潜力和可能带来的改变,才想要更谨慎、更负责任地进行研究,尤其是要在保障人类利益的前提下继续相关研究。
有“AI教父”之称的杰弗里·辛顿在主题演讲中讨论了一种新的基于硬件的有限计算,以限制他认为人工智能无限复制可能带来的威胁。但整体上,他依然认为AI的能力会很快超越人类,由此带来更大的威胁。
对于AI的安全性,OpenAI联合创始人山姆·阿尔特曼在“AI安全与对齐论坛”上通过连线再次呼吁:需要为AI构筑“安全护栏”,使之更好地服务人类。他预计,在未来的10年内,人类可能会拥有超强的AI系统,并表示,当前新技术改变世界的速度正在加快,考虑到这种紧迫性,人类应该提前做好准备。