强人工智能是潘多拉魔盒吗

“人工智能国际主流学界所持的目标是弱人工智能,也少有人致力于强人工智能。那么,这是不是因为强人工智能‘太难’,所以大家‘退而求其次’呢?不然。事实上,绝大多数人工智能研究者认为,不能做、不该做。”前段时间,南京大学教授、计算机软件新技术国家重点实验室常务副主任周志华发了篇文章,观点很鲜明——严肃学者都不该去碰强人工智能。

这似乎给人工智能的发展当头泼了盆冷水,但也可以很好地缓解霍金和马斯克们的焦虑。他们担心的威胁,实际上是来自强人工智能的威胁。如果人工智能限定在弱人工智能,则只会是人类乖巧而顺从的助手。

那么,强人工智能,真的是人类的潘多拉魔盒吗?

研究意识,人工智能界不能承受之重

周志华指出,所谓强人工智能,就是达到甚至超越人类智慧水平的人造物,它有心智和意识,能根据自己的意图开展行动,也可看作“人造智能”。

目前人工智能所取得进展和成功,都集中在“弱人工智能”。人们津津乐道的自动驾驶、下棋、机器视觉、专家系统等等,和强人工智能并无关系。周志华认为,也不用有关系——如果人们的目标是制造“工具”,那么考虑特定类型的智能行为就已足够,何必再去考虑独立意识?

而且,从实现难度上来讲,也没法考虑。

“要实现强人工智能,得先弄清楚人的智能是怎么回事。但研究人类智能的本质并不是人工智能学科的主要任务。”北京航空航天大学自动化学院副教授秦曾昌告诉科技日报记者,了解人的意识、情感是一个终极科学问题,确实很吸引人,但目前人工智能学界可能担不起解决这一问题的重任。

当然,不少生物学、神经科学等相关学科的研究人员,正在上下求索,试图揭开大脑的奥秘。在秦曾昌看来,强人工智能实现之路极其漫长,可能得先从模拟昆虫、鱼和哺乳动物的大脑开始,再一步一步进阶到对人脑的模拟。

“强人工智能还太远了。”秦曾昌说,“且不说我们现在对神经、大脑了解甚少,就算哪一天我们对它完全了解透彻,也未必就能复制出强人工智能。”

中山大学人际互联实验室主任翟振明更是认为,意识不是你想有,想有就能有。

“任何不以已经具有意识功能的材料为基质的人工系统,除非能有充足理由断定在其人工生成过程中引入并随之留驻了意识的机制或内容,否则我们必须认为该系统像原先的基质材料那样不具备意识,不管其行为看起来多么接近意识主体的行为。”这是翟振明提出的“人工智能逆反图灵判据”。他认为,没进入量子力学之前,所有人造机器都不会有真正的意识。

研究强人工智能,不妨提前制定规范

前路确实难,但它是否真的不可实现?

要继续讨论这一问题,又要回到强人工智能的定义。实际上,学界对何为强人工智能并没有统一看法。

北京邮电大学人机交互与认知工程实验室主任刘伟认为,人机融合的智能是强人工智能,而它在未来必然会实现。

人机融合,是让人的智能和机器的智能协同发挥作用。人有知识,机器长于采集数据;人有经验和常识,机器则长于进行公理推理;人有直觉,而机器长于逻辑。当人和机器有了足够默契,人能理解机器如何看待世界,而机器也能熟悉人的所思所想,未来的机器也可以有一些特殊特定的意向性(弥补人类认知的不足),而当两者成为搭档甚至知己时,强人工智能也就到来。

周志华认为,强人工智能的造物具有独立意识,它未必会甘心为人类服务,若强人工智能出现,人类将会面临巨大生存危机。刘伟则指出,如果强人工智能是人机融合的智能,那么做决策的永远是人,这就能巧妙解决悖论,也避免可能的“替代危机”。

“这件事情不是不能做,但我觉得需要特别谨慎。也就是说,当我们离揭开意识和智能的谜底已经很近的时候,我们确实需要慎重对待接下来发展的每一步。”秦曾昌强调。

那么,强人工智能的“盒子”需要一直捂住吗?

“说不要研究强人工智能,这就有些一厢情愿了。因为强人工智能是科学发展的必然趋势。”刘伟认为,强人工智能出现后,至于是被教好还是教坏,那要看人类自己的本事。“与其说不研究,不如呼吁相关部门着手思考未来可能面对的伦理问题,出台相应准则,将可能的危害减少到最小。”

加载更多>>
责任编辑:qn010