首页 > 新闻 > 人物 > 正文

微软亚洲研究院院长:人工智能目前的局限在于无法解释因果关系

2019-09-06 22:38:43
字体:
来源:转载
供稿:网友


博鳌亚洲论坛2019年年会于3月26日开幕,在26日下午举行的以“数据:有待开发的巨大资源”为主题的分论坛上,微软亚洲研究院院长洪小文在发言中表示,人类需要的人工智能是“可解释的AI”,而不是只停留在What层面,而不知道Why层面的人工智能。

对此,洪小文以电子游戏为例说,一些射击类电玩可能会造成小孩产生暴力倾向,但到底是因为小孩本身就有暴力倾向才喜欢玩射击类电玩,还是反之。今天的人工智能可以处理二者之间的相关性,也就是可以解决What的问题,但是解决不了Why的问题,即谁为第一性,谁为第二性的问题。

洪小文认为,人类真正需要的是“可解释的AI”,人类做决定的时候也需要了解因果关系,虽然现在的AI还处理得不好,但他相信在未来十年内可能会有一些很好的突破,“这也就是为什么说今天的AI有一些局限性。”

《中国经济周刊》记者随后向洪小文提问,以DeepMind开发的AlphaGo为例,其对围棋已经有了一些超越人类的认识和领悟,其能下出一些人类棋谱上未曾出现过,但最终被证明是好棋的“妙手”,但人类可能对这些“妙手”无法理解,那么“可解释的AI”是否意味着将高智能“降维”,即将复杂的智力计算简单化?

洪小文给出的答案是,机器的能力在于“以繁至繁”,而人类的伟大在于“以简至繁”,“以简至繁”是一种“降维”的过程,但这种“降维”很有必要,将人工智能研究到“道生一”的境界,才能做出真正有利于人类的应用。
发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表