不可解释

看AI和人类下棋,真的非常有趣

如果说,奇点是机器达到超越人类智能临界点的假想时刻,那么无疑,围棋AI的奇点时刻已经来临。

尽管围棋仍然属于完美博弈,但对比象棋,围棋AI对智能的模仿已经是划时代的突破。

当然,始于2016年的AI热潮,似乎有些被高估了。人们对于新鲜事物,要么过冷,要么过热。

相当多的专业人士,对AI在未来数年的突破持相对谨慎的态度。

此前乐观派库兹韦尔似乎过于乐观了,他预测2045年,人工智能将全面超越人肉智能。

而孙正义甚至认为根据摩尔定律,2018年AI将超越人脑。

但并没有。

技术奇点,出自奇点理论。

该观点认为,人类正在接近一个使得现有技术被完全抛弃或者人类文明被完全颠覆的事件点,在这个事件点以后的事件就像黑洞的事件视界一样完全无法预测。

例如,意识上传技术可能使人类的意识摆脱有机体的约束,在这个奇点之后的人类文明是一种现在完全无法理解的水平。

不过,AI下棋的招法,基本逻辑还是和人类似,冷血如李昌镐,大胆革新如吴清源,天马行空如武宫正树,绞杀大龙如加藤正夫,灵活转身如马晓春……

不知道这算是理解,还是误解。

人类学下棋靠“可解释性”和计算。AI则只用计算和机器学习,不再依赖于人类的知识和棋谱,更别说什么棋理。

可以理解AI是靠自己完整了人类整个围棋发展史的“进化”。

反过来,人类的可解释性也有厉害的地方,人类靠这个实现了社会化的围棋知识进化。

此外,一个人一生可下的局数,对比起AI,少太多了。“可解释性”提供了大量的模块化知识。

但很多模块化知识,极可能是错的,不管是棋理,定式,还是一些著名棋谱的招法,人类一直奉为圭臬。

结果,被AI一一推翻。现在,很多职业棋手已经开始跟AI学棋了。

AI不用学任何人,更不依赖于可解释性,它只是为了某局棋的最终胜率。

AI会给出变化图,会计算胜率,但不会像人类那样分析。

有人说现在的AI就是统计学的那套东西,没那么玄乎。

谷歌工程师Ali Rahimi意外向深度学习开枪,提出深度学习是“炼金术”。他的意思是:

炼金术“管用”,催生了冶金、纺织和现代玻璃制造工艺,但不是科学。

所以,Ali Rahimi希望世界能建立在严谨、周密、可验证的知识之上,而不是“炼金术”。

但深度学习三巨头之一Yann Lecun则认为,AI理论的黑箱不是问题:

“在科技史上,工程产品总是要先于理论一步:镜片和望远镜先于光学理论问世,蒸汽机先于热动力学问世,飞机先于飞行空气动力学问世,无线电和数据通讯先于信息论问世,计算机先于计算机科学问世。”

AI顶级专家朱迪亚·珀尔耶试图提出“因果关系革命”,以此实现如让智能机器像人一样思考。

所以,“强人工智能”可以实现吗?

至少,我们要突破当下“基于相关关系,而非因果关系”的机器学习。

朱迪亚·珀尔认为,要实现强人工智能,乃至将智能机器转变为具有道德意识的有机体,我们就必须让机器学会问“为什么”,也就是要让机器学会因果推理,理解因果关系。

即使是AI领域的顶尖人物,对AI未来的突破也有如下分歧:

是模仿鸟?

还是根据空气动力学造出飞机?

显然人类早期总想学习鸟来飞行,后来发现没必要,可以绕开“学鸟飞”。

Yann Lecun认为,现在的卷积神经网络其实与大脑神经网络已无可类比之处。人工智能绝非“仿生学”,不一定非要复制人类的大脑。

波吉奥则相信,人工智能的下一个突破口,会来源于神经科学。

他的学生哈萨比斯是计算机的学士,和认知神经科学的博士。

哈萨比斯带领的DeepMind,大概是当前AI领域最前沿的研究团队之一。

谷歌花了六亿美元收购DeepMind,这些年还贴了十几亿美金。

不奇怪,当年谷歌创业,投资人问,这么多搜索引擎(当年),你们还有啥搞头?

谷歌创始人答:我们不是做搜索引擎,我们是做AI。

哈萨比斯的野心是:先解决人工智能,再用人工智能解决一切。

一切值得期待,但也可能会经过一个漫长的时期。例如一百年。

不过“有希望”最美好了。

看AI虐人类,像是对奇点时刻的安全而有趣的预演。

而且,虽然AI下围棋懒得向人解释,因为解释了人也未必懂,就像你没法向一只狗解释莎士比亚。

但是在围棋的有限边界内,被AI虐得体无完肤的人类,还是有办法为AI的招法找到解释。

于是,因为这解释,人们从理性的角度学习之,从感性的角度享受之~那机器无法体验的跌宕起伏。

也许,人类的进步受益于“可解释性”,而人类的踌躇,也正是受困于“可解释性”。

(0)

相关推荐