扎心了,机器都比我会学丨流光E彩
中科院之声
10小时前
编者按:半个世纪光电情,披星戴月星辰明。中科院之声与中国科学院光电技术研究所联合开设“流光E彩”科普专栏,讲述生活中的光电科普趣事,传播最生动的光电知识,展示最前沿的光电进展。
能自动避开障碍物的无人驾驶的汽车,在无聊时供我们“调戏”的智能手机语音助手,能比亲朋好友还懂我们所爱的推荐算法…不知道你是否已经注意到,人工智能技术早已渗透进我们的生活的方方面面,我们现在身处的时代,正以前所未有的速度接近下一次技术革命,而开启下一次技术革命大门的钥匙就藏身于人工智能的广阔蓝海中。
机器学习,也得先打好基础
面对自动开启关闭的家用电器、和智能音箱对谈的时候,也许你会对于它们的贴心智能大呼不可思议,机器是如何读懂我们想法的呢?事实上,我们目前的人工智能基本都是基于机器学习技术实现的。
机器学习,顾名思义,就是让机器具有学习的能力,而学习能力正是普通机器与人工智能的分水岭。让我们回到1765年詹姆斯·瓦特改良蒸汽机的时代,无论春夏秋冬,这台开启了人类第一次工业革命的机器只会日以继夜地重复着一个动作,任何人看到这台机器的时候都不会把它与“智能”二字联系起来。随着科技的进步,人们设计了许多更为复杂的机器,但它们仍然不具备基本的智能。
这种情况一直持续到20世纪50年代,计算机理论发展迅速,机器学习终于登上了历史的舞台。机器学习的基本思想其实并不复杂,我们通过对算法输入大量数据进行训练,让算法生成模型来实现对其潜在规律的揭示和对未来情况的预测。试想,从明天开始,你试图对家门口路过的洒水车的行为进行预测,前六天,你发现洒水车每天都会五点准时路过,此时你自然而然形成了一个简单的认识(模型):洒水车每天五点都会路过。如果第七天是周日,洒水车放假了(但你并不清楚),你发现洒水车没有再像往常一样路过,此时意味着之前的模型并非是完全准确的,于是又过了一周,洒水车仍然是前六天每天五点到,周日不再出现,你便可以通过新数据来纠正模型,从而更加接近事实。
这个过程和我们的学习过程是一样的,一开始,我们的机器就像一张白纸,一无所知,正如同第一天之前我们也不知道洒水车会来,但这不重要,当我们试图给具有机器学习能力的机器输入数据的时候,一切都变得与众不同了,假设上面故事的主角是一个十分懒惰的人,他不愿意自己去动脑筋思考洒水车什么时候来,于是他希望让机器学习帮助自己预测洒水车的行为,他把每一天洒水车的行为数据输入到算法中,这个过程我们称之为“训练”,通过大量的数据训练,我们的机器学习算法对于洒水车行为的预测将会越来越准。
图1 机器学习过程与人类学习过程异同
“三年高考五年模拟”,机器也躲不过题海战术
有了数据之后,我们还需要选择合适的“学习方法”才能让AI学得更快更好。你可能已经或多或少听到过一些与机器学习有关的名词,但却一头雾水,比如监督学习,强化学习等等,实际上这些都是描述机器学习过程中不同的训练方法,往往适用于不同的情况。
例如,我们希望让一个算法学会辨认猫和狗,如果我们提前给算法看大量猫狗的照片,并且告诉它这张照片是猫还是狗,那么这就叫监督学习(Supervised Learning);如果我们给算法大量猫狗的照片,但是不告诉它哪些是猫哪些是狗,而让算法自动寻找猫和狗的差异,这就叫非监督学习(Unsupervised Learning);如果让算法不断地做选择题,每次都让算法看图后选择是猫还是狗,答对奖励加分,答错惩罚扣分,算法在试图尽量得分,规避扣分的情况下经过大量训练便会自己“进化”出正确辨认猫狗的能力,这就是强化学习(Reinforcement Learning)。
所以看到这里你大概应该能猜到我们是如何让机器学习工作了,正是通过大量的数据训练,机器才能拥有如此强大的能力,即使Alpha Go背后的科学家们并不是围棋大师,甚至完全不会围棋,也能让Alpha Go战胜世界冠军,而这在传统的机器身上是不可能发生的,因为它的所有行为都是设计者提前编写好的,因此它无法实现超出设计者认知的行为。
机器学习:并非无懈可击
看到这里,也许你想问:“那么,机器学习是否意味着我们离人工智能时代已经近在咫尺了呢?”
很可惜,我们距离真正的强人工智能还有很大的差距,这是因为当前的基于数据的人工智能算法在很多时候是具有很大局限性的。比如,一个接受长期辨识猫狗训练的AI 可能会把吉娃娃错认为猫,也有可能会把无毛猫误认为狗,这主要是因为机器学习得到的结果好坏与训练数据是高度相关的,如果训练AI用的数据是偏颇的,比如训练用的猫的照片基本都是有毛长尾猫,狗的照片基本都是大型犬,那么这样训练得到的AI 将很容易在辨识某些其他种类的猫狗时犯错。
目前的AI更致命的问题在于,很多时候,由于机器学习的可解释性缺陷,其是一个黑箱过程,我们无法解释它到底是根据什么特征做出判断,我们人类在学习辨认猫狗的时候,往往会把判断特征集中在猫狗身上的某些关键部位,但一个通过图像训练得到的AI,即使结果正确率很高,但却有可能把某些判断特征放在环境上,显然这是不合理的。这样的特征导致AI的应用存在潜在的风险,例如一个自动驾驶AI如果我们不能判断出它是根据什么做出驾驶决策,那么即使它在推广前的测试中无比安全,也可能在现实中出现的复杂路况中犯致命错误,3月份发生在美国的一场车祸就是因为辅助自动驾驶系统错误地把卡车的白色车厢识别为了天空,导致汽车径直撞了上去。
有趣的是,这也从另一个角度为我们阐明了一个道理:题海战术虽然有用,但并不高效,而且会导致潜在错误,要想从根本上学习新知,就要运用到因果逻辑,从根本上搞清楚事物的来龙去脉,而这也正是科学家们目前希望在人工智能身上实现的。
实现因果逻辑,机器还需努力
贝叶斯网络的创始人,图灵奖得主朱迪亚·珀尔认为,让人工智能实现本质飞跃的关键就藏在每一个人的大脑中,上天赐予我们人类的最为强大的武器——因果逻辑。
珀尔把因果思维分成三个等级:第一个等级是关联,与之对应的是观察的能力,这是我们目前的基于数据的弱人工智能所处于的级别;第二个等级是干预,对应控制变量实施行动的能力,即能够借助干预来获得认知;第三个等级是反事实,对应想象的能力。幸运的是,我们所有人都处在第三层级,想象给予了我们通过想象构建反事实——即虚构的世界的能力来建构认知,例如著名的电梯思想实验引导爱因斯坦在一个世纪前将狭义相对论推广到具有加速度的非惯性系中。
图2 珀尔的“因果阶梯”
(图片来源于朱迪亚·珀尔的著作《为什么:关于因果关系的新科学》)
关联和因果的区别在于,关联是数据间最表层的信息,也即是相关性。例如,数据表明,一年中的温度与犯罪率有相关性,温度低的时候犯罪率更高,如果我们把这些数据输入只懂得分析关联性的AI,它在预测犯罪率的时候便容易犯错。比如春节期间犯罪率上升的原因主要是因为春节期间小偷的活动变得频繁,而春节一般是温度最低的时候,因此如果仅仅从关联的角度分析数据,我们将会得到气温降低导致犯罪率上升的结果。假如我们用这个AI去预测一个没有春节文化的国家的恶犯罪率,或者是一个气温异常的年份的犯罪率的时候,显然会得到错误的结论。
但是从因果的角度出发,我们不仅要分析数据之间的关联性,还要判断其内部的逻辑链条,比如,当温度全年保持不变,犯罪率是否还会变化?如果得到的答案是“是”,那么我们便认为除了温度还有其它的影响因素,比如去年由于疫情,春节人员流动降低,虽然冬天温度仍照常下降,但犯罪率却没有随之变化了,那么我们便认为春节人员流动才是导致犯罪率变化的主要原因。
珀尔认为,从机器学习上升到因果学习的一个重要渠道是引入“干预”(do)算子,P(A|B)与P(A|do B)完全不同的。其缘由在于,“干预”与“观测”本质上有根本的不同,例如:观测到公鸡打鸣和强制让公鸡打鸣是完全不同的两件事,我们目前的算法可以很容易回答公鸡打鸣和太阳升起这两件事之间的相关性,可是它却很难正确回答强制让公鸡打鸣时是否也会太阳升起。珀尔认为,只接受被动观测数据的人工智能是无法攀登上第二级阶梯回答与干预有关的问题的,也就无从理解“公鸡打鸣”与“太阳升起”这两件事之间的因果关系,因为因果关系的确认需要进行控制变量实验,而这样的实验本身是建立在干预上的。也许你会问,如果观测到维度足够大,获得足够充分的数据是否可以代替干预呢?实际上我们很难保证数据范围与实际测试环境的一致,更困难的地方在于很多时候无法先验地知道数据本身是否是完备的,这就导致无论我们用多么巨量的数据去训练得到的算法都有可能因为数据与测试环境的不完全一致而出错,这被称为OOD(Out of Distribution)问题,就连图灵奖得主Yoshua Bengio也认为OOD泛化是当前人工智能最急需解决的一个问题。
看到这里,你大概能知道为什么我们离想象中的人工智能还差得很远,因为我们目前构建的人工智能,别说拥有第三层级的想象力了,其甚至连判断因果的能力都没有。很幸运的是,科学家们已经认识到,因果学习是让人工智能实现下一次飞跃的关键了,许多科学家相继投入了因果机的理论研究当中,例如清华大学的崔鹏教授提出了将因果推理与机器学习相结合的稳定学习(Stable Learning)来改进OOD泛化问题,CMU的黄碧薇博士利用因果发现在时间序列的非稳态数据上实现了更精准的预测。我相信,伴随着技术的发展,人工智能技术一定会越来越可靠,并且造福人类!
参考文献:
1. 【惨烈!特斯拉再次撞上白色卡车,两名乘客急送ICU】https://mp.weixin.qq.com/s/2OSlB4-zvwFJE0HMIvNeAw
2. Zheyan Shen, Peng Cui, Tong Zhang, and Kun Kuang. Stable learning via sample reweighting. In AAAI, pages 5692–5699, 2020.
3. Huang, et al., Causal Discovery and Forecasting in Nonstationary Environments with State-Space Models, ICML, 2019.
4. BAREINBOIM E, PEARL J. A general algorithm for deciding transportability of experimental results [J]. Journal of causal Inference, 2013, 1(1):107-134.
5. J. Pearl, “The Seven Tools of Causal Inference with Reflections on Machine Learning,” Communications of ACM, 62(3): 54-60, March 2019
6. 【崔鹏:稳定学习——挖掘因果推理和机器学习的共同基础】
https://mp.weixin.qq.com/s/f-rI5W6tc6qOzthbzK4oAw
7. Pearl, J., & Mackenzie, D. (2018). The book of why : the new science of cause and effect. First edition. New York, NY: Basic Books, Hachette Book Group.
来源:中国科学院光电技术研究所、中国科学院成都分院