【原创】人工智能—人类永恒的恐惧
对于人工智能的忧虑,最早可以追溯到200年前。但这不是对一项技术的反思,而是展示了造物者与被造物之间的内在关系。
不过,科学家一向反对将人工智能过度拟人化,他们认为目前没有确切证据证明它们在未来会带来像作品中的灾难性后果。下面我们就罗列一下人们对人工智能有哪些忧虑。
1.人造机器会不会超越人
对于人工智能的警惕最初的焦点在于“人造的机器会超越人”。库兹韦尔在《奇点临近》中表示,一旦强人工智能实现,它可以很轻易地获得提高,其能力也会增倍,这是机器能力的根本特质。而这种自我强化的智能最终会超过人类智能水平。
一种非主流认识是,“智能”代表着某种理性原则,人类的智能从来不是全知全能,但人类总是能在任意环境中找到最优解。因此,真正的智能的定义可以抽象为“在知识和资源相对不足的条件下的适应能力”。
“无论计算机技术如何发展,尽管真正的人工智能系统会在很多具体问题的解决能力上超过人类,但由于它没有生物属性,没有和人类完全相同的经验,所以不会在所有方面超越人类。”未来的人工智能系统只是在某些方面和人具有可比性,而非整体超越人类。那么,人与系统之间的关系也不可能等同于人与人之间的互动水平。
2.人工智能真的可控吗
人工智能不会全面超过人类不意味着它完全可控。就连库兹韦尔也表示,失控的人工智能在逻辑上是完全可能的。
“智能”往往被当作褒义词,但事实上,真正的智能在拥有灵活性和创造性的同时,也可能是不稳定、不可靠的。人工智能目标在一定程度上可以说就是减少人对计算机的控制和干预。因此,智能越高,失控的可能性在理论上就越大,风险也就越大。
3.预防还是行动
有一种观点认为,在科技发展过程中,恐惧新技术的人都会振振有词地说:到此处为止,不要再进步。
然而,由于“智能”天生就无法控制,人工智能对人类构成的威胁是一种“存在威胁”,即人类存在本身都成为问题,没有一项其他科技可以与之对等。
“真正带有终极性质的问题是:我们究竟为什么需要人工智能?人工智能真的必不可少吗?”著名学者江晓原认为,“没有人工智能或者限制人工智能并不会影响人类生存,它影响的是资本增值。”
这也造成在该问题上两种截然不同的处理原则。预防原则要求,我们不能用试错法来处理生存危机。如果一个行为的后果未知,但是根据科学家判断有极小可能会带来巨大的负面风险,这一行为最好不要进行;行动派则认为,很明显,这就要求科学家在战略中要尽可能提高自信以对抗这种风险。阻止新兴技术带来的好处,可能会增加灾难性结果的可能性。
在必须发展该技术的前提下,我们应该抱着慎之又慎的心态。虽然本质上不存在能对抗强人工智能的绝对保护措施,大力增加在发展防御手段上的投入,包括道德标准、法律标准和防御技术本身都是非常必要的。
本文为机器人大讲堂原创团队撰写
转载请联系:robospeak@52lide.com