当人工智能成为战争新宠,人类距离自我毁灭还剩下多久?
作者:雕鸮 / 编辑:冷小军
早在上世纪五十年代,人类就首次提出了「人工智能」的概念。在当时,受制于电脑落后的性能,人工智能技术仅仅是一群年轻科学家提出的、用计算机模拟智能生物思考与学习的科幻技术。
然而,到了七十年代以后,电子技术的飞速发展使得人工智能技术成为了可能。尤其是在1997年,IBM公司的「深蓝」人工智能电脑成功在国际象棋比赛中,击败了著名的国际象棋世界冠军卡斯帕洛夫。这让许多人惊讶地看到:具备自主学习和思考能力的人工智能已经开始从科幻片走进现实。
无人深空
▼
在电游皇牌空战7中,描绘了一个令人不寒而栗的未来世界——在那个虚构的世界中,机动性极强的无人机取代有人战斗机,蜂群式的神经战斗网络令传统空战战术难以施展,甚至连无人机地生产也实现了「无人化」,大有人工智能能够与人类分庭抗礼甚至还占据优势的趋势。
皇牌空战7
游戏的世界观固然是虚构的,但那令人不安的、搭载了人工智能技术的无人机,却已经确确实实地在现实中出现了。
从本世纪初开始,无人机开始代替一部分有人战机,凭借其更长的续航和滞空时间、更高的性价比而在战场上占据了一席之地。然而,无人机的发展前景却远远不止于此。目前,美军正在尝试将更成熟的人工智能搬上更大型的无人战斗机。
不久前,美国国防部高级研究计划局(DARPA)主持进行了一场「人机大战」,由空战人工智能对抗一位拥有超过20年飞行经历的F-16战斗机飞行教官。结果,这位王牌级的老飞行员在五场模拟战斗中全程被人工智能按在地上摩擦,其中三次被机炮击落。事后,他也不得不承认,人工智能飞行员在态势感知和过载机动能力上比人类飞行员强了太多。
在模拟空战中落败的美军王牌
AI竞赛
▼
2014年,美国国防部首次提出「将人工智能技术列为国防部作战网络未来建设的重点」,打响了美军探索军事人工智能的第一炮。随后,洛克希德.马丁公司、雷声公司等大牌企业纷纷跟进。
据悉,雷声公司研发的首代「蜂群」式无人战斗机已经初步具备了自主判断飞行和巡航路线、判断打击目标类型的能力。DARPA也承诺,将提供至少20亿美元,进行下一世代的人工智能研究。
信息化的美军
眼看着美国人在军用人工智能技术上取得了突破性的进展,其他国家自然也没有闲着,尤其是美国的头号对手俄罗斯。就在8月23日,俄罗斯苏霍伊设计局研发的S-70「猎人」隐身无人机再次进行了试飞。
俄罗斯联合飞机公司负责人尤里·斯柳萨对此表示,他们计划在2024年开始向俄军批量交付该无人机。S-70无人机不仅是一款隐形无人攻击机,同时也能与苏-57战斗机高低搭配作战,而它身上,就搭载了俄罗斯的人工智能飞行员技术。
S-70无人机
为了研究军事级人工智能技术,俄罗斯专门于2015年成立了国家技术与机器人技术基本发展中心,当然,它也被称为「俄罗斯的DARPA」。而俄罗斯国防部长绍伊古也多次强调,人工智能技术对于俄军未来发展至关重要。显然,在军事级人工智能这块处女地,俄罗斯并不甘心落后美国太多。
相比之下,中国虽然同样重视人工智能建设,但也对这一技术抱有很强的警惕。中国多次呼吁,希望各国之间不要爆发「AI军备竞赛」,认为该技术有可能威胁到人类自身。
法国的意见也与中国相仿,法国最大的武器生产商泰雷兹公司首席执行官帕特里斯.凯恩表示,该公司将永远不会生产「自动杀人机器」。而法国国防部长弗洛朗丝·帕利也表示,「让机器选择开火与否,对于人类来说将是生死攸关的问题」。
然而,人工智能技术的优势太过诱人,除了美国和俄罗斯外,英国、以色列、土耳其、韩国等国都是紧锣密鼓地进行自家军事级人工智能的开发。美国《未来生活》杂志专栏作家、人工智能专家克里斯托.格隆朗德在自己的文章中坦言:「虽然大家都不希望这样,但AI军备竞赛的发令枪已经打响了,军用AI对人类的威胁将是不可避免的。」
自我毁灭
▼
美国军事专家卢瑟斯.特伦托曾这样评价人工智能技术:「如果说第一颗原子弹的爆炸标志着人类文明第一次具备了自我毁灭的能力,那么人工智能技术在军事上的泛滥,将标志着人类自我毁灭手段的效率提升到了一个新的等级。」
事实上,自打人工智能技术诞生,它就一直面临着外界的争议。在上世纪八十年代,对人工智能的恐惧衍生出了「未来智能机器人毁灭人类」这一幻想,并造就了银幕经典作品《终结者》。但是,比起电影中神挡杀神的T-800,真正的人工智能对人类的威胁要更加巨大。
能够搭载人工智能的无人装甲战斗车
随着计算机技术的发展,人工智能技术的两大门槛「自主学习」和「逻辑分析」已经不再是遥不可及的高峰,但仍然有一个难题一直没能攻克:这些人工智能虽然具备远超人类的学习能力,却完全不具备人类应该具有的情感。
曾有社会学家说过,人之所以称为人,是因为有人性和情感。但对于军用人工智能来说,它们只知道什么是「命令」,而它们所有的行动都围绕着「执行命令」这个核心。试想一下,也许在未来的战争中,无人机轻轻松松地将满是师生的学校夷为平地,只因需要斩首的「重要目标」隐藏在学校人群中;无人坦克一炮将手持自卫武器的平民炸上天,只因为他们「有攻击意图」……
也许这种场景永远不会发生,也许会有更先进的技术对它们进行限制,但就目前来看,人类想要彻底控制人工智能几乎是不可能的。因为在这个世界上,不可能存在「完美」的程序,而对于军用人工智能来说,一个错误带来的可能就是灾难性的后果。
已经过世的著名科学家霍金、传奇商业大佬马斯克、阿里巴巴创始人马云等许多知名人士,都曾表达过对「军事人工智能」的担忧。霍金在世时曾指出,虽然人工智能将让战争进行地效率成倍地提升,但这些无人兵器中失去控制时屠杀平民、甚至毁灭人类文明的速度和效率,也将随之成倍地提升。
可以说,人工智能技术就像一个潘多拉魔盒,它看上去非常美好,但同样对人类拥有巨大的威胁。最后,用法国学者卢克.迪亚兹的一句话来结束这篇文章:虽然现在人工智能技术正在让我们的生活变得越来越美好和便捷,但随着AI军备竞赛的帷幕拉开,人类距离自我毁灭也许只剩下最后的半个世纪。