“华人 AI 女神”李飞飞,她给机器人造了个进化基地

不知从何时起,AI 人工智能遍地开花。图像识别、语音识别、AI 换脸、AI 语音助手,人工智能已经深入生活的方方面面。特别是图像识别技术,已经广泛应用在生活中,在火车站、机场、移动支付 App 甚至小区门禁,到处都是图像识别技术的影子。

然而,除了从事 AI 研究的人群,很少有人知道,人工智能图像识别技术,最早由一位华人女科学家发起,她就是人称“华为 AI 女神”的李飞飞。

李飞飞所从事的计算机视觉和机器学习领域是人工智能的重要分支,致力于让机器“看见”和识别物体,并推断物体的立体形状,甚至理解事物之间的关联,人的情绪、动作及意图。在计算机视觉技术日臻成熟之际,这位 AI 界无人不晓的女人,又有了新的研究方向。

为了实现更高级别的智能,李飞飞加入斯坦福视觉与学习实验室(SVL)Silvio ,带领一个研究小组,推出一个全新的模拟环境 iGibson,专门用于人工智能机器人升级训练。

神奇的“升级”基地

机器人如何升级?在了解 iGibson 项目之前,小黑也是一头雾水。在日常生活中,小黑遇见过不少机器人,比如自动清洁家庭卫生的扫地机器人,以及医院里使用的自动消毒机器人。这些机器人都用共同的特点,自动识别所在区域环境,然后按照固定算法清洁、消毒室内卫生。

显而易见,机器人的核心并不是“四肢”,还是提供智慧的“核心算法”。算法类似人脑神经元网络,包罗万象、结构复杂,为机器人遇到各类状况提供解决方案。理论上,扫地机器人算法远远不及人脑神经元网络复杂,毕竟它只需要应付扫地这一件小事。

时至今日,已经有成千上万家庭用上扫地机器人,大大降低了家务负担。然而,居家生活除了扫地、拖地,还需要擦桌子、擦窗户、切菜、烧菜、收纳整理。这些工作比扫地更加复杂,需要更加精密细致的算法,还需要随着家具摆放位置随时调整。

精细的算法必然伴随着大量数据,人工智能基本原理与人脑类似,需要不断学习加强记忆,这一过程也叫机器学习。现实世界中,机器人收集大量数据,需要不断搭建新场景,或者前往新空间测试。

比如如今火热的自动驾驶技术,每天都有上万辆自动驾驶车辆在各大试验区域行驶,从而获取数据。更有甚者,特斯拉等自动驾驶汽车厂商还会收集消费者数据,从而让自动驾驶算法更加智能。

自动驾驶技术测试仅凭道路测试即可,而用于家居环境的机器人算法,想要收集海量数据,只靠现实世界中的数据不太现实。为了让机器人开发者们更好地编写“控制算法”,李飞飞团队特地推出 iGibson,即交互式吉布森环境,一个提供快速视觉渲染和物理模拟的环境。

“高智商”机器人,从这里开始

iGibson 配备 15 个全交互高品质场景,数百个真实家庭和办公室重构的大型 3D 场景。

真实的传感器信号,包括 RGB 信号与激光雷达;内置运动规划算法,可用于机器人底座移动优化与机器臂的移动,机器人可以在室内环境随意走动、抓取操纵物体。

开发者们可以进入其中,在模拟环境中操纵机器人运动,比如开门、拾取和放置物体或在柜子中找东西。

▲ 日落城中机器人指挥交通

iGibson 模拟的场景让小黑想到美剧《爱、死亡与机器人 2》中的场景。在一个名叫日落城的小镇,居民们不用干任何工作,从吃喝拉撒到卫生清洁,所有能想到的工作全被机器人替代了。高度智能化的机器人可以指挥交通、整理家务、叠衣服,还可以保护主人,免遭大型动物或者匪徒的侵害。

▲ 机器人除害模式

当小黑看到机器人伸出长长的手臂调整相框位置时,不禁畅想未来机器人高度发达的世界。只要买上几个机器人,就可以包揽所有家务,想想就觉得挺美的。

▲ 机器人整理相框

回到现实,真正的家务机器人与电视剧中相差甚远,除了扫地、拖地,几乎没什么能够帮忙的地方。为此,iGibson 模拟环境配备了起居室、厨房、办公室等场景,机器人可以尽情地在其中交互、测试,不断打磨核心算法。

模拟环境中,不仅有家具、电器等常用物品,还有温度、湿度、清洁程度等环境因素。以最简单的扫地机器人为例,传统扫地机器人并不能判断地板清洁程度,只能依据固定的算法,每天一遍遍地打扫卫生。

若这台扫地机器人在 iGibson 模拟环境中训练,被赋予识别家居环境清洁程度这一功能,就可以自主开始卫生清洁。如此一来,机器人的主人也不用定时查看、操作扫地机器人,只需保证扫地机器人处于工作状态,家居环境自动清洁完成。

除了扫地机器人,还有整理家务的机器人,做饭机器人等,都能在 iGibson 模拟环境中训练。由于 iGibson 提供交互导航功能学习,家务机器人可以改变所在环境,比如打开/关闭房门、打开抽屉/橱柜门等等。如此一来,家务机器人就可以像家政人员一样,随意的在家里走动,清洁各类家具卫生,就连橱柜里角落里的污渍,也可以清理干净。

通过底座的移动以机械臂的操纵,家务机器人可以在 iGibson 模拟环境中不断优化算法,直到它可以应付各类复杂场景。届时,一台具备“高智商”的机器人也就诞生了。

图像识别与模拟环境

在 AI 领域,李飞飞最大的贡献或许在于强调了数据的重要性。早在 2006 年,李飞飞就意识到 AI 学术圈都在苦心寻找完美的算法,却很少有人重视数据。李飞飞认为,如果数据不能反映真实世界的情况,那么算法再好也无法发挥作用。

于是,李飞飞与她的团队搞出一个名为 ImageNet 的数据集。这个数据集是所有视觉目标识别应用的鼻祖,该项目致力于分类、注释图像,然后建立数据库帮助 AI 算法理解图像。为了使ImageNet 数据库有更多人参与,李飞飞团队与合作者创办了 ImageNet 大规模视觉识别挑战赛。鼓励开发者利用 ImageNet 数据库撰写优异的视觉识别算法。

ImageNet 挑战赛促进 AI 视觉识别技术快速发展,第一届挑战赛优胜者全都出任了谷歌、百度等专注于 AI 技术公司的高管。此后,每一年挑战赛都在大幅度降低图像识别技术错误率,图像识别技术正式进入现实社会,全行业人工智能热潮自此开始。

对比 ImageNet 数据库与 iGibson 交互环境,可以看出李飞飞一如既往地从事 AI 技术“进化升级”工作。她并不从事 AI 技术开发,也没有亲自撰写跨时代的 AI 算法,可她是那种授人以渔的科学家,为 AI 开发者们提供数据库、思路以及模拟环境。

ImageNet 数据库的出现,让无数视觉识别算法开发者看到方向,无数天才的想法都可以在此萌发。而现在,李飞飞团队提供的 iGibson 交互环境,为机器人算法提供了一个大型室内场景模拟环境。在这个开源环境中,任何想要开发机器人的团队都可以使用,在测试中不断优化自己的算法,直至可以应用的机器人诞生。

某种程度上,李飞飞团队又在做一件可以改变世界的大事情。一旦 iGibson 模拟环境可以取得类似于 ImageNet 数据库的成功,那么具备“高智商”的机器人将源源不断地诞生,一个全新的世界或许就此出现。

图源:pixabay、 iGibson 官网、维基百科

(0)

相关推荐