毫有引力|除了AlphaGo,深度强化学习还能用在自动驾驶领域? 2024-04-22 16:15:32 这里是我们的新栏目「毫有引力」的第 2期,未来将持续进行自动驾驶相关技术分享。——今天我们特别邀请了毫末智行认知专家小吕老师想当年 AlphaGo 因接连战胜一众国际顶尖棋手,一举成名!好家伙,成功点燃世界对人工智能的热情,连门口传达室的老大爷都得端着茶杯感慨两句岁月如金。而2019年 DeepMind 研发的 AlphaStar 在《星际争霸2》游戏中更是一战封神,再次向人们证明人工智能领域已经飞速前进。但究其背后,这两个火出圈儿的高质量人工智能高手都离不开一项牛逼的技术——那就是深度强化学习。初级玩家可能会问:深度强化学习跟自动驾驶又有啥关系?👇接着往下康深度强化学习是什么?最近热播综艺《披荆斩棘的哥哥》都看了吧?打个比方,深度强化学习就像是两个独立选手——黄贯中(强化学习体系)和李承铉(深度学习体系)披荆斩棘以后的成结合团体(深度强化学习)。具体来说,深度强化学习的骨架来自强化学习,而灵魂则是由深度学习赋予。所以,要讲明白深度强化学习,首先来看下强化学习。强化学习是一种典型的序贯决策方式,智能体通过与环境的交互获得反馈,在尝试和试错中不断进步。而深度强化学习综合了深度学习对高维数据的抽象感知能力与强化学习优秀的决策能力,能够处理更高维度的输入与输出数据。近年来,深度强化学习算法已在许多领域都取得了令人震撼的成就。2016年,基于深度 Q 网络(Deep Q Network,DQN)和蒙特卡洛树搜索算法的围棋程序“AlphaGo”以4:1战胜世界冠军李世乭,轰动了世界,使得深度强化学习成为了人工智能领域研究的新风向。随后,Lillicrap 等学者提出了直接优化策略的深度确定性策略梯度(Deep Deterministic Policy Gradient,DDPG)算法,而非通过比较状态动作值函数的方式进行动作选择,从而避免了连续动作空间离散化的“维数灾难”,将深度强化学习算法可应对的场景拓展至连续动作空间中。为了实现工程中的轻量级应用,Mnih等提出了异步强化学习(Asynchronous Reinforcement Learning,ARL) 框架,可以使用异步的梯度下降法来优化网络参数。即使 AlphaGo 系列 AI 程序取得了巨大的成功,但围棋仍然是有限空间、限定规则、限定动作空间的棋类游戏,人们仍然怀疑 AI 程序在长期任务、非完全信息、复杂动作空间的任务上的有效性。2019年1月25日,DeepMind 展示了他们的最新成果—StarCraft II AI 程序 AlphaStar,以10-1比分战胜了星际争霸顶级职业玩家。星际争霸(StarCraft)是由暴雪娱乐公司开发的一款经典即时战略游戏,相对于围棋,具有动态博弈、非完全信息、长期规划、实时决策、动作空间巨大等特点。AlphaStar采用了种群强化学习(Population-based Reinforcement Learning)、模仿学习(Imitation Learning)等方法,以大比分战胜人类顶级职业玩家。整个 AlphaStar 智能体联盟训练了14天,每个智能体调用了16个TPU。在训练期间,每个智能体经历了相当于正常人类要玩200年的游戏时长。2019年10月30日,DeepMind 在 Nature 上发表关于 AlphaStar 的最新文章,宣称 AlphaStar 在没有任何限制条件、与人类相同的操作水准下达到了天梯对战的宗师级水平,超过了99.8%的人类玩家。综上,近些年来深度强化学习算法取得的令人振奋的成果鼓励了工业界和学术界进一步深入研究深度强化学习算法及其应用。近年来学者们将深度强化学习算法应用在机器人控制、楼宇空调系统控制、匝道控制等领域中,在汽车和智能交通等领域,深度强化学习也在车道保持、超车决策、主动制动、能量管理、交通流调度等方面得到了应用。深度强化学习如何在自动驾驶领域应用?在人工智能所面临的诸多任务中,自动驾驶是一个极具挑战的场景,与图像处理、自然语言理解等应用场景相比,自动驾驶必须能应对车路(环境)交互频繁、场景复杂多变、实时性要求高、容错率低等挑战。深度强化学习(Deep reinforcement learning,DRL)兼具了深度学习对高维输入的处理能力与强化学习的决策能力,能够实现由高维的感知信息到连续动作空间输出的直接映射,非常适合处理环境复杂、交互频繁的自动驾驶任务。目前自动驾驶的典型技术架构主要有两大类:感知-规划-控制序列式(Sequential perception- planning-action pipeline)架构和端到端(End-to-end)架构。图1是百度 Apollo 使用的一种典型的感知-规划-控制序列式架构(Sequential perception-planning-action pipeline),主要包括高精地图、定位感知、决策规划、车辆控制等模块。高精地图和定位模块为自动驾驶车辆提供位置信息,感知模块提供静动态障碍物信息,决策规划模块根据定位和障碍物信息合理规划自动驾驶车辆的行为和路径,最后由车辆控制模块执行运动规划模块下发的路径跟踪控制指令。但是感知-规划-控制序列式架构主流的处理方式是将感知信息处理成人类可以理解的语义信息和道路交通信息,然后基于专家知识和规则进行决策规划,这种方式在简单场景下可以完成自动驾驶任务。但却难以胜任在复杂不确定场景中执行的自动给驾驶任务,原因是现实场景的复杂多样性,使得专家知识和规则不能完全覆盖所有场景和工况。图1 感知-规划-控制序列式架构基于深度强化学习的端到端(End-to-end)的控制架构是自动驾驶领域中新兴的研究热点,它能克服传统方式依赖先验环境建模的问题,可以直接实现通过从感知到控制功能的映射。图2是 Nvidia 提出的一种 End-to-end 架构,直接从原始图像输入获取转向控制指令。该架构分为网络训练和网络部署两个阶段:在网络训练阶段,使用左中右三个相机的图像作为 CNN(Convolutional Neural Network,卷积神经网络)的输入,同时使用人类驾驶员的转向指令作为训练信号。经训练后的 CNN 仅以中心相机的图像作为输入,直接输出转向控制动作。End-to-end 架构以计算机的方式理解图像信息,可在全局范围内进行优化求解,可以更直观的实现驾驶功能,拥有更好的场景泛化性。 (a)网络训练 (b)控制输出 图2 Nvidia End-to-end 技术架构目前,在规划决策领域应用 DRL 算法的主要方式是在模拟器中学习驾驶轨迹,或将驾驶产生的轨迹或动作抽象成为更高级的决策信息进行学习。但业内有研究提出,强化学习的目标函数难以在不引起严重方差问题的情况下确保功能安全。因此,毫末选择的解决方案是将策略函数的构建分为学习部分和不可学习部分(如图3所示)。学习部分基于深度强化学习算法,负责最大化奖励函数(包括舒适性、安全性、超车机会等),同时不可学习部分保留了必要的硬约束,使策略在保持舒适度的前提下可以严格遵循功能安全,从而实现深度强化学习算法与传统算法的融合,使策略在确保安全的基础上拥有更好的性能。图3 序列式架构+数据驱动的决策规划毫末智行如何优化应用深度强化学习?目前,毫末智行已完成对多种有代表性的业内主流算法的调研与实现,包括典型的 PPO、SAC、TD3、DDPG 及其改进型 RPPO、RSAC、RTD3、RDPG 等算法。图4 部分算法的训练曲线 表1 部分算法的实验结果汇总 接下来,毫末智行会持续探索强化学习在量产项目中的落地方式与应用方法,并结合业内前沿的 Transformer、自注意力、逆强化学习等研究领域,为汽车赋予更多的智能与性能。深度强化学习(Deep reinforcement learning,DRL)的知识点今天 get 到了吗?下期我们不见不散~ 赞 (0) 相关推荐 最开始反对中台的人,结果还是选择了中台 前言 很多人没搞明白中台是什么,一蜂窝围上去,又一蜂窝散开.郭东白认为,这非常不尊重技术人生命. 和郭东白老师在 2016 年就合作过,彼时他是阿里巴巴 AliExpress 资深总监,在架构师会议上 ... 2020年无人驾驶行业智行者专题研究报告 导语 智行者成立于2015年,聚焦无人驾驶领域,现已有员工近300人,集结了在整车.电子.互联网.人工智能等领 域经验的人才.2018年全球自动驾驶技术发明专利数量排名中,公司国内排名仅次于百度华为, ... 德赛西威·英伟达GTC2020演讲纪要 时间:2020年12月18日 嘉宾:曾迪/惠州市德赛西威 演讲主题:关于乘用车自动驾驶产业生态与协作 技术趋势 目前行业内普遍将自动驾驶分为L0~L5六个阶段. L0:在最原始的L0阶段,车辆不会提 ... 谷歌工程师万字好文:我们为何追求高性能深度学习?如何实现? 大数据文摘授权转载自数据实战派 原文:High Performance Deep Learning 作者:Gaurav Menghani(谷歌研究院 | 软件工程师) 译者:青苹果 深度学习技术的突破 ... 性能超越谷歌!依图团队提出新一代移动端网络架构MobileNeXt [新智元导读]AIoT的时代即将来临,移动端智能应用呈爆发式增长,但是大型神经网络在移动端的性能制约了AI在移动端的推广.最近,依图团队发表在ECCV的一篇论文,提出了新一代移动端神经网络架构Mobi ... 网易云音乐推荐中的用户行为序列深度建模 编辑整理:汪方野 出品平台:DataFunTalk 导读:近年来,网易云音乐作为一匹黑马迅速在移动音乐APP占据市场,2016年用户量就突破了2亿,而这与它优质的推荐系统必不可分.网易云音乐推荐系统致 ... Pony.ai 的基础架构挑战与实践 内容来源:Pony.ai & DataFun AI Talk 出品社区:DataFun 注:欢迎转载,转载请注明出处. 本次分享将从以下几个方面介绍: Pony.ai 基础架构做什么 车载系统 ... 最新综述丨视频超分辨率研究方法 作者丨Wangsy 编辑丨极市平台 极市导读 本文是第一个也是唯一一个视频超分方向的综述,回顾了基于深度学习的视频超分技术的研究进展,提出了一种基于深度学习的视频超分分类方法,并总结了SOTA方法在一 ... AIOps在美团的探索与实践——故障发现篇 总第415篇 2020年 第39篇 AIOps,最初的定义是Algorithm IT Operations,是利用运维算法来实现运维的自动化,最终走向无人化运维.随着技术成熟,逐步确定为Artific ... 基于自适应策略的深度强化学习 人工智能算法与Python大数据 致力于提供深度学习.机器学习.人工智能干货文章,为AI人员提供学习路线以及前沿资讯 23篇原创内容 公众号 点上方人工智能算法与Python大数据获取更多干货 在右上 ... Sergey Levine-伯克利《深度强化学习2020》课程视频及ppt分享 课程介绍 本课程主要讲解深度强化学习相关的基础知识,基础模型:还设计迁移学习.多任务学习和元学习. 文末附本课程视频及ppt免费下载地址. 课程主页 http://rail.eecs.berkeley ... 深度强化学习DDPG在量化投资的应用 主动基金被动管,被动基金主动管. 所以,我们的模型主要应用于场内ETF,ETF可以随时交易且手续费相对较低.而且ETF是支持T+0的. 继续强化学习. 今天探讨一下这DDPG:深度确定性策略梯度(De ... 脑机头条 第33期| OpenAI大规模深度强化学习玩DOTA2 更多脑机干货第一时间送达 2020年2月22日 脑机头条 第33期 强化学习定义: 是智能体(Agent)以"试错"的方式进行学习,通过与环境进行交互获得的奖赏指导行为,目标是使智 ... 从零实现一个支持深度强化学习的量化投资系统 研究过外汇自动交易,期货CTA,然后是股票的量化投资,当然本质上没有太大区别. 开源量化系统也用过几个,数据格式融合的问题,有些不方便,而且客观讲,实现一个简单的量化系统,其实非常简单. 这一次算是重 ... Neuron:使用深度强化学习揭示大脑如何在高维环境中编码抽象的状态表示 人类拥有一种特殊的能力,可以通过感官对高维事物进行观察并高效地做出决策.然而,大脑如何表示环境的当前状态以指导这一过程尚不清楚.Deep Q-network (DQN)通过捕捉从多元输入到潜在动作值的 ... 谷歌的Loon气球是如何利用深度强化学习有效穿越平流层的? 作者:Salvatore Candido Loon和Google AI如何实现世界上第一次在量产航空航天系统(a production aerospace system)中应用强化学习算法. 驱动一个 ... 深度强化学习落地方法七步曲|写在前面 、需求分析、算法选择、动作空间、状态空间、回报函数、训练 大纲 1.写在前面 2.需求分析篇 3.算法选择篇 4.动作空间篇 5.状态空间篇 6.回报函数篇 7.训练篇 正文 一.写在前面 缘起 随着这波人工智能浪潮的兴起,强化学习(Reinforcemen ... 解读TRPO论文,深度强化学习结合传统优化方法 导读:本论文由Berkeley 的几位大神于2015年发表于 JMLR(Journal of Machine Learning Research).深度强化学习算法例如DQN或者PG(Policy G ...