机器人视觉场景理解挑战赛
这是澳大利亚机器人视觉中心发起的一项比赛,刚刚开始,欢迎做机器人、SLAM、场景理解的朋友参与。
BenchBot,用于运行语义场景理解算法的完整软件堆栈
仅需几行Python代码即可在逼真的3D模拟和真实的机器人上运行算法
BenchBot API,它允许与机器人进行简单的交互,并支持OpenAI Gym风格的方法和简单的面向对象的Agent方法
易于使用的脚本
2500美元的现金奖励最佳参与者
最佳团队有机会在澳大利亚机器人视觉中心实验室的真实机器人上执行代码,该机器人使用与模拟机器人相同的API
使用Nvidia Isaac SDK与高保真3D环境进行接口和模拟
语义场景理解挑战分为3种模式,跨越2个不同的语义场景理解任务,共有6种不同的挑战形式。不同的挑战模式让更多的参赛者参与其中,从只想专注于视觉场景理解的参赛者,到希望将机器人定位与视觉检测算法相结合的参赛者,都可以通过不同的挑战模式来完成。
模式一:被动式控制,有ground-truth的定位
模式二:主动控制,有ground-truth的定位
模式三:主动控制,使用航位推算(无定位)
任务一:语义SLAM
参与者使用机器人在环境中穿行,通过机器人的RGBD传感器观察和测量的结果建立一个基于对象的语义图。
任务二:场景变化检测
参与者使用机器人穿越一个环境场景,建立起对场景的语义理解。然后,机器人在相同的环境中被移动到一个新的起始位置,但条件不同。伴随着从白天到黑夜的变化,新的场景会添加一些新的对象和/或删除对象。参与者必须制作一个基于对象的语义图,描述两个场景之间的变化。
详情参阅BenchBot评估文档:https://github.com/roboticvisionorg/benchbot_eval
例如:观察以下两个视频,找出不同,编写算法。
第一天:
第二天:
下载并安装BenchBot软件栈
选择一个任务开始研究解决方案,使用benchbot_run --list-tasks列出支持的任务
从开发环境 "miniroom "和 "house "开始,这两个环境包括地面真相图,帮助你的算法开发
使用 benchbot_run, benchbot_submit, & benchbot_eval 脚本开发一个解决方案。
使用benchbot_batch -t <your_task> -E <benchbot_root>/batches/challenge/<your_task> -z -n <your_submission_cmd>创建结果
提交方案
BenchBot地址:
澳大利亚机器人视觉中心
开始于: 2020年5月16日上午8:00:00:00
结束于: 2020年9月2日 7:59:59 AM
https://evalai.cloudcv.org/web/challenges/challenge-page/625/overview
END