人工智能是怎样感受大自然的?
现如今,人工智能(AI)已经渗透到生活的方方面面。但是你有没有想过,伴随AI的快速发展,智能的触角已经慢慢渗透到了大自然中。借助AI的力量,我们不但能“看见”生物的变化,更能“听见”自然的声音。这究竟是如何做到的呢?让我们去大自然中寻找答案。
用AI“看见”生物多样性
监测、保护和利用生物多样性的第一步就是对生物多样性开展全面的研究。AI特别是深度学习算法的出现可以让计算机或机器通过以往事例和经验,学会模仿人类思维、识别对象、理解和响应语言、从而制定决策、解决问题以及综合分析。
AI深度学习算法是如何“工作”的呢?首先,人类向算法展示大量图片,比如,有的图片有动物,有的没有。算法从图片中找到“特定模式”,然后用模式来作出判断,看看面对之前从未见过的图片应该贴怎样的标签。至于AI的神经网络架构是根据人类视觉系统开发的,网络各层连接在一起,从图片中提取抽象特点,通过一系列联系得出正确答案。AI在生物多样性中的应用包括计算机视觉、语音识别、自然语言处理等方面。
我们先说计算机视觉。对于研究动物行为的学者,尤其是昆虫学家,怎样观察动物的行为是个令人头大的难题。野外观察更难,主要在于定位个体和整个生命周期的持续观察。
计算机视觉是指用摄影机和计算机代替人眼,对目标进行识别、跟踪和测量,并进一步处理获取的图像,从中获取信息。它结合机器视觉和图像分析技术,目标是从图像中获取物理对象的明确而有意义的描述。机器视觉通常用在工业和机器人领域,而图像分析技术指的是2D图像的算法分析和图像的转换(旋转等)。
以“计算机视觉”为基础的动物行为观察系统由动物行为分析软件、动物活动室/池、摄像头等组成,通过相机和传感器可以在整个昼夜和季节周期内连续、无创地进行生物学观察。一旦被观察的样本出现,传感器马上通过自动成像技术来捕获它们的身影。随后,AI技术对样本数据特征进行训练,经过深度学习的模型可以提供生物丰度、生物量和多样性的估计。
深度学习和计算机视觉的结合使得对昆虫和其他无脊椎动物的监测更具成本效益。
用AI“听见”生物协奏曲
我们知道很多生物有着保护色,部分生态环境光线很弱难以成像,如果计算机视觉没法发挥作用怎么办呢?对于不便于获取视觉图像的生物和环境,科学家利用计算机听觉中深度学习的算法,测量生态环境中可辨识的生物声音,对生物多样性进行声学评估。
利用声音定位野生动物,既降低对动物的干扰,又可以避免视频采集受光线和环境的限制。基于音视频采集系统,采用被动式红外感应的方法侦测野生动物和偷猎者,对现场实时拍照、录音、录像,并通过GPRS无线网络发送信息,帮助科研人员在广大的地域范围内找到动物的行踪并发现偷猎者。
此外,通过对濒危动物个体的声音特征建立身份标识,可以在监测中帮助研究人员清楚地掌握动物的生存和繁殖情况,以此在迁徙季节判断出物种数量。
老方法结合新办法
不同方法得到的生物多样性数据,具有不同的时间连续性。遥感数据和其他的地理数据可以得到时间、空间上连续的生物物理数据。而利用传统的生物多样性采样研究方法,如自动录像或图像记录设备、高通量基因条形码或者宏基因组测序技术,可以得到物种在某些样点的生物多样性信息,但这些样点信息通常是不连续的,无法覆盖到整个景观区域。因此,将样点信息结合连续的遥感技术来推测整个区域的生物多样性组成,这样才能绘制出生物多样性和生态系统的综合地图。
在生物多样性和生态环境保护的整个过程中,AI将会发挥越来越多的功能,将生态环境优势提升为生态农业、生态工业、生态旅游等生态经济的优势,那么绿水青山终将会变成金山银山。
撰文:王国良(北京市农林科学院)、王宝会(北京航空航天大学)