作为濒危海洋生物,大型鲸鱼种群迅速减少的原因除了环境污染和过度捕捞,还包括货船撞击。仅在美国西海岸,一年就有超过80头鲸鱼被货船撞击死亡。为了提醒货轮在遭遇鲸鱼时减速,加利福尼亚大学圣塔芭芭拉分校的贝尼奥夫海洋计划(Benioff Ocean Initiative)近日开发了一套独特的“鲸鱼安全”系统,并首先应用于加州的圣塔芭芭拉海峡。
贝尼奥夫海洋计划制定的鲸鱼安全系统工作示意图 | https://www.boi.ucsb.edu
之所以说这套鲸鱼安全检测系统独特,是因为这套系统的原理是新奇的“听音辨鲸”,背后的技术是声学监测。技术人员首先在海底安装麦克风,这种特殊的防水麦克风被称作水听器(hydrophone),常用于水下的探测和识别。当水听器听到鲸鱼唱歌的时候,它会把数据输送给漂浮在航道附近的浮标,再由浮标通过卫星传送设备将信号传给计算机。计算机会用AI识别物种,再根据声音创建可视化图像,发给科学家进行快速验证。
贝尼奥夫海洋计划使用的海上数据传输浮标 | https://www.boi.ucsb.edu
虽然听起来这套系统非常黑科技,但在落地到具体技术时,科研人员还是遇到了不少困难。首先就是监听中存在的噪音,来源之一是固定浮动麦克风的系泊设备,系泊设备通常由链条制成,浮标晃动时会带动系泊设备发出叮叮当当的噪音,常常会对鲸鱼的歌声产生干扰。后来,科学家就用橡胶制的弹力软管替代了传统系泊设备,当浮标拖动软管时,也不会产生很大的噪音。
加州圣塔芭芭拉海峡附近的航道(红线)和鲸鱼种群活动区域(蓝色)| https://www.boi.ucsb.edu
另一个障碍就是数据传输。实时监听的音频文件占据了大量空间,庞大的数据要挤过通道狭窄的数据管道,从浮标到卫星再传输到实验室,整个过程可以用龟速来形容。为了解决这个问题,科学家认为可以不直接把音频文件传输回实验室,而是把音频表达(audio reprensentation)送回去。
音频表达指的是音频信号的属性或者特征,包括声音的时域和频域等,这些属性或者特征代表了音频信号的组成。通俗点来讲,音频表达就是声音的“乐谱”。尽管管弦乐很复杂,但音符可以提炼出音乐的“特征”,并将它记录成乐谱。音乐家则可以通过阅读乐谱再将管弦乐演奏出来。虽然乐谱本身并不包含任何声音,但它能原汁原味地将声音表现出来。
例如我们日常用的“听歌识曲”,用的就是“音频指纹”技术。
它是通过提取音频信号的特征,再从海量的音频数据库中快速定位出相似的音频。正如人的指纹是独一无二的,“音频指纹”也是通过特定的算法提取出音频中独一无二的数字特征。再高级一点,还有语音情感识别,AI能从语音中自动识别人类的情感状态。这个过程最重要的就是提取语音的能量、音高等特征,然后让AI学习判别,输出情感状态的结果。
亚马逊开发的智能助理Alexa已经能够通过语音识别出用户快乐、愤怒、恐惧、厌倦甚至压力等情绪,并对相应指令做出回应。在识别情绪上,AI甚至可能比一头雾水的伴侣更懂你。
一头不幸在圣塔芭芭拉附近海域与货船相撞的鲸鱼 | https://www.boi.ucsb.edu
具体到这套鲸鱼声学监测系统上,它的工作原理就是当海底水听器探测到声音的变化时,通过AI深度学习,建构鲸鱼歌声的声学特征并形成数据库,经过训练后,计算机可以越来越快速、准确地从水下麦克风收集的声学信号中,判断附近是否有鲸类存在。在测试过程中,科研团队发现这套系统针对鲸类的物种识别率已经接近了100%。
当然有了新科技也不能丢了老方法,除了“听音辨鲸”以外,许多训练有素的观察员也在观鲸船上观测鲸鱼并报告目击记录,将数据一并传送给计算机。研究团队还利用海水温度等数据来建立海洋学模型,预测鲸鱼最爱吃的磷虾可能出现的地方,有食物就可能有鲸鱼出没。因此,一整个“鲸鱼安全”系统整合了声学数据、目击数据和模型数据,再将数据传达给货船,降低船只袭击鲸鱼的风险。