蜜蜂采蜜后为什么会跳舞?猫咪在被主人抚摸时为什么会发出咕噜声?狗狗也会流眼泪?怎样才能知道,动物的脑子里究竟在想些什么?一直以来,科学家们从未停止探索动物行为的奥秘,以此研究大脑神经对行为的调控,以及在药物研发中的行为学评估。
近年来,尽管光遗传学、高通量神经电极、活体显微成像等新技术在神经科学领域获得突破性变革,但在行为观测手段上和收集方式上仍然相对简化。5月13日,中国科学院深圳先进技术研究院脑认知与脑疾病研究所王立平、蔚鹏飞团队的最新研究成果发表于《自然—通讯》。研究团队自主研发了一种多视角、三维自动化行为采集设备,并提出一类通用动物三维行为图谱框架“Behavior Atlas”。
利用多视角、三维动物身体重建技术获取更加精准、全面的动物行为数据后,结合自动化的行为分析,用于鉴定自闭症模型小鼠的异常行为。据了解,研究团队历时两年自主研发的行为采集设备,能够获取动物三维立体的运动姿态,并根据动物行为类似语言一样的层次结构,提出了一种层次化动物行为分解模型,将连续、复杂的行为简化为可以被人们理解的动作模块。
该研究已在自闭症模型小鼠进行了行为鉴定,成功实现在亚秒级自动精确识别其特征性的行为异常。
在传统的动物行为学采集与分析中,多采用单视角,并提取2-3个身体特征点的方式来拍摄和追踪动物行为。然而身体部位的遮挡容易造成视角的偏差,导致行为数据分析误差。此外,追踪点太少难以将类似四肢的精细动作准确收集。一直以来,王立平、蔚鹏飞团队致力于用光遗传学技术探索大脑神经环路对行为的调控。自2018年起,团队开始思考利用新的机器学习等技术解决当前在动物行为学采集与分析领域存在的瓶颈。
研究过程中,探索行为的本质规律,对行为进行解码,构建行为“字典”成为了团队研究的重点。团队发现,动物在展现行为时,首先通过肢体表现出丰富的姿态,而姿态的连续变化形成了一个个行走、跳跃、攀爬、抓挠等动作,进一步表达出动物的天性、习性、喜怒哀乐等行为。这种“姿态-动作-行为谱”的行为模型就好比语言中的“字母-单词-语句”模式,具有层级性。因此,行为数据也需要层级化收集。
行为学上的观测和量化对药物研发、疾病诊断有着重要意义。以经典的“强迫游泳实验”为例,通过观测小鼠行为,用以检测抗抑郁药物的作用。然而在该过程中,获取的行为数据不精准,使抑郁症模型的建立和评估方法存在差异,让该实验备受争议。随着机器学习和人工智能技术的发展,旨在实现高精度、自动量化行为的“计算神经行为学”正在成为重要的新兴研究领域,我国在该领域鲜有涉足,在国际上仍然处于“跟跑”状态。