本文转自微信公众号“量子位”,作者:关注前沿科技。鱼羊 萧箫 发自 凹非寺量子位 | 公众号 QbitAI说出来你可能不信,有一只AI刚刚被证明,处理语音的方式跟大脑谜之相似。甚至在结构上都能相互对应——科学家们在AI身上直接定位出了“视觉皮层”。这项来自Meta AI等机构的研究一经po出,立马在社交媒体上炸开了锅。一大波神经科学家和AI研究者前往围观。LeCun称赞这是“出色的工作”:自监督Transformer分层活动与人类听觉皮层活动之间,确实密切相关。还有网友趁机调侃:Sorry马库斯,但AGI真的快要来了。不过,研究也引发了一些学者的好奇。例如麦吉尔大学神经科学博士Patrick Mineault提出疑问:我们发表在NeurIPS的一篇论文中,也尝试过将fMRI数据和模型联系起来,但当时并不觉得这俩有啥关系。所以,这到底是一项怎样的研究,它又是如何得出“这只AI干起活来像大脑”的结论的?AI学会像人脑一样工作简单来说,在这项研究中,研究人员聚焦语音处理问题,将自监督模型Wav2Vec 2.0同412名志愿者的大脑活动进行了比较。这412名志愿者中,有351人说英语,28人说法语,33人说中文。研究人员给他们听了大约1个小时的有声书,并在此过程中用fMRI对他们的大脑活动进行了记录。模型这边,研究人员则用超过600小时的无标签语音来训练Wav2Vec 2.0。对应志愿者的母语,模型也分为英语、法语、中文三款,另外还有一款是用非语音声学场景数据集训练的。而后这些模型也听了听志愿者同款有声书。研究人员从中提取出了模型的激活。相关性的评价标准,遵照这个公式:其中,X为模型激活,Y为人类大脑活动,W为标准编码模型。从结果来看,自监督学习确实让Wav2Vec 2.0产生了类似大脑的语音表征。从上图中可以看到,在初级和次级听觉皮层,AI明显预测到了几乎所有皮层区域的大脑活动。