图片 长三角MOMO 豆包成功拿下了春晚,在这个举国同庆的时刻,AI除了要下载量和用户之外,能不能在防诈这一块,做点好事?毕竟,现在AI已经让虚拟和现实,傻傻分不清楚,每个人都陷入了要识别豆老师的窘境。 大头针火了,靠着“歌声中连布洛芬都止不住的痛”。 最早听到大头针,是他翻唱孟庭苇的《你看你看月亮的脸》,把本来那种含蓄的、小女生伤感的告别,生生变成了吼出所有委屈的宣泄。 除了这首,他翻唱的《很爱很爱你》《泪海》《星语心愿》等等老歌,也被各平台的算法疯狂推荐。 我就很好奇这么强的一位歌手怎么就突然出来了,搜了一下才知道,这是酷狗用AI技术打造的虚拟人。这个我真没听出来,问了一圈身边的朋友,很少有人知道大头针是个AI。 这让我想起来最近很流行的一个梗:“看起来又像豆老师的作品。” 这个说法,最早是网友对豆包等AI工具一些早期、略显生硬内容的戏称。但现在,它有了新的指代——一段特别工整的文案,一张有点“完美”但怪怪的图,或者一个反常识但乍看分不出真假的视频。 这个梗的流行,说明我们的眼睛和耳朵,在当前时代,需要训练出一种新的能力:分辨哪些内容可能来自机器。 但很遗憾的是,随着AI的进步,碳基和硅基内容“假假分不清楚”的时代,越来越近了。 不久前,小鹏就遭遇了一场“AI伪造”风波。当时,网络上流传出一段据称是小鹏参加车展的不雅视频,引发舆情。但后来根据警情通报,这是某人利用AI技术生成的虚假视频,这位被行政拘留了10天。 那段视频我此前也看到了,当时理性告诉我这肯定是假的,但眼睛是真看不出来。 不仅是小鹏一家企业被“豆老师的作品”所困扰,我梳理了下,AI仿真内容目前至少造成了四大危害。 一、最直接的危害是网络诈骗。 比如,湖北黄石的三位老人,他们接到“孙子”带着哭腔的求助电话,毫不怀疑地交出了数万元现金,因为电话那头的声音与孙儿一模一样。这种AI拟声骗局,成功率与危害性远非传统骗