不知道从什么时候开始,我们的生活中充满了谣言。
这些谣言涉及的领域五花八门,内容往往危言耸听。
差评君以前就辟过一个谣,微博上的一个 “ 测试 ” ,搞的全网压力山大。
差评君查了查,发现只是视错觉而已,无他。
但对于大多数人来说,看到每一条消息都去百度一下操作成本太高了,谣言该传还是得传。。。
而且现在的谣言都是真假掺半,难以分辨。
到最后,我们父母辈的朋友圈很多都是这样的⬇️
在差评君看来,谣言这东西会扭曲人们的认知,尤其是那种 “ 生病自查,不用问医生 ” 的养生谣言,是非常害人的事物。
在地球的另一侧,一些研究者也这么认为。
还记得阿里巴巴在2017年末成立的科研机构 “ 达摩院 ” 吗?
最近,在美国西雅图的达摩院研究所里,有一位学者 -- 李泉志捣鼓出了个 “ AI 谣言粉碎机 ” ,通过现代科学的方式来净化我们的信息:
用 AI 来粉碎谣言。
李泉志在加入达摩院之前,在著名新闻社 -- 路透社工作过,他的工作内容是用机器筛选消息来给记者提供线索。
也就是说,他本来就是职业在网络上筛选信息的 ~
如今在达摩院,李泉志把这个技术结合自然语言处理技术 ( NLP ) ,成功做出了一套筛选谣言的模型。
差评君有幸采访了这位研究者,他提到了现在谣言主要传播途径来自社交媒体,因此 “ 谣言粉碎机 ” 这个模型目前主要功能也是识别社交媒体上的假新闻。
推特上的假新闻例子
作为一个人工智能, “ 谣言粉碎机 ” 识别方式非常地牛逼。
首先, AI 会追溯消息的最初来源,查一查可信度。
比如查一查最早发出消息的人的公开社交消息历史,看看他是不是制造谣言的 “ 惯犯 ” ;
或者查一下消息中附带的链接网站可信度,检验源头。
其次,真的去核实谣言里的知识点。
有些新闻看起来像假的,实际上是真的
AI 可以通过 NLP 从消息当中提炼出知识点,然后联网通过知识库去核实。
人类自然也可以做到上述两点:溯源和查资料,但这是一件极其耗费精力和时间的事情。
最后, AI 还可以做到人类难以完成的事情:深度分析传播路径。
很多谣言一开始并不是谣言,但是在社交媒体上发言的个体往往会简化或者强化一条消息里的内容,佐证自己想要表达的观点。
于是一条消息经过 N 手传播以后。。。可能连最开始的消息发布者都认不出来了。
“ 谣言粉碎机 ” 的 AI 在追溯一条消息时,会对传播路径上经手过的个体进行 “ 画像 ” ,然后对每一次 “ 再传播 ” 作一个评价。
比如一条养生类的知识被一个人转发, AI 根据这个人的 “ 背景历史分析 ” 判断出是个有医学背景的大佬,由此可以判断消息大概率是真的。
学者李泉志还告诉差评君,理论上来说如果网络实名化普及率够高,AI 可以综合各平台信息对一个人做分析。
考虑到从 2015 年开始网络造谣被纳入了刑法,这套系统到了警察叔叔手里可能真的能封杀谣言。。。
有趣的是,在研究过程中存在一些我们传统意义上认为机器难以搞定的点,例如许多人在表达过程中会说反话讽刺,或者用上情绪化的语言。
以往的程序也许确实没办法搞定这些难点,但 “ 谣言粉碎机 ” 作为训练有素的 AI 却很轻松。
泉志告诉差评君,他们在机器学习过程中,用了大约 2 亿条推特文章,以及上百万条网络新闻。。。这个阅读量比差评君一辈子看过的字儿都多。
因此 AI 可以做到人类做不到的事情:用极短的时间和极高的准确率,识别谣言。
事实上,这样的事情全世界都在做,但是 “ 谣言粉碎机 ” 却做到了最好。
在最近刚结束的自然语言处理领域的权威比赛,全球语义测试 SemEval 中,主办方给来自各大知名大学和研究机构的参赛者提供了 470 多条是社交媒体上的新闻,以及留言转发数据,让他们判断真假。
泉志的 “ 谣言粉碎机 ” 的假新闻识别率达到了 81% ,创造了记录。
当然,这套系统过于强大,泉志也表示如果不当使用还存在隐患:
其中通过语言处理来做用户画像分析的能力,也许会被一些机构利用起来做精准投放。
但更多的是好的方面,比如说哪怕不用来识别新闻,拿来甄别论文抄袭也行。
而且现在的互联网方便消息传播的同时,也放大了谣言的危害。
因而获取即时准确的信息是互联网时代的人类诉求,研究出成熟破解谣言以及假新闻的工具也算是为全人类做出贡献。
而达摩院这样的机构,就有着互联网公司 “ 解决需求 ” 的思路,吸纳像李泉志一样的学者,用科研手段来解决人类问题。
这对可能对全人类都是一件有益的好事。
“ 造谣要坐牢的! ”
1、头条易读遵循行业规范,任何转载的稿件都会明确标注作者和来源;
2、本文内容来自“差评”微信公众号,文章版权归差评公众号所有。