建立多维度向量进行数据检测的AI系统

2018-12-30 23:38:18 来源:www.tanmila.com 作者:

  在网络时代,虚假新闻是压倒一切的,令人困惑。Facebook曾一度陷入虚假新闻的泥潭,不仅被指控影响美国总统选举的结果,还被指控触发德国政府的巨额罚款。就连以信誉著称的BBC也不能幸免。例如,BBC北安普顿分部的Twitter账户就发送了这样一条信息:

  爆料新闻:特朗普总统在就职典礼上受枪伤。

  10月4日,麻省理工学院的计算机科学与人工智能实验室(CSAIL)在其官方网站上发布了一则消息,声称该实验室与卡塔尔计算研究所的研究人员合作,开发了一个人工智能系统,该系统能够识别信息源的准确性,并且能够识别p.个人政治偏见。这项研究的结果将于本月底在比利时举行。布鲁塞尔举行的2018年自然语言处理经验方法会议(EMNLP)正式宣布。

  研究人员使用人工智能系统创建了一个包含1000多个新闻源的开源数据集,这些新闻源被标记为真实性和偏见分数。据说,这是相似数据集中最多的新闻源。

  研究人员写道,打击虚假新闻的一种(希望)方法是关注来源。尽管虚假新闻(帖子)主要通过社交媒体传播,但它们仍然有自己的原始来源,也就是说,一种,所以如果一个网站发布了虚假新闻,那么它很有可能在将来被发布。

  人工智能系统的新颖之处在于它对所评估的媒体具有广泛的上下文理解。它并不仅仅从新闻文章中提取特征值(通过机器学习模型训练的变量),而是考虑维基百科、社交媒体,甚至基于URL和网络流量数据的结构来确定可信度。

  

blob.png

 

  系统的支持向量(SVM)训练用于评估事实和偏差。真实性分为:低、中、高;政治倾向分为:极左、左、中左、右、右和极右。

  该小组表示,该系统只需要检测150篇文章,即可确定新源代码是否可靠,在检测新闻源是否具有高度、低度或中度真实性方面具有65%的准确率,在检测其政治倾向是左倾、右倾还是中立方面具有70%的准确率。

  在上面显示的文章中,AI系统从六个维度测试了文章的文本和标题。它不仅分析了文章的结构、情感和参与(在本例中是股票数量、对Facebook的反应和评论),还分析了文章的主题、复杂性、偏见和道德观念,并计算了每个特征值的得分,然后对一组文章进行了平均评分。

  维基百科和Twitter也被添加到人工智能系统的预测模型中。正如研究人员所说,维基百科页面的缺失可能表明一个网站不可信,或者说提及这个问题的政治倾向可能是讽刺的或者显然是左倾的。此外,他们指出,信息公开不太可能。通过未经身份验证的Twitter帐户,或者使用没有明确标记的新创建的帐户,都是正确的。

  模型的最后两个向量是URL结构和网络流量,它们可以检测试图模仿可信新闻源的URL(例如,foxnews.co),参考网站的Alexa排名,该排名是根据网站的访问总数计算的。

  该小组在MBCF(MediaBiasFactCheck)网站上对1066个新闻源进行了AI系统培训。为了生成上述信息,研究人员在每个网站上发表了10-100篇文章(总共94814篇)。

  正如研究人员在报告中煞费苦心地介绍的那样,并非每个特征值都能有效地预测事实的准确性或政治偏见。例如,一些没有维基百科网页或Twitter档案的网站可能发布公平可信的信息,而Alexa排名靠前的新闻来源并不总是更公平或更真实。比那些交通不那么拥挤的人更可信。

  研究人员有一个有趣的发现:来自虚假新闻网站的文章更倾向于使用夸张和情绪化的语言,而左倾的媒体更倾向于提及公平和互惠。同时,维基百科页面较长的出版物通常更值得信任,包含少量特殊内容的URL也是如此。字符和复杂子目录。

  将来,研究小组打算探索人工智能系统是否可以适应其他语言(目前只有英语培训)以及它是否可以被训练来检测特定领域的偏见。他们还计划推出一个应用程序,通过政治领域的文章自动响应新闻。

  该论文的第一作者兼博士后助理RamyBaly说:如果一个网站之前发布了虚假新闻,他们很可能会再次发布它。通过自动从这些网站抓取数据,我们希望我们的系统可以帮助找出哪些网站可以首先这样做。

  新德里的初创公司MetaFact使用NLP算法在新闻报道和社交媒体帖子中标记错误信息和偏见;SAAS平台AdVerify。AI去年发布了测试版来分析错误消息、恶意软件和其他有问题的内容,并交叉引用定期更新的数据库,该数据库包含数千个错误和合法新闻。

  如前所述,一度陷入虚假新闻的Facebook已经开始使用人工智能工具来识别虚假新闻,最近收购了位于伦敦的初创公司Bloomsb.AI,以帮助其识别和消除虚假新闻。

  然而,一些专家不相信人工智能能够胜任这项任务。卡内基梅隆大学机器人研究所的科学家迪安·波默洛在接受外国媒体的采访时告诉《边缘》杂志,人工智能缺乏对语言的微妙理解,这对于识别谎言和虚假陈述至关重要。

  我们最初的目标是建立一个系统来回答,'这是假消息,是或不是,'他说,但我们很快意识到,机器学习不符合任务。

  但是人类事实检验员并不一定比人工智能做得更好。今年,在保守媒体指责谷歌对他们有偏见之后,谷歌暂停了过去在谷歌新闻上贴的标签FactCheck。

  然而,无论识别假新闻和个人偏见的最终解决方案是人工智能系统还是人为的,或者两者兼而有之,假新闻被消除的那一天都不会马上到来。

  咨询公司Gartner预测,到2022年,如果目前的趋势保持不变,大多数发达国家将看到更多的虚假信息而不是真实信息。