计算机视觉产品已经广泛应用的领域不包括( 二 )


无人驾驶汽车的普及会释放大量物流行业的人力成本,使得B-C的业务更加便捷,价格也会因为人力成本的降低而更加合理 。长途大巴出行会有更多的休息时间 。无人驾驶出租车将使人们能够立即打电话离开 。晚上给女人打电话比较安全 。由于更好的路线规划,城市交通也将减少拥堵 。
人工智能将赋予计算机理解世界的能力 。计算机可以更好地帮助人们分析、计划和决策 。当然,计算机视觉人工智能技术的想象力空是无限的,但从技术研究到实际应用还有很长的路要走,这也是所有相关研究者的方向和愿景 。


网络时代,虚假新闻铺天盖地,令人困惑 。脸书一度陷入假新闻的泥潭,不仅被指影响美国总统大选结果,还被指引发德国政府巨额罚款 。就连名声在外的BBC也不能幸免 。例如,英国广播公司北安普顿分公司的推特账户发送了这条消息:
突发新闻:特朗普总统在就职典礼上遭枪击 。
10月4日,麻省理工学院计算机科学与人工智能实验室(CSAIL)在其官网上发布消息,声称其与卡塔尔计算技术研究所的研究人员合作开发了一个人工智能系统,可以识别信息来源的准确性和p .个人政治偏见 。这项研究的结果将于本月底在比利时举行 。在布鲁塞尔举行的2018自然语言处理经验方法大会(EMNLP)正式宣布 。
研究人员使用人工智能系统创建了一个包含1000多个新闻源的开源数据集,这些新闻源被标记为真实性和偏见分数 。据说这是同类数据集数量最多的新闻源 。
研究人员写道,打击虚假新闻的一个(有希望的)方法是关注源头 。假新闻(帖子)虽然主要是通过社交媒体传播,但是还是有自己的原始来源,也就是一种,所以如果一个网站发布了假新闻,那么以后很可能也会发布 。
人工智能系统的新颖之处在于它对被评价媒体的广泛的上下文理解 。它不只是从新文章中提取特征值(机器学习模型训练的变量),而是考虑维基百科、社交媒体,甚至URL和网络流量数据的结构来确定可信度 。
系统的支持向量(SVM)训练用于评估事实和偏差 。真实性分为:低、中、高;政治倾向分为:极左、左派、中间左派、右派、右派和极右 。
根据该小组的说法,该系统只需检查150篇文章即可确定新源代码是否可靠,在检查新闻源是否具有高、低或中等真实性方面的准确率为65%,在检查他的政治倾向是左倾、右倾还是中立方面的准确率为70% 。
在上面显示的文章中,AI系统从六个维度测试了文章的文本和标题 。它不仅分析文章的结构、情感和参与度(这里指的是股票数量、对脸书的反应和评论),还分析文章的主题、复杂性、偏见和道德观念,并计算每个特征值的得分,然后给一组文章一个平均分 。
维基百科和推特也被加入到人工智能系统的预测模型中 。正如研究人员所说,维基百科页面的缺失可能表明一个网站不可信,或者提到这个问题的政治倾向可能具有讽刺意味或明显左倾 。此外,他们指出,信息披露的可能性不大 。未经认证的Twitter账号,或者新创建的没有明确标注的账号,都是正确的 。
模型的最后两个向量是URL结构和网络流量 。他们可以检测试图模仿可信新闻来源的URL(例如,foxnews.co) 。参考网站的Alexa排名,根据网站的总访问量来计算 。
该团队在MBCF网站(MediaBiasFactCheck)上训练了1066个新闻源 。为了生成上述信息,研究人员在每个网站上发表了10-100的文章(总共94,814篇) 。
正如研究人员在报告中煞费苦心介绍的那样,并不是每个特征值都能有效预测事实的准确性或政治偏见 。例如,一些没有维基百科页面或Twitter档案的网站可能会发布公平可信的信息,而Alexa的顶级新闻来源并不总是更公平或更真实 。比流量少的更可信 。
研究人员有一个有趣的发现:假新闻网站的文章倾向于使用夸张和情绪化的语言,而左倾媒体则倾向于提及公平和互惠 。同时,页面较长的维基百科出版物通常更值得信赖,包含少量特殊内容的网址也是如此 。和复杂的字符子目录 。
在未来,研究小组打算探索人工智能系统是否可以适应其他语言(目前只有英语训练),以及是否可以训练它来检测特定领域的偏见 。他们还计划推出一款应用,通过政治领域的文章自动回复新闻 。
该论文的第一作者、博士后助理RamyBaly说:如果一个网站之前发布了虚假新闻,他们很可能会再次发布 。通过自动从这些网站抓取数据,我们希望我们的系统可以帮助找出哪些网站可以首先做到这一点 。

推荐阅读