新闻,算法和急需的调整

Facebook和Google试图解决虚假新闻,令人反感或事实上不正确的信息的问题,并面临相关算法的问题。

两家公司都需要解决方案:Facebook因其在美国大选期间散布虚假新闻的作用而受到批评,这可能改变了许多美国人的投票方式,而Google也因毫无疑问地在其摘要中或通过Google Home整理垃圾物品而受到攻击。

面临的挑战是重新设计一种算法,以防止散布垃圾新闻和假新闻,同时要考虑到人们喜欢这种东西的事实(耸人听闻和偏见的信息无疑吸引了观众)。

到目前为止,已经确定了四种方法,其中包括将新数据引入方程式。 在哪里提取可以对新闻项目进行评级的新数据?

  1. 来自事实检查页面的授权来源 ,例如Snopes,Politifact或其他符合一些基本操作原理并使用有资格的人员检查新闻并对其做出结论的页面。 这是Facebook根据这些类型的页面发布的判断将新闻评为“有争议”的路径,也是法国Google通过CrossCheck(法国Google新闻实验室和欧洲媒体在First Draft共同开发的工具)在法国选择的路径。联合倡议。 结果,在法国,大约有600个网站被确定为不可靠; Libération还会编辑并识别假新闻。
  2. 用户的意见 :对等评级系统的使用以及从其使用中得出的模式评估。 面对党派新闻的迅速传播,或者说是宗派主义的或令人反感的新闻,我们可以期望看到喜欢这些内容的语气或内容的人之间迅速传播,以及考虑到这些内容的人使用评级工具新闻项目实际上是不正确或不可接受的。 对这些负面用户评价的生成模式的研究,连同对这些用户的分析,可以在算法中引入更多元素。
  3. 传播方式 :分析新闻传播方式。 非常快的曲线,非常陡峭的曲线或那些以被识别为具有特定趋势的人,以非常均匀的群体,或具有明显可识别和可归属的模式的人员为代价而增长的曲线,至少应受到某种类型的监督。
  4. 使用独立的评估人员 :来自不同国家的大量人员,并且高度专注于新闻评估。 Google最近为此雇用了1万人,他们不能直接影响新闻在结果页面中的位置,但是会根据详尽的160页页面指南,生成有关其可信度的合格数据,并将新闻标记为“令人不快的-冒犯性”用作附加输入变量(试图定义问题的文档,应在新闻学院中使用)。

我们还应该记住,我们在这里谈论的是输入变量,而不是输出变量:换句话说,这不是关于给定的模式,评估者的意见或次要来源的意见是否自动“取消资格”或“消除”了新闻。 ,但该信息用于提供机器学习算法,该算法会随着时间的推移尝试开发从该信息中得出的模式。

为什么需要重新设计算法? 仅仅因为他们响应的环境也在变化。 只要有足够的诱因,任何工具都有可能被滥用,这就需要保护这些工具免遭此类滥用。 因此,我们知道的大多数算法都在进行中,试图随着环境的特征或它们产生的使用模式而发展。 虚假新闻的情况,例如谷歌先前进行的试图纠正耸人听闻的举动的连续尝试,清楚地表明了这一点。

因此,迫切需要发展。 而且,从研究的角度来看,也完全令人着迷。