您现在的位置是:首页 > 科技网站首页科技

前沿科技资讯:Facebook将改变算法 将几乎违反政策的边缘内容降级

  • 科技
  • 2021-06-06 00:24:29
  • 来源:
导读 很多小伙伴们对于互联网、科技、这方面的信息知识都是比较需要的吧,如今我们的生活当中处处都充满了通信、互联网、科技、数码,那么今天小

很多小伙伴们对于互联网、科技、这方面的信息知识都是比较需要的吧,如今我们的生活当中处处都充满了通信、互联网、科技、数码,那么今天小编就来为大家分享一些关于到通信、互联网、科技、数码方面的信息吧。

Face book将改变其News Feed算法,将内容降级,这几乎违反了其禁止错误信息、仇恨言论、暴力、欺凌、点击拜特的政策,因此即使它非常吸引人,也会被更少的人看到。这一变化可能会大大减少煽动性政治集团、假新闻小贩和Face book上更多最糟糕的东西的影响。它允许公司在网络上隐藏它不想要的东西,而不采取强硬的立场,它必须为违反规则的内容辩护。

在马克·扎克伯格(Mark Zuckerberg)今天发表的一封5000字的信中,他解释了如何存在一个“基本激励问题”,即“当不受约束时,人们将不成比例地接触更耸人听闻和更具挑衅性的内容。我们的研究表明,无论我们在哪里划出允许的界限,当一部分内容接近这一界限时,人们平均会更多地参与其中-即使他们事后告诉我们他们不喜欢这些内容。

在没有干预的情况下,与边缘内容的接触看起来像上面的图表,随着它越来越接近政策线而增加。因此,Face book正在进行干预,人为地抑制了这类内容的新闻提要分发,因此参与看起来像下面的图表。

[更新:虽然扎克伯格在一个案例中提到过去时态的变化,但Face book告诉我,边缘内容降级只在有限的情况下有效。该公司将继续重新利用其人工智能技术,积极主动地降低违反其政策的内容,以找到并降级接近这些政策限制的内容。

Face book将不仅仅对“新闻提要”(News Feed)而且对其所有内容(包括群组和页面本身)实施惩罚,以确保它不会通过推荐他们加入社区而使人们激进化,因为他们非常愿意参与这项政策。扎克伯格指出:“分化的群体和页面仍然会助长两极分化。

然而,有目的地想要查看边缘内容的用户将有机会选择加入。扎克伯格写道:“对于那些想自己做出这些决定的人来说,我们认为他们应该有这个选择,因为这种内容并不违反我们的标准。”例如,Face book可能会为文化规范不同的裸体等内容类型制定灵活的标准,比如一些妓女如何禁止女性在照片中暴露大量皮肤,而另一些人则允许在网络电视上裸体。正如Zuckerber所说,Face book必须首先训练其人工智能,以便能够可靠地检测出哪些内容越过了界限,或者有目的地接近了边界线。

Face book此前已将算法改为降级clickbait。从2014年开始,它的链接排名下降,人们点击,但很快反弹,没有回到Face book上的帖子。到2016年,它正在分析标题中常见的点击广告词,今年它禁止点击广告词的不真实行为。但现在它给了其他类型的耸人听闻的内容降级待遇。这可能意味着有暴力的帖子,不能显示身体伤害,或者生殖器几乎没有覆盖的淫秽图像,或者帖子表明人们应该为某一原因而实施暴力,而不直接告诉他们。

脸书最终可能会受到批评,特别是来自边缘政治团体的批评,他们依赖边缘内容来煽动他们的基础,传播他们的信息。但随着两极分化和耸人听闻的言论猖獗,撕裂了社会,Face book已经确定了一项政策,它可能试图维护言论自由,但用户没有资格对该言论进行放大。

下面是扎克伯格关于边缘内容的完整书面陈述:

社交网络面临的最大问题之一是,如果不加以控制,人们将不成比例地接触更耸人听闻和挑衅性的内容。这不是一个新现象。它在今天的有线新闻中很普遍,并且已经成为一个多世纪以来小报的主要内容。在规模上,它会破坏公共话语的质量,导致两极分化。在我们的情况下,它也会降低我们的服务质量。

[图表显示与不断增长的接触导致政策走向,然后被封锁]

我们的研究表明,无论我们在哪里划出允许的界限,当一部分内容接近这条线时,人们平均会更多地参与其中-即使他们事后告诉我们他们不喜欢这些内容。

这是一个基本的激励问题,我们可以通过惩罚边缘内容,使它得到更少的分配和参与。通过使分布曲线看起来像下面的图表,在下面的分布随着内容变得更加耸人听闻而下降,人们就会被激励不去创建尽可能接近线的挑衅性内容。

[图表显示直线下降的接触导致政策线,随后受阻]

这个调整这条曲线的过程类似于我上面描述的主动识别有害内容的过程,但现在的重点是识别边缘内容。我们训练人工智能系统来检测边缘内容,这样我们就可以减少分发这些内容。

我们最关注的类别是点击诱饵和错误信息。人们总是告诉我们这些类型的内容会使我们的服务变得更糟-尽管他们与他们接触。正如我上面提到的,阻止错误信息传播的最有效的方法是删除产生错误信息的假帐户。第二个最有效的策略是减少其分布和病毒性。(我在关于[筹备选举]的说明中更详细地谈到了这些办法。

有趣的是,我们的研究发现,这种边缘内容获得更多参与的自然模式不仅适用于新闻,而且几乎适用于每一类内容。例如,接近裸体线的照片,比如暴露的衣服或性暗示的姿势,在我们改变分布曲线以阻止这一点之前,平均得到了更多的参与。对于那些不属于我们对仇恨言论定义范围但仍然令人反感的帖子也是如此。

这种模式可能适用于人们加入的群体和他们所遵循的页面。这一点尤为重要,因为虽然社交网络一般会让人们接触到更多不同的观点,而群体一般会鼓励包容和接受,但分裂的群体和页面仍然会助长两极分化。为了管理这一点,我们需要应用这些分布变化,不仅是为了提供排名,而且是为了我们所有的推荐系统,为您应该加入的东西。

一个常见的反应是,我们不应该减少分配,而应该简单地移动定义可接受的内容的线。在某些情况下,这是值得考虑的,但重要的是要记住,这不会解决潜在的激励问题,这往往是更大的问题。这种参与模式似乎存在,无论我们在哪里划出界限,所以我们需要改变这种激励,而不仅仅是删除内容。

我相信这些努力在我们的系统中的潜在激励是我们在整个公司做的一些最重要的工作。我们在过去的一年里取得了重大进展,但我们仍有很多工作要做。

通过在我们的服务中解决这个激励问题,我们相信它会创造一个良性循环:通过减少各种形式的耸人听闻,我们将创造一个更健康、更少两极分化的话语,让更多的人感到安全参与其中。

免责声明:本文由用户上传,如有侵权请联系删除!
Top