不为特朗普上台背锅!Facebook 要用人工智能打击假新闻

下一篇文章

“没中文就给差评”:这是游戏玩家的合理诉求还是无理取闹?

不为特朗普上台背锅!Facebook 要用人工智能打击假新闻

Facebook 的一位发言人告诉 TechCrunch,该公司今年开发了两套解决方案来打击“钓鱼内容”(clickbait),最终决定使用机器学习算法进行检测,而不仅仅依靠用户报告。

周一,Facebook 受到了更多的指控,被指放任假新闻传播帮助唐纳德·特朗普(Donald Trump)赢得了美国大选。Gizmodo 发布的 一份新报道 称,Facebook 在今年年初搁置了一项本可以对虚假新闻进行识别的更新,而背后的原因就是它会不平衡地压制右翼媒体新闻的传播。

对此,Facebook 直接予以否认。该公司告诉 TechCrunch,“文章的指控是不正确的。我们没有基于对任何一个政党的潜在影响而开发和搁置任何‘动态消息’(News Feed)更新。”

不过,对于 Gizmodo 所讨论的更新,TechCrunch 从 Facebook 那里发掘出了更多的细节。

news-feed-machine-screengrab 早在 2015 年 1 月,Facebook 推出了一项旨在 打击虚假新闻报道 的更新,它会对那些被大量用户标记为“虚假信息”的链接进行降级处理,这些链接之后也往往会被发布者删除。那套系统至今仍然在发挥作用。

2016 年 8 月,Facebook 发布了“动态消息”的另一项更新,旨在 减少钓鱼新闻的数量 。Facebook 训练了一种机器学习算法,他们首先对虚假新闻标题的常用词语进行人工甄别。然后,这套机器学习系统将据此检测含有这些引诱性词语的新闻,并对其进行降级处理。

据 Facebook 称,为了 2016 年打击钓鱼内容的更新,他们开发了两种不同的解决方案。一种以 2015 年的更新为基础,是基于用户报告的分类器;另一种则是专为检测钓鱼内容开发的计算机算法,是基于机器学习技术的分类器。

Facebook 表示,他们发现专门开发的机器学习算法在实际使用中表现更好,错报率和漏报率都更低一些。因此,该公司选择了这一种方案。情况有可能是,Gizmodo 所提到的被搁置的更新正是被 Facebook 弃用的那套方案。Facebook 告诉我,他们之所以没有发布前一种方案,并非是因为它会不平衡地压制右翼媒体,但政治倾向仍然可能是一个问题。

选择依靠一种机器学习算法,而不是围绕基于用户报告的方案再做改进,这倒是契合 Facebook 近期做出的努力,即减少内容编排上可能存在的人类偏见——这种内容编排本身一直有问题。

fb-clickbait1

Gizmodo 在今年早些时候发布的一篇报道中称,Facebook“热门话题”(Trend)的编辑会滥用自己的权力压制保守派言论。Facebook 否认了这些指控,但解雇了编辑团队,转而采用一种更偏向算法的筛选系统,不再人工对热门话题添加描述。接着,Facebook 就被批假新闻泛滥。《纽约时报》报道称,“热门话题的这次事件让 Facebook 失去了对产品做出任何重大改进的意愿,这可能危及该平台的客观性。”

如果 Facebook 之前选择另一种解决方案,该公司可能会依靠人类员工的主观意见,对用户关于钓鱼新闻的报告进行审查,就像该平台对更加明确的骗局所做的那样。与此同时,政治活动人士或网络恶作剧者将可以滥用这种报告功能,把不符合自己观点的真实新闻报道标记成虚假的。

在这样一种政治极化的气候中——竞选目标和广告收入都对不实信息流传提供了激励——上述棘手状况正是社交媒体变成流行信息分发渠道的必然结果,因为社交媒体的内容是根据互动率进行排名的。

facebook-news-feed-algorithm

谁是真理的仲裁者?

Facebook 以及包括 Twitter 和谷歌在内的其他新闻传播渠道,它们都面临着一个挑战。那些可以用事实证伪的简单骗局只是问题的一部分,它们或许也更容易应对。而那些被夸大其词和添油加醋的钓鱼内容,打击它们的难度可能要更大一些。

由于 Facebook 和其他一些平台会对用户互动给予奖励,新闻媒体就有动机把报道写得尽可能危言耸听。虽然长期运营的有政治偏向的新闻媒体可能会因夸大其词而被追究责任,但那些专门对社交媒体病毒传播特点加以利用的新兴媒体(比如 Facebook)就不会遇到同样的后果。他们可能专注于短期的流量和广告收入,如果人们对其提供的内容感到厌倦,他们完全可以改换门庭,重装上阵。

要对抗虚假新闻的谬种流传,我们或许可以简化用户对虚假或夸张报道进行标记的流程,在那些可疑的文章旁边添加可供查证的网站链接,对那些重利不重信的网站进行封杀,诸如此类。显而易见,我们还有更多的工作要做。

facebook-news-feed-equation

然而,要求 Facebook 这样的社交媒体成为真理警察,那可能存在风险。那可能迫使该平台做出范围更广的决定,即哪些内容需要接受审查,而此举将不可避免地招致非难。至少,那些根据互动率对内容进行排名的技术平台仍然允许用户来决定自己所阅读的内容是否虚假或被夸大。Facebook 的首席执行官马克·扎克伯格(Mark Zuckerberg)重申过这种观点,他写道:“我认为,对于成为真理的仲裁者这件事,我们应该持非常谨慎的态度。”

目前来看,如果 Facebook 放任假新闻泛滥,该公司会完蛋,因为那意味着他们让用户自己来做判断;但是,如果 Facebook 不允许假新闻传播,该公司也会完蛋,因为那意味着他们要自己来决定审查什么,把选择权从用户那里夺走。这家社交网络将需要谨慎选择自己的下一步行动。

翻译:王灿均(@何无鱼

Facebook chose to fight fake news with AI, not just user reports

blog comments powered by Disqus