黄道带的补偿
Or Or C名人

找出十二生肖的兼容性

Facebook 宣布全面改变其反错误信息政策

事实核查

(快门)

Facebook 将在本财年第二季度开始改变其打击平台上错误信息的方式。

在周三发给波因特的一篇近 2000 字的博文中,Facebook 宣布了一系列打击虚假新闻故事、图像和视频的新举措。

在这些变化中:

  • Facebook 现在正在减少反复传播错误信息的群体的影响力。
  • 它正在探索使用众包来确定用户最信任的新闻媒体。
  • 该公司正在向 Messenger、群组和 News Feed 添加新指标,以告知用户他们正在查看的内容。

Facebook 发言人 Mari Melguizo 在给 Poynter 的电子邮件中说:“我们有许多产品更新,而不是一两个重大变化。” “这些努力的重点是确保人们的安全,并保持流经我们应用程序的信息的完整性。”

以下是每个最大的变化与错误信息的具体关系,来自记者、学者和技术人员的背景,以及关于每个主题的额外阅读。完整阅读 Facebook 的博文 这里 .

降级散布错误信息的团体

Facebook 周三宣布的最大变化之一是,它将开始降低反复传播虚假新闻故事、图像和视频的群体的影响力。

Facebook 诚信副总裁 Guy Rosen 和新闻提要诚信负责人 Tessa Lyons 写道:“当一个群组中的人们反复分享被独立事实核查人员认定为虚假的内容时,我们将减少该群组的整体 News Feed 分发。” ,在博文中。

Facebook抓狂了在过去的几个月里,针对反疫苗阴谋论的传播,很多都是从群体开始,然后传播到平台的其余部分。为应对媒体压力和来自美国政客的压力, 公司 概述了一个计划 3 月初,在其平台上遏制 antivaxxer 内容。

在其中,Facebook 宣布将从其推荐算法中删除共享反疫苗错误信息的群组和页面,但不会完全删除。此举是对团体在传播虚假内容方面的权力的默许。

Facebook 正在对反疫苗阴谋采取行动。但是,虚假的医学疗法仍在广泛传播。

BuzzFeed 新闻报道 2018 年 3 月,该功能经常受到 Facebook 领导层的称赞——以及 在新闻提要中优先 — 已成为“垃圾邮件、假新闻、阴谋、健康错误信息、骚扰、黑客攻击、拖钓、诈骗和其他对用户的威胁的全球蜜罐”。为什么?

安全研究员 Renee DiResta 告诉 BuzzFeed:“宣传者和垃圾邮件发送者需要吸引观众,而团体则将其放在一个盘子上。” “如果您只需加入相关群组并开始发帖,就无需开展广告活动来寻找接受您信息的人。”

而且,虽然该公司已经采取了一些措施来限制虚假信息在 News Feed 中的传播,但直到周三,它在打击特别是群体中的错误信息方面做得很少。

“没有齐心协力消除虚假新闻、错误信息等,”一位在群组工作的前 Facebook 员工在 1 月份告诉 Poynter。 “情况要糟糕得多,因为它就在那里并且被隐藏起来……它就像新闻源上的虚假新闻错误信息生成机器一样糟糕。”

Facebook 集团的发言人 Leonard Lam 告诉 Poynter,管理 News Feed 等产品的反错误信息政策同样适用于整个平台。这意味着被 Facebook 的事实核查合作伙伴揭穿的虚假文章、图像和视频将出现在它们下方,相关的事实核查显示在它们下方——即使是成组的。

这些信号还将用于确定哪些群体是重复误导者,这是 Facebook 专门为打击群体中的错误信息所做的第一件事。

超党派 Facebook 群组是事实核查人员面临的下一个重大挑战

众包信任新闻

周三的公告发布之际,Facebook 正在扩大与世界各地事实核查机构的合作伙伴关系——可以说是该公司在平台上打击错误信息的最明显努力。

Facebook 于 2016 年 12 月与美国事实核查机构(如(Poynter 拥有)PolitiFact、Snopes 和 Factcheck.org)一起启动了该项目。目标:识别、揭穿和减少平台上虚假新闻报道的影响力。一旦恶作剧被标记为虚假,它在新闻提要中的未来影响力就会减少,并且会附加一个事实检查。(披露:作为签署人Poynter 的国际事实核查网络的原则代码是加入项目的必要条件。)

从此,它扩大了让事实核查人员揭穿虚假图像和视频。伙伴关系 已经成长 47 个项目,以 23 种语言在世界各地写作。虽然 Snopes 和 CBS 等项目因不同原因退出,但美联社等媒体 最近扩大了 他们对该计划的承诺。

一项新的反错误信息功能可以帮助加强这项工作。

Facebook 如何在一张图中处理错误信息

“全世界根本没有足够的专业事实核查人员,就像所有优秀的新闻一样,事实核查需要时间,”罗森和里昂在博客文章中写道。 “我们自 2017 年以来一直在探索的一个支持他们工作的有希望的想法是,Facebook 用户群体指向新闻来源,以证实或反驳对潜在虚假内容的说法。”

首席执行官马克扎克伯格提出了这个想法 在 Facebook 视频中 二月——一年多之后 他先把它浮起来 .此举 不是 受欢迎的 在记者中,他们表示日常 Facebook 用户无法抛开偏见对可信的新闻媒体进行评分。

但一项新的研究 发表于 2018 年 2 月 否则建议。

“我们发现,虽然民主党人和共和党人在主流新闻媒体方面存在真正的分歧,但基本上每个人——民主党人、共和党人和专业事实核查员——都同意不信任虚假和超党派网站,”大卫兰德说,麻省理工学院副教授, 在新闻稿中 .

根据周三的博客文章,Facebook 将继续通过咨询学者、事实核查专家、记者和民间社会组织来探索这一想法。

“我们实施的任何系统都必须防止游戏或操纵,避免引入个人偏见并保护少数人的声音,”罗森和里昂写道。

在 Facebook 上众包值得信赖的资源并不像你想象的那么牵强

Facebook 上的更多背景信息

过去,科技公司 已经转向网站 像维基百科一样提供有关在其平台上发布的来源的更多背景信息。周三,Facebook 宣布了一系列新的类似指标。

“我们正在投资于功能和产品,为人们提供更多信息,帮助他们决定阅读、信任和分享的内容,”罗森和里昂在博客文章中写道。

Facebook 更新了它的上下文按钮, 推出 去年 4 月,包括来自 信托项目 关于出版商的道德政策、所有权和资金结构。该公司开始在其页面质量选项卡中显示更多信息, 一月推出 向页面所有者展示他们的哪些帖子被 Facebook 的事实核查合作伙伴揭穿。而且,在 Messenger 中,该公司正在添加一个经过验证的徽章,以减少假冒和诈骗。

Facebook 也开始在 Messenger 中标记转发的消息——这种策略似乎是从姊妹公司 WhatsApp 借来的,后者 推出了类似的功能 7 月,试图减少错误信息的传播。

WhatsApp 推出了标记转发消息的功能

虽然它们是一种在社交媒体上向用户提供有关出版商的更多信息的简单方法,从而防止他们分享错误信息,但 Facebook 的上下文按钮等指标也有可能被人玩弄。

整个夏天,有人破坏了加州共和党的维基百科页面,说它支持纳粹主义。虽然大多数维基百科故意破坏案件都很快被抓获,但这一事件却传到了谷歌, 浮出水面 搜索结果中的错误编辑。

这是罕见的。但鉴于每天对 Wikipedia 进行的大量编辑,技术平台可能很难捕捉到所有破坏行为。

哥本哈根大学博士后研究员 Magnus Pharao Hansen 说:“当然,打击假新闻的方法很弱,因为 Wikipedia 不是可靠的信息来源——甚至 Wikipedia 也承认这一点。” 六月告诉波因特 . “维基百科很容易受到恶作剧的影响,并且包含各种错误信息,因此它不是打击虚假新闻问题的一种非常严肃的方式。”

维基百科的破坏行为可能会阻止谷歌、YouTube 和 Facebook 上的恶作剧破坏

与此同时,Facebook 的页面质量标签等功能对错误信息的传播产生了更明显的影响。

在 Factcheck.org 之后 揭穿 3 月份关于美国众议员 Alexandria Ocasio-Cortez (DN.Y.) 的虚假模因,即发布照片的页面 删除它 .这不是第一次。 Facebook 上的其他重复误导页面 已删除内容 被公司的事实核查合作伙伴揭穿,以及一些 重新命名了他们的业务 共。

更正: 本文之前的版本拼错了 Leonard Lam 的姓氏。