黄道带的补偿
Or Or C名人

找出十二生肖的兼容性

维基百科的破坏行为可能会阻止谷歌、YouTube 和 Facebook 上的恶作剧破坏

事实核查

一时间,加州共和党支持纳粹主义。至少,谷歌是这么说的。

这是因为有人在 5 月 31 日破坏了该党的维基百科页面,将“纳粹主义”与“保守主义”、“市场自由主义”和“财政保守主义”等意识形态一起列出。该错误已通过 Google 从搜索结果中删除 向副新闻澄清 搜索引擎未能捕捉到维基百科条目中的破坏行为。

谷歌有 长久以来 用于将基本信息附加到搜索结果的在线百科全书。根据 编辑日志 对于加州共和党页面, 有人添加了“纳粹主义” 在 5 月 31 日 7:40 UTC 左右到党的意识形态部分。编辑在一分钟内就被删除了,但谷歌的算法似乎正好赶上了假货。

“有时人们会破坏公共信息来源,比如维基百科,这可能会影响搜索中出现的信息,”谷歌发言人在一封电子邮件中告诉波因特。 “我们有系统可以在破坏行为影响搜索结果之前将其捕获,但偶尔会出现错误,这就是这里发生的情况。”

运营维基百科的非营利组织维基媒体基金会也在推特上发表声明。

据谷歌称,超过 99.9% 的 Wikipedia 编辑出现在知识面板中,在结果顶部显示有关可搜索关键字的基本信息,这不是故意破坏。对加州共和党页面进行原始编辑的用户 未使用用户配置文件 ,使他们难以追踪。

那是 一种常见的策略 在破坏维基百科页面的人中,非营利组织的一种做法 广泛记录 .但鉴于维基百科上的编辑量—— 大约每秒 10 个 ,每天有 600 个新页面——事实上,Facebook 和 YouTube 现在正在从它们中提取更多内容以提供更多的帖子内容,滥用的可能性和影响很高。

“当然,这是打击假新闻的一种相当薄弱的方法,因为维基百科不是可靠的信息来源——正如维基百科所承认的那样,”说 马格努斯·法劳·汉森 哥本哈根大学的博士后研究员在给波因特的信息中。 “维基百科很容易受到恶作剧的影响,并且包含各种错误信息,因此它不是打击虚假新闻问题的一种非常严肃的方式。”

汉森已经编辑维基百科页面大约 10 年了,他说破坏行为在平台上司空见惯。编辑人数 已经减少 近年来,虽然网络游击队已经 越来越针对平台 ——一个问题 达到了顶峰 在 2014 年的 Gamergate 争议期间。这本质上是一场数字游戏。

这相差甚远 维基百科在 2005 年的位置 ,当一项研究发现它与大英百科全书一样准确时。这使得志愿编辑更难在维基百科上打击大规模的破坏行为,这对于使用它来打击其他平台上的错误信息并不是一个好兆头。

“当然,维基百科上有很多错误的信息,而且很多信息会保留下来,”汉森说。 “通常有人写一篇文章,可能要过几年才会有人出现并编辑它。人们不会进行事实核查,除非某些事情看起来真的不合适。”

捏造的维基百科文章 在 2015 年被删除之前在该网站上生活了十年。

同时,该平台已被证明能够抵抗经常在网上疯传的恶作剧 Facebook推特 . 维基媒体估计 大约 2.5% 的日常编辑是故意破坏的,维基媒体的通讯经理 Samantha Lien 指出了一种算法,该算法会自动将有问题的编辑标记为其完整性努力的关键成功。

她在一封电子邮件中告诉波因特:“文章倾向于提供对事实的平衡表示,到目前为止,该网站已被证明能够抵御假新闻和错误信息。” “在过去的几年里,我们还与志愿者编辑合作,构建和改进审核工具,以快速识别和解决维基百科上的破坏行为。”

除了维基百科自身的限制之外,技术平台自身的系统也经常成为错误和争议的主题——尤其是知识面板。

同样在 5 月 31 日,在北卡罗来纳州寻找支持唐纳德·特朗普的共和党参议员 浮出水面 她的底部写着“偏执狂”。一月份,The Daily Caller 发现谷歌错误地将事实检查附加到其内容而不是其他网点。这导致这家科技公司暂停了该功能,直到解决了错误。

谷歌告诉 Poynter,它不会手动更改搜索结果以显示对一方的偏好。但它的算法经常被 恶作剧 , 虚假广告 和试图改变搜索结果的巨魔。这些问题可能会扩展到链接到维基百科的其他平台。

“当更多的媒体平台不加批判地使用维基百科的内容时,这确实会增加风险——无论是对于那些会误导或恶作剧的人,还是那些传播知识的人,”汉森说。 “我认为,特别是从 YouTube 视频中链接到关于阴谋论的维基百科,这可能会吸引错误的人群。”

三月, YouTube宣布 它将直接链接到视频描述中的维基百科页面,以提供更多背景信息并揭穿病毒阴谋论,这 经常病毒式传播 在突发新闻事件之后。那些在平台上引入的“信息线索” 没有维基百科的知识 - 将包括关于来源的简短行和指向其 Wikipedia 页面的链接。

该功能尚未推出,但 YouTube 在 2 月份推出了类似功能,为从美国政府获得资金的新闻机构提供更多背景信息。

YouTube

(来自 YouTube 的屏幕截图)

鉴于维基百科页面的可见度增加,可以想象破坏者可能会涌向该平台,以便通过一次编辑来拖钓多个平台。

“维基百科‘黑客攻击’一直是个问题,但这个问题只会真正影响到维基百科的读者。现在,随着平台越来越多地自动从维基百科中撤出,它变得更加危险,”First Draft 执行董事 Claire Wardle 在给 Poynter 的电子邮件中说。 “对于想要最大程度放大虚假信息的代理人来说,任何确保平台或新闻编辑室重复并因此使虚假信息合法化的技术都会提供不成比例的‘投资回报’。”

Lien 说,尽管维基百科作为更多平台的来源,但破坏行为并未增加。但是看到这些新增内容如何让组织措手不及,不确定它们将如何影响维基百科页面的完整性。

“科技公司使用维基百科来解决他们自己平台上的错误信息问题的趋势对我们来说是一个新领域,我们不知道全部影响会是什么,”她说。 “在短期内,我们正在密切关注这对维基百科和我们的全球志愿者社区的影响。迄今为止,我们还没有看到任何表明更广泛的故意破坏问题的情况。”

但即使维基百科的破坏行为有所增加,目的是改变平台上的结果,Lien 表示该组织也无法知道。

她说:“我们没有可用的数据来表明故意操纵其他平台的故意破坏趋势。”

那么,更多错误信息进入其他平台的可能性有多大?东北大学传播学副教授、维基百科专家约瑟夫·雷格尔告诉波因特,虽然没有合适的监控系统就无法知道,但已经建立的结构可能会使错误信息更加明显——即使它不是为了游戏而创建的谷歌和Facebook等平台。

“是的,这很有可能,而且我认为随着这些营利性公司不断加入这一潮流,这种可能性会变得更大,”他说。 “在谷歌的案例中,我不认为编辑的目的是为了污染维基百科的下游用户,但这仍然是效果。这些下游聚合器使用维基百科这一事实也将使维基百科成为一个目标,这是一个值得关注的问题。”

尽管如此,尽管它在缩小,维基百科仍然有一个忠诚的编辑社区,他们拥有 多年经验 处理有关突发新闻的文章。普林斯顿大学博士后研究员内森·马蒂亚斯在一封电子邮件中告诉波因特,由于这个社区,错误信息不太可能经常从裂缝中溜走。

但在网站的边缘,这种机会大大增加。

他说:“在突发新闻案例中,各种活动家已经开发出比新闻速度更快地影响平台算法的方法,我预计维基百科将更有弹性地受到影响。” “在知识和注意力的边缘,维基百科和平台面临的风险会更大,因为很难发现一小部分人访问低调的极端主义材料。”

尽管存在挑战,但一些专家将链接到维基百科页面的技术平台视为打击在线错误信息的一步。

韦尔斯利学院计算机科学助理教授埃尼·穆斯塔法拉杰在一封电子邮件中告诉波因特,将维基百科添加到大型科技平台是一个积极的举措。但它带有警告。

“他们需要始终如一地这样做,而不仅仅是为了打击错误信息、恶作剧或阴谋论,”她说。 “为了打击错误信息,我们不应该让 Facebook 和谷歌负责,因为首先是他们加剧了这个问题。”

同时,从平台上获取维基百科的信息可能会固有地使读者感到困惑。汉森说,从社交媒体平台看到指向该网站的链接,即使它们被贴上标签,也不会引起维基百科用户固有的怀疑。

“读者不知道这是来自维基百科。那种引入了一个你无法确定信息来源的层,”他说。 “人们在维基百科上持怀疑态度——你可以在没有来源的时候看到……当你在不同的平台上时,你不会对这种事情保持警惕。”

然后是带宽问题。随着编辑人数持续下降,维基百科可能会考虑雇佣全职员工,他们的工作是监控破坏行为并确保它不会蔓延到其他平台。汉森说,他认为非营利组织应该建立一个内部事实核查部门,或者征求专家编辑和学者对一些更细微的页面进行权衡。

“我认为这是打击维基百科虚假信息的唯一方法,”他说。

至少,Lien 建议使用维基百科来对抗错误信息的技术平台以某种方式回馈非营利组织——维基媒体执行董事凯瑟琳·马赫 (Katherine Maher) 在 《连线》最近的一篇文章 . (脸书和 YouTube 不包括在内 维基媒体的最大恩人之一。)

“我们鼓励使用维基百科内容的公司以同样的可持续精神回馈社会,”她说。 “这样做,他们将加入数以百万计的人的行列,以保持维基百科的强大和繁荣。”

马蒂亚斯同意了。

“如果公司希望依靠来自维基百科和维基媒体基金会的大量无偿且通常是心理负担重的劳动力来解决他们最棘手的问题,他们需要找到方法来支持这项工作,同时保护维基百科的知识独立性,”他说。