黄道带的补偿
Or Or C名人

找出十二生肖的兼容性

问伦理学家:Facebook 压制保守新闻是否正确?

道德与信任

戴夫·帕普(Dave Pape)通过 Flickr 拍摄的照片。

Gizmodo 今天在社交媒体上引发了一场风暴 报道 Facebook 的“趋势”部分的策展人经常将 kibosh 放在右倾新闻故事上。

这个故事,归因于匿名消息来源,部分原因是 Facebook 作为媒体巨头的地位,每天都在引导新闻机构的流量。但它也引起了轰动,因为 Facebook 一直在努力将自己塑造成一个无党派的新闻中介,一家提供不偏不倚的故事的公司。在 一个回应 对于 Gizmodo 的故事,Facebook 表示它“非常认真地”对待偏见指控,并重申其致力于提供“跨越政治领域”的观点。

在短短十多年的时间里,Facebook 从一个宿舍初创公司发展成为 最大的之一 全球新闻和信息的分销商。那么,当新闻业最重要的中间人之一被发现是由具有人类偏见的人组成时,我们应该如何反应呢?以下是与波因特研究所副总裁兼媒体伦理学家凯利麦克布赖德就今天的报告对新闻业意味着什么进行的问答环节。

如果 Gizmodo 的说法是准确的,而 Facebook 的新闻策展人故意避开保守新闻,这会造成问题吗?如果是这样,为什么?

这是一个问题,因为它展示了从幕后操纵思想市场的能力。这并不是什么新鲜事,但它削弱了社交媒体支持者的观点,他们认为 Facebook 是一个更民主的新闻发布论坛。

我们很早就知道,算法在其选择过程中编程了偏见。但是,这种声称人类凌驾于选择过程之上的说法破坏了算法新闻列表和提要的整个想法。这表明 Facebook 对他们的用户群没有完全的信心。当您考虑匿名消息来源声称团队被指示为基于保守网站的初始报告趋势的信息寻找更中立的来源时尤其如此。

我怀疑有更多关于这种做法的信息,由未具名的消息来源描述,这将有助于我们了解 Facebook 试图实现的目标。因为 Facebook 根据政治观点秘密操纵热门话题并没有太大的商业意义。

这不会疏远他们的大部分用户吗?必须有更多细节可以帮助我们理解这一点。也许,正如一位消息人士所推测的那样,他们正在改进算法?

新闻机构显然 有偏见 关于他们选择的特色。 Facebook 在这方面的偏好真的与报纸、电视台或数字创业公司有什么不同吗?

这对观众来说有点难以辨别,所以它不那么透明,因此也不同。当您知道要寻找人类偏见时,就更容易发现人类偏见。到目前为止,我们认为热门话题团队只是在写标题和描述,并没有真正影响我们对热门话题的理解。

这个故事表明,Facebook 的推荐并非完全由算法驱动——它们部分是由人类根据人类偏好做出的。 Facebook 是否可以采取一些措施来减少其选择中出现的偏见?

如果您希望观众信任您,无论您是在谈论人类偏见还是机器偏见,透明度始终是答案。在这两种情况下,说起来容易做起来难。人类很难准确地描述他们的偏见。如果算法要抵抗操纵,算法就需要一点不透明性。

如果 Facebook 可以告诉我们更多关于算法特权和算法拒绝什么的信息,那将很有帮助。如果 Facebook 也能告诉我们人类做什么和不做什么,我们将拥有比现在更多的信息,更有理由相信我们所看到的。

Facebook 是我们在网上看到的新闻的巨大决定者。它是否有责任对它如何为我们服务的故事保持透明?

作为新闻网站受众的第一大驱动力,Facebook 已成为创意市场的最大力量。伴随着这种影响,一项重大责任随之而来。 Facebook 可以通过多种方式履行这一责任。过去,Facebook 曾确认其承认其民主义务。但它总是可以做得更多。

Facebook 还能采取其他措施吗?

这是一个疯狂的想法:如果 Facebook(以及其他有明显影响创意市场能力的公司)拥有像《纽约时报》那样的公共编辑会怎么样。该人将能够从公众的角度研究和撰写有关公司的文章,回答问题并解释推动某些决策的价值观。

Poynter 的执行编辑 Benjamin Mullin 为本报告做出了贡献。