[ad_1]
Facebook 和 Twitter 在一场可能对在线内容审核产生重大影响的诉讼中为谷歌辩护。
Bloomberg Law 上周报道称,这些公司最近针对即将到来的“可能从根本上改变互联网运作方式”的案件提交了自己的法律摘要。
该诉讼提出了一个狭义的问题,即当网站故意使用算法向用户显示第三方内容时,第 230 条是否适用,特别是宣扬恐怖主义的内容。
这起诉讼是由 2015 年在巴黎恐怖袭击中丧生的一名美国人的家人提起的。原告声称,第 230 条不保护社交媒体平台用于为其用户提供特定内容的算法。 下级法院去年裁定谷歌胜诉,但原告将此案上诉至最高法院,最高法院于 2022 年 10 月批准调卷令。
社交媒体平台争辩说,无论他们的算法宣传什么,他们都不能对他人的行为负责。
MRC 言论自由美国和 MRC 业务副总裁 Dan Schneider 抨击谷歌在审查制度上的虚伪。
“谷歌正在积极审查保守派,但它似乎并不关心发布恐怖分子的内容,”施耐德说。 “为什么谷歌在允许此类内容的情况下花这么多时间让保守派闭嘴?”
在其简报中,推特敦促最高法院不要在诉讼原告寻求诉讼的范围之外修改法律,并辩称法律已经实现了原告寻求的救济:
“通过放置突出显示某些内容在网上尤为重要,因为全世界有数十亿人在不断生成信息。 过滤、排序和排名——生成原告所称的‘有针对性的推荐’的功能——对于使信息有意义地可访问性至关重要。”
该公司的简报补充说,第 230 条提供的保护是“明确的”。
“第 230(c)(1) 节是明确的,”Twitter 补充道。 “ 根据其普通含义和源自普通法的含义,第 230(c)(1) 节禁止要求服务提供商或用户对传播第三方内容负责的主张。 “
Meta 的简报特别强调了该公司为防止用户查看与恐怖主义有关的内容所做的努力:
“与大多数社交媒体公司一样,Meta 长期以来一直有严格的政策来禁止恐怖分子和恐怖组织,以及在其服务中赞扬或支持此类个人和组织的帖子。 这些政策有助于确保 Meta 的服务是用户想要经常光顾的地方,也是广告商想要做广告的地方。 Meta 已投资数十亿美元来开发复杂的安全和安保系统,这些系统可以快速识别、阻止和删除恐怖主义内容——通常是在任何用户看到之前。”
Meta 继续吹嘘它在 2022 年审查了大量内容:
“仅在 2022 年第三季度,Meta 就屏蔽或删除了近 1700 万条违反其反恐政策的第三方内容,并自行识别了其中 99.1% 的内容。 如果与恐怖主义有关的内容逃过了 Meta 的一线防御,Meta 已采取措施降低将其展示给其他人的风险。”
微软和 Reddit 提交了自己的简报,以回应表达类似担忧的诉讼。
可以在此处找到与诉讼相关的所有其他诉状。
保守派受到攻击。 联系您的代表,要求大型科技公司承担责任以反映第一修正案,同时为保守派提供透明度和平等地位。 如果您受到审查,请通过媒体研究中心联系表与我们联系,并帮助我们追究 Big Tech 的责任。
[ad_2]
Source link