如果网络暴力升级成为借道网络平台实施的恐怖袭击,平台该承担何种责任?
近期,美国最高法院公布的两份裁定,驳回了社交媒体公司为平台上传播的恐怖组织视频承担民事侵权责任的指控。
【资料图】
这两起普通用户与科技巨头的诉讼角力,都涉及 恐怖袭击事件。原告方均声称恐怖组织使用社交媒体发布和传播内容,平台应该对此担责。
2017年1月1日,土耳其伊斯坦布尔的雷纳夜总会发生大规模枪击事件,导致39人死亡,69人受伤。其中一位罹难者Nawras Alassaf的家属,依据美国《反恐法》第2333条提起民事诉讼, 声称推特、脸书、YouTube三个社交平台帮助和教唆了恐怖组织ISIS的恐袭行为, 以此要求这三个平台的运营公司赔偿损失。
美国《反恐法》第2333条规定,任何美国公民因“国际恐怖主义行为”遭受人身损害,其继承人可起诉并获损害赔偿。但只有证明科技公司为恐怖组织故意提供了实质性帮助,才有可能让相关公司承担教唆或帮助侵权的责任。
美国最高法院在该案的裁决中认为, 科技公司未能删除恐怖组织视频的不作为表现,以及平台算法推荐将ISIS内容与一些用户相匹配的事实,不能证明被告有故意提供实质性帮助,与恐袭之间不存在高度关联,因此Nawras Alassaf的家属无法依据《反恐法》第2333条索赔。
这一裁定结果也直接影响到美国最高法院同期审理的另一起案件。2015年11月13日,法国巴黎发生恐怖袭击案,造成130人死亡。枪击事件发生时,时年23岁的美国留学生诺赫米·冈萨雷斯正在一家热闹的巴黎小酒馆用餐,不幸中弹身亡。 冈萨雷斯的家人随后于2016年以美国《反恐法》为依据,指控谷歌应为冈萨雷斯的悲剧担责。
2023年2月21日,美国最高法院开庭审理“冈萨雷斯诉谷歌案”(下称“冈萨雷斯案”)。 诉讼的核心争议之一落脚在:社交媒体是否需要为其算法推荐非法内容而担责?这也触及到了此类案件的核心 ——1996年美国的《通讯规范法》(Communications Decency Act)第230条款(下称“230条款”)。审理此案的下级法院依据230条款为谷歌提供了免责保护,也正是该条款,奠定了美国互联网公司数十年发展的基石。
那么,为美国科技公司撑起保护伞的230条款到底是什么?在经历暴恐袭击后,美国最高法为何依然选择继续援引230条款?
代理冈萨雷斯家人在美国最高法院出庭的华盛顿大学法学院教授埃里克·施纳珀向财经E法回应称,他们对案件结果不予置评。
截至发稿,谷歌未回应财经E法的采访请求 。但谷歌法律总顾问哈利玛·德莱纳·普拉多在一份公开声明中表示:“针对冈萨雷斯案,无数加入我们的公司、学者、内容创作者和民间社会团体都会对这个结果感到放心。”
“对科技公司而言,案件结果好于预期。” 美国加州圣塔克拉拉大学法学院教授埃里克·戈德曼 评价说,“这些裁决大概可以为涉及社交媒体支持恐怖分子的诉讼类型画上句号,也将为其他指控社交媒体服务促进非法活动的案件蒙上阴影。”
01
230条款为何保护科技公司?
230条款诞生于1996年,其核心部分规定, 网络服务提供平台不应被视为第三方用户内容的“发表者”(publisher or speaker),这意味着,如果用户发布的诽谤和侮辱等网络暴力言论,以及虚假信息等绝大多数非法内容,但类似脸书、TikTok等平台可以免除承担民事侵权责任的风险。
230条款还提供了另一层责任豁免机制, 给予科技公司出于善意审查平台上淫秽、暴力等令人反感内容的权利。
按照这一条款,科技公司实现了“鱼与熊掌兼得”——既不会因未及时处理用户言论而被问责,又不会为主动审查了用户言论担负后果。“国会动用其特权,给予了科技平台优越的法律待遇。”埃里克·戈德曼对财经E法说。
所以,230条款被评价为科技公司的“保护伞”或“免责金牌”,避免了平台卷入海量的用户诉讼,成为美国互联网公司数十年蓬勃发展的基石。
冈萨雷斯案在美国社会引发轰动。美国布鲁金斯学会技术创新中心高级研究员马克·麦卡锡向财经E法表示:“美国最高法院受理此案是一个很好的契机, 可用来审查是否需要限缩当前对230条款的宽泛解释, 这将为已存在27年的230条款责任豁免权带来潜在的巨大变化。”
对广大用户而言,削弱平台的“保护伞”将带来得失。马克·麦卡锡解释称, 如果法院限缩230条款的豁免权,用户可能会在网上看到更少的非法内容;同时又可能导致社交媒体更加谨慎地推荐内容,使得用户只能看到范围更窄的合法内容。
该案背后的平台责任界定难题,更是引申出超出案件事实的争议: 若类似于ChatGPT的AI聊天机器人,利用算法生成了非法内容,其运营公司又将承担怎样的法律风险?
但近期美国最高法院对冈萨雷斯案的简短裁决,并没有如外界期盼的那样,检视230条款赋予的免责范围。法院直接根据冈萨雷斯案与Nawras Alassaf案件的实质相似性, 认为冈萨雷斯一方寻求诉讼救济的基础薄弱,也就没有必要考虑230条款的责任豁免范围。
谷歌并非巴黎恐袭的直接制造者,为何对其起诉?
冈萨雷斯一方在诉状中声称,谷歌下属的YouTube平台利用算法,推荐恐怖组织宣传视频,为恐怖组织招募成员和发动袭击提供了物质性帮助。而且,YouTube官方明知这一情况,仍然拒绝积极主动识别删除这些视频。“这种帮助行为成为导致冈萨雷斯死亡的巴黎恐袭案的诱因”。
作为诉讼应对,谷歌援引230条款给予的责任豁免权,同时辩称,YouTube的算法推荐行为与巴黎恐袭案没有直接因果关联,这得到了加州地区法院和美国联邦第九巡回上诉法院认可。 法院认为,算法推荐的宣传视频是由恐怖组织生产,YouTube并未参与其制作。
但冈萨雷斯一方在提交给美国最高法院诉状中区分说, 谷歌旗下的YouTube利用算法推荐有害内容,构成平台自身的言论表达行为,而不仅仅扮演中立传输用户内容的角色,因此不受230条款的保护。
埃里克·施纳珀对财经E法表示,他们所提出的YouTube算法推荐构成平台自身言论表达的论点,实际上源自持异见的下级法院法官。
“冈萨雷斯其实是在用谷歌曾经自己用过的逻辑来攻击谷歌。”长期研究美国法平台治理的北京大学法学院助理教授左亦鲁表示,冈萨雷斯的家人在一定程度上是以彼之道还施彼身,借用了谷歌当年提出的“搜索算法呈现的结果属于言论”这套辩护说辞。
此前,谷歌曾在两起搜索算法案中成功说服法院接受这番说辞。第一起是发生在2003年的“搜索王公司诉谷歌案”, 谷歌主张网页排名代表了谷歌的言论, 应受言论自由保护; 另一起案件为2006年“克里斯多夫·兰登诉谷歌案”,审理该案的特拉华州地区法院不仅肯定了算法属于平台的言论表达,还借助230条款, 豁免了谷歌作为“发言者”原本应承担的、对平台自我表达直接负责的义务。
“以上两个案例表明,算法有‘发言者’的权利而不用承担‘发言者’的义务。”左亦鲁认为,这就是冈萨雷斯诉谷歌案试图挑战的内容。如果YouTube的算法推荐也可以被当做平台的言论。平台就不能主张自己只是一个中立的信息传播者,而是变成了一个“发言者”。
接连败诉后,冈萨雷斯家人继续上诉。美国最高法院在2022年10月同意调卷审理此案。
该案的走向激起各大平台的危机感。截至2月21日开庭前,已有70多家科技公司、国会议员、非营利组织、学者等呈交了“法庭之友”意见书。“法庭之友”是非诉讼当事人主动或应法庭邀请就案件提出意见或协助的人。其中,推特、脸书母公司Meta、微软等大型科技公司纷纷站在谷歌公司阵营,阐释维持230条款现有理解的重要性。
2月21日的口头辩论持续了近3小时。美国最高法院官网公布的庭审笔录显示, 大法官们对是否限制互联网公司依230条款享有的豁免权,传递出犹豫不决的态度。
庭审中,冈萨雷斯家人的代理律师埃里克·施纳珀极力区分何种情形下YouTube需要为平台上的内容担责。
“用户搜索恐怖组织视频,然后会出现YouTube创建的视频列表。就好比我走进书店说,我对体育书籍感兴趣。书店说,我们有自己写的体育书籍目录,然后把它交给了我。是书店制作了那项内容。”埃里克·施纳珀基于同样的道理表示,YouTube发布自己创建的内容,不受230条款的保护。
但大法官们不为所动。甚至近年来多次呼吁审查230条款的保守派大法官克拉伦斯·托马斯也质疑说,YouTube是在用一套中立的算法标准推荐所有用户感兴趣内容,“为何仅因内容涉及恐怖组织宣传,就等同于了帮助和教唆”。他认为, YouTube向感兴趣的用户推荐恐怖组织视频,就像它用相同的算法向对烹饪感兴趣的用户推荐相关视频一样。
大法官布雷特·卡瓦诺更是援引声援谷歌的“法庭之友”意见书指出, 限缩230条款的保护范围,可能会摧毁数字经济。
左亦鲁注意到,美国最高法院法官对待230条款并未表现出明显的意识形态阵营。
“法官不像对待堕胎或枪支问题,有相对固定的站队和意识形态偏见。就像近年很多新型言论自由争议那样,这种站队的‘混乱’一方面反映了争议的复杂性,另一方面也说明大家确实认为这是一个新问题,更多地从问题本身出发。”左亦鲁说。
02
ChatGPT将挑战230条款
在冈萨雷斯诉谷歌案的裁决中,美国最高法院回避了230条款问题, 但难掩针对该条款日渐升温的存废争议。
埃里克·戈德曼认为:“由于没有就230条款提供任何意见,最高法院为所有原告留下了空间,可以继续在下级法院推动他们反对230条款的论点。最高法院最终将不得不解决这个问题。”
230条款之所以诞生,主要是美国国会为了回应上世纪末的互联网平台内容责任案件。
在当年的相关案例中,有网络服务提供商因用户发表诽谤言论而被判承担责任。得知情况后,时任美国众议院议员克里斯托弗·考克斯和罗恩·怀登二人联合起草了后来的230条款,给平台设置了责任“避风港”。
左亦鲁表示,230条款在当时推出有两个主要目的:
一方面是为了促进更多内容的产生, 如果平台需要为用户言论担责,按照正常的逻辑和激励,网站就会开始自我审查,这不利于言论表达和创新;另一方面也是放手让平台自行进行更多的内容管理。
“国会制定该条款,保护互联网平台免于因未能完美筛选非法内容而承担责任,是 为了鼓励平台试验探索有效的内容审核技术, 以管理好海量的用户内容。”考克斯和怀登在冈萨雷斯案的“法庭之友”意见书中解释说。
但是,随着近些年有关“网络暴力”“假新闻”“儿童色情”等平台内容治理缺陷不断涌现,民主党和共和党纷纷将炮火对准230条款。前者认为,科技公司对网络有害内容规制不力;后者则抱怨,平台在内容审核活动中过度压制保守派声音。
3月23日,TikTok CEO周受资出席美国众议院能源与商务委员会听证会。该短视频平台在青少年心理健康保护等内容治理问题上的表现,也受到政客拷问。
听证会上,共和党众议员戈斯·比利拉基斯分享了一个16岁男孩撞火车自杀的故事,以此指责TikTok的算法推荐助长不良内容的传播。他质问周受资:“你对TikTok用来为用户确定内容优先级的算法负责吗?”
在此之前,TikTok已卷入因算法推荐有害内容引发的诉讼。2021年12月,一位名叫尼拉的10岁女孩参与了TikTok推荐的一项“窒息挑战”(Blackout Challenge)危险游戏。判决书记载,她用钱包扣带将自己悬吊在卧室壁橱,不幸发生意外。尼拉的母亲随后起诉了TikTok和字节跳动,控诉平台的算法推荐为罪魁祸首。
2022年10月底,审理此案的费城地区法院法官判决,TikTok并未自己创建“窒息挑战”视频,因而受到230条款的保护,无需为尼拉的悲剧承担责任。
近几年,包括美国总统、国会议员和司法部等在内的修法或废法之声此起彼伏。因不满推文被推特标记“事实核查“标签,美国前任总统特朗普多次呼吁废除230条款,并于2020年5月签署《关于防止网络审查的行政命令》。2023年1月,现任总统拜登在媒体发文,要从根本上改革230条款,“需要大型科技公司对其传播的内容和使用的算法负责”。
冈萨雷斯案庭审后,一些向来对平台虎视眈眈的美国国会议员也趁热打铁。3月8日,美国参议院司法委员会隐私、科技和法律小组专门举行题为“平台问责制:冈萨雷斯案和变革”的听证会,讨论科技平台的算法推荐责任。
听证会上,多位参议员和互联网治理专家传递出“苦平台久矣”的态度。参议员理查德·布卢门撒尔直言:“共识正在形成,这是传达给大型科技公司的一个信号:改革即将到来。”
不过就现状来看,230条款虽有争议,但未看到改变的迹象。左亦鲁认为,一部分人对平台很不满意,另一部分人则觉得保护平台发展和言论自由很重要,导致修法遇阻。
科技公司代表了反对阵营的中坚力量。TikTok的听证会上,周受资强调了230条款的现实价值:“230条款之于网络言论自由非常重要,这是我们对众议院能源与商务委员会和我们的用户做出的承诺之一。”
冈萨雷斯案中,谷歌向最高法院答辩时警示说,一旦缩减230条款的免责范围,“互联网将陷入混乱和诉讼雷区”,而且“会产生逆向激励,可能导致平台过度删除合法但有争议的言论,致使自由表达和获取合法信息沦为代价”。
埃里克·施纳珀则反驳称谷歌的说法夸大其词。“尽管这会导致社交媒体公司的内容管理做法发生变化,并可能引发一些诉讼。但大多数类型的诉讼仍将得到230条款给予的责任豁免。”他对财经E法说。
左亦鲁认为, 美国最高法院决定调卷庭审冈萨雷斯案,也从侧面反映了对于230条款的争议确实累积到了一定程度,需要去面对。
“在现在的信息分享和表达中,平台扮演的角色越来越重要。以230条款为代表的上一代互联网立法,其对平台权利和义务的设计或许已经过时。美国社会需要去思考如何在新的背景下重新想象和设计平台的角色和责任。” 左亦鲁说。
美国最高法院大法官艾蕾娜·卡根庭审中亦表示: “230条款是一条前算法(pre-algorithm)时代的法规,每个人都在尽最大努力弄清楚该法规如何适用于后算法(post-algorithm)时代。”
ChatGPT风靡也给冈萨雷斯案的庭审带来弹药。AI聊天机器人因助长谣言和诽谤言论等的传播而备受质疑,也给网络内容治理带来新的挑战。
据新闻可信度评估机构NewsGuard公布的测试结果,2023年1月,NewsGuard指令ChatGPT-3.5对100条虚假信息做出回应,其中有80条的回答包含错误内容;2023年3月,NewsGuard使用同样的方式再度测试ChatGPT-4,发现ChatGPT-4对所有的100条输入指令均作出虚假和误导性回应。
冈萨雷斯案庭审时,大法官尼尔·戈萨奇针对AIGC技术,导出另一个争议话题:类似于ChatGPT的生成合成类算法推荐平台,是否受230条款保护?
尼尔·戈萨奇说,人工智能创作诗歌,这种内容生成,已经超出了当前算法推荐仅挑选、分析或聚合内容的范畴,“那是不受保护的”。他意在表明,AI聊天机器人所生成的内容,将被视为平台自身的言论,而不再是第三方发表的内容。
这一观点获得230条款两位起草者的支持。罗恩·怀登在发给媒体的一份声明中表示,类似ChatGPT的AI聊天机器人不应受到230条款的保护;克里斯托弗·考克斯同样说,当ChatGPT生成的内容被指控非法时,230条款将不能成为辩护理由。
甚至ChatGPT也给出了类似答复。当财经E法询问“若ChatGPT发布诽谤言论,由谁承担侵权责任?”它回答说:“作为AI语言模型,我被编程为尽我所能提供有用和准确的信息,我不会发表诽谤性言论。不过,如果我发表诽谤言论,那要根据具体情况判断谁来承担侵权责任。 通常,像我这样的AI语言模型所作出的诽谤性言论的责任,将落在创建和发布该模型的个人或组织身上。在这种情况下,这将是GPT-3.5架构的开发者和我的创造者OpenAI的责任。”
财经E法就上述话题多次邮件联系OpenAI公司发言人尼克·费利克斯,截至发稿未获回复。
埃里克·戈德曼认为,如果AI聊天机器人是在生成自己的内容,那么230条款不再适用;但如果只是重复语料库中他人已发表的错误内容,仍应得到责任豁免。
马克·麦卡锡则分析称:“很明显,ChatGPT正在根据用户提示生成自己的内容。它从对其他人内容的分析中得出自己的回应,但它几乎从不重复已有的内容,因此230条款不应适用。”
马克·麦卡锡认为,ChatGPT担责与否不取决于用户是否恶意指令,而仅在于回复的非法内容是不是ChatGPT自己生成。“如果用户说为我生成一些儿童色情内容,AI聊天机器人遵循了相应指令,运营公司是无法豁免责任的”。
倘若失去230条款的“保护伞”,AI聊天机器人背后的运营公司可能因责任风险,承担更高的经营成本。
北卡罗来纳州大学教堂山分校科技政策中心主任马特·佩罗亦指出,责任风险将影响到大语言模型赛道的竞争。“大型科技公司可以把更多资源投入到复杂的 AI技术研发,这赋予了它们在新兴技术方面的合规优势。较小的公司难以像谷歌和微软那样承担诉讼成本,因此有理由假设,责任风险会阻碍新兴企业的出现。”他在一篇文章中写道。
但马克·麦卡锡更在意内容安全:“(失去230条款责任豁免)也许会对行业产生一定消极影响,但更大的危险是AIGC被滥用于非法目的。”
美国国会议员正抓住AI生成内容治理的突破口,期望削弱230条款给予科技公司的保护。6月14日,美国参议员理查德·布卢门撒尔和乔什·霍利提出一项“无230条款豁免人工智能法案”(No Section 230 Immunity for AI Act),试图推动230条款改革,剥夺AI科技公司就大模型生成有害内容享有的责任豁免权,让用户能据此索赔。
“这项立法是我们进入新时代后,制定人工智能规则和建立保障措施的第一步。”布卢门撒尔说。
03
平台的责任与义务
230条款背后的平台内容治理责任划定争议,实际上有着美国法律制度的特殊性。
该条款实施以来,仅有1998年《数字千年版权法》(DMCA)、2018年《反网络性交易法-禁止协助性贩卖法》(FOSTA-SESTA)等少数几部法律限制了科技平台享有的豁免权,使得平台为第三方用户内容担责的例外情形少。
其中,《数字千年版权法》确立了平台为用户版权侵权内容承担过错责任的规则,即“避风港原则”和“红旗原则”:前者规定, 如果平台在接到权利人通知后未能及时删除或屏蔽侵权内容,则应承担帮助侵权责任;后者要求,如果平台明知或应知侵权内容而未进行规制,亦需担责。 《反网络性交易法-禁止协助性贩卖法》是由美国众议院的《反网络性交易法案》和参议院《禁止协助性贩卖法案》合并而来,于2018年4月生效, 规定了平台如果被指控“故意协助、促进和支持性贩卖”,230条款的民事责任豁免机制将不复存在。
此种法律规则之下, 美国法采用“原则+例外”的平台责任模式,即原则上适用230条款,但在版权侵权、性贩卖问题上施加平台法律风险。
法定责任弱,平台自律就在网络内容治理中扮演着关键角色。但依赖自律又带来内容治理不透明弊端,为此,科技平台近几年逐渐创新治理机制以应对外界质疑。
Meta公司在2020年底正式运作一个独立的监督委员会,由其负责审查脸书和Instagram两个平台所做出的内容审核处置决定。
按照官网的表述,成立监督委员会的目的是帮助 Meta解答关于网络言论自由的一些最棘手难题,包括哪些内容应该删除,哪些内容可以保留,并用类似于判决书形式的“审理决定”,详尽阐述这样做的原因。因其运作方式类似于美国最高法院,监督委员会也被唤作“脸书最高法院”,截至2023年7月4日,已作出42件“审理决定”。
相较而言,中国施加平台的法定内容监管责任更为严格,将美国法中重点规制的版权侵权,扩展至所有网络侵权领域。
依据《民法典》相关规定, 如果平台知道或者应当知道网络用户利用其网络服务侵害他人民事权益,未采取必要措施的,则与该网络用户承担连带责任;平台知道或者应当知道网络用户利用其网络服务侵害他人民事权益,未采取必要措施的,与该网络用户承担连带责任。
公法层面的平台内容监管程度也有差异。“中美两国关于网络内容治理的底层逻辑是根本不同的。”中国政法大学比较法学院教授刘文杰向财经E法指出, 在中国,除版权以外的内容治理以行政强监管为特征。
以算法内容治理为例,中国于2022年3月1日施行的《互联网信息服务算法推荐管理规定》即要求,算法推荐服务提供者应当加强信息安全管理,建立健全用于识别违法和不良信息的特征库,完善入库标准、规则和程序;发现违法信息的,应当立即停止传输,采取消除等处置措施,防止信息扩散,保存有关记录,并向网信部门和有关部门报告;发现不良信息的,应当按照网络信息内容生态治理有关规定予以处置。 若平台违反前述法定义务,将直接面临行政处罚。
在张凌寒看来,无论是网信办近年来集中出台多部政策法规,要求网络平台承担信息管理的主体责任,还是一向主张宽松产业政策的美国出现革新平台中立地位、加强平台责任的呼声,以及科技企业按照政策导向展开自我规制,都反映出在“平台不再具有中立性”议题上已经逐步达成共识。
标签: