论文文章

当前位置: 首页 -> 科研 -> 科研成果 -> 论文文章 -> 正文

刘晓春:网络暴力的治理层次与责任结构

发布日期:2023-09-05   点击量:

作者简介:刘晓春,中国社会科学院大学法学院副教授、互联网法治研究中心执行主任。

文章来源:《青年记者》2023年第17期。



网络暴力现象作为网络空间治理的重要领域,近年来持续引起关注,但尚未形成有效治理方案,从其生成机制看,由于成因复杂、涉及主体多元,制度上存在责任缺位等不足,对于网络暴力的治理应是系统工程,需要建立多元的治理层次和责任结构。本文从网络暴力的治理之困出发,探索其生成机制、发展阶段,总结网络暴力治理现状的相关经验,并提出各方主体的责任结构,试图为构建网络暴力的治理机制提出参考方案。

一、网络暴力的治理之困

网络暴力的治理困境,立足于其特殊的生成机制,并由多种因素叠加导致,使得对网络暴力的明确界定存在较大困难,用户、媒体等各方主体的责任认定、追究机制不完善,也成为网络暴力难以遏制的重要原因。

(一)成因:网络暴力的生成机制

网络暴力的成因多元,根植于现代人类社会经济、政治、文化、技术和社会心理等多方面的现实条件。网络暴力是针对特定主体或者事件而引发的个体言论或行为通过互联网相联结、进而发生“涌现”现象的产物。单个言论或行为体现出来的攻击性和恶意程度比较有限,大多数情况下很难明确区分其与正当的批评性言论的差别,界限模糊。但当此类言论在较短的时间内迅速聚集为达到规模量级的群体性攻击时,一方面,会产生对于受害者心理的实质性伤害;另一方面,也集中体现了网民在心理、情绪、认知、观念等层次的群体状态,以及导致这种状态的背后深层次文化、经济、社会背景。

此类攻击性的“暴力”或者“微暴力”行为自古有之,此前以线下社区、社群等方式形成和传播,进入网络时代之后,随着互联网传播形式的迭代而逐渐演化出不同形式,也可能随着传播模式的更新而依然存在于未来数字生态,随着传播媒介的变化,网络暴力也以论坛、贴吧、微博、短视频、即时通信工具等各种载体在形式上形成更迭。

由于网络暴力特殊的生成机制和复杂成因,各个环节上发生作用的主体多元,依托原有传统法律部门的治理和责任认定、追究机制难以精准防治网络暴力,出现制度设计上的空白地带。

(二)制度:定义界定和规制困难

对于网络暴力的定义,学界尚没有形成共识,但实践中相关规定已经给出了一些定义。2022年中央网信办开展了“清朗·网络暴力专项治理行动”,并出台了《关于切实加强网络暴力治理的通知》,在该通知中将网络暴力行为界定为“针对个人集中发布侮辱谩骂、造谣诽谤、侵犯隐私等违法信息及其他不友善信息,侵害他人合法权益,扰乱正常网络秩序”。尽管这一界定仍有模糊之处,如“不友善信息”的范围该如何界定等,但它指出了网络暴力的核心在于侵害他人合法权益、扰乱正常网络秩序,因此网络暴力应当具有群体性、欺凌性、煽动性的特点,且对社会秩序造成损害。2023年7月7日,国家互联网信息办公室发布《网络暴力信息治理规定(征求意见稿)》,进一步将网络暴力明确为“通过网络对个人集中发布的,侮辱谩骂、造谣诽谤、侵犯隐私,以及严重影响身心健康的道德绑架、贬低歧视、恶意揣测等违法和不良信息”。这些描述性的定义为判断网络暴力指明了方向,但是在具体微观事件判断过程中依然无法明确圈定网络暴力信息的界定边界。

与网络暴力密切相关的另一个概念是“类网暴”,其表现形式与网络暴力有很多相似之处,比如行为的“不友善性”、影响范围较大、持续时间较久等。类网暴有很多表现形式,如网络舆论、网络批评、谩骂等,但类网暴与网络暴力有两个重要区别:其一,是否造成了恶意后果;其二,是否符合“巨量”的特征。首先,网络暴力的关键点在于“暴力”,现实中的暴力行为往往出于恶意的目的,并且会造成恶劣影响,但网络舆论和批评并不能一概而论认定其目的恶意,且舆论往往具有监督作用,如果加以引导甚至可以对社会治理起到正面作用。其次,网络批评和谩骂有时只是个人行为,尽管表面上可能与“暴力”类似,但由于数量太少,造成的后果并未达到群体性、欺凌性、规模性的特征。因此,类网暴并不能简单地归类到“网络暴力”这一概念之下。

由于网络暴力定义与边界不清晰,网络暴力界定与识别存在困难。在许多场景和语境中,以网络暴力为名,消费网暴,甚至引发真正网络暴力的行为时有发生——应当将这样的行为界定为消费“非网暴”。所谓的消费“非网暴”是指个别媒体或“自媒体”,未核查新闻事实直接将事件定性为网络暴力,或者将事件结果与网络暴力强行挂钩的行为,这种行为以网络暴力的名义,混淆了事实,消费了公众情绪和流量,也加大了治理难度和成本。若不加区分地将一些批评扣上网络暴力的帽子,则可能会模糊网暴的概念与治理边界。

(三)主体:责任缺失之困

网络暴力治理困境的核心问题,在于基于现有法律对于实施网络暴力的主体追责困难。网络暴力具有规模性、隐匿性、海量性、圈层性、微暴力等特征,识别和判断网络暴力存在事实上和法律上的困难。这就导致参与网络暴力的个体在发表言论时,预期自己不需要为产生的后果负责,其行为具有明显的负外部性,这是网络暴力屡禁不止的直接原因。如果网络平台对网络暴力的发生结果负责,结果可能是平台方的过度删除,带来“寒蝉效应”,要求平台针对海量的网络互动场景一律作出精准判断,存在较大操作难度。与此同时,网络暴力发生机制中的其他各方主体,如媒体、网络用户,他们的某些对于网络暴力推波助澜的行为,也缺乏相应的伦理和责任机制约束。各主体责任机制的缺位,成为网络暴力治理的制度困境之一,因此有必要建立多元的治理层次和责任结构作为制度应对方案。

二、网络暴力的传播阶段与平台治理

大数据时代,网络空间内充满各类信息,网络舆情则是各类信息的汇集与融合,其大致存在与信息相同的从产生、使用、维护、存档到删除的生命周期。因此基于信息生命周期理论,网络暴力可以分为潜伏发酵期、规模扩大期及消退恢复期三个阶段。各个阶段存在着不同的特征,同时各网络平台对不同阶段也存在不同的治理手段及治理经验。

(一)潜伏发酵期

1.特征。在潜伏发酵阶段,网络暴力经常会出现在负向行为、争议事件、热点话题、道德绑架以及偏见歧视等话题中。同时在话题讨论的初期,平台对于网络暴力行为难以进行详细辨别。其原因在于,相关话题可能产生于平台内小范围用户或好友之间,但随着话题的进一步传播可能逐渐出现圈层式的扩散,导致更多人关注该话题的讨论与争议,进而可能演化成网络暴力。

同时,网络暴力在发酵潜伏期往往引起一定范围内的舆情主体的关注,引发较小范围内的争论,但暂时并没有引起较大风浪。随着网民不断交流,个人意见逐步汇集、趋同形成意见群体,沉默螺旋效应现象也随之凸显。舆情主体在此阶段可能受到已有的观点的影响,产生从众心理,因而新观点的提出者不断减少。目前研究表明,潜伏发酵期的未来发展可以分为“快速成长阶段”和“缓慢成长阶段”。“快速成长阶段”的传播方式属于裂变式传播,在短时间内容易形成大范围舆情危机,更容易导致网络暴力的发生;而“缓慢成长阶段”由于主体对其反应的事件的敏感性和参与性积极性不高,传播速度较为缓慢,此阶段舆情爆发力不足,容易受到平台方的控制,因此引发网络暴力的可能性较低。

2.平台治理措施。在网络暴力的潜伏发酵期,平台提前采取措施进行预防以免相关舆论事件的进一步扩大,以避免网络暴力的爆发。因此,一些平台如抖音等,均采取“优化互动功能”的方式,调整接收评论和私信的范围与方式,从而减少陌生人的评论或私信打扰。例如,抖音上线了社交对象授权、用户风险提醒和负向内容过滤等功能。用户可以对私信对象进行设定,可设置为所有人、互关好友或关闭三种状态。同时,当用户收到可能包含风险的私信时,抖音会发出提醒。此外,抖音还上线了私信的临时对话设定功能。即陌生人每次只能向单个用户发送少量信息,用户回复后,陌生人才能与其进行临时对话,有效期为24小时,超时后重新申请。这样的功能,帮助用户过滤掉来自各方的不当言论,很大程度上避免了网络暴力的发生。同时,平台也依靠自动识别技术进行拦截,利用关键词过滤系统,对一些不友善内容进行风险提醒,以起到提醒和保护用户的作用。

(二)规模扩大期

1.特征。在规模扩大阶段,网民们针对争议事件等产生的对立意见,最终被广泛认可的一方占据主导地位从而得到进一步传播。由于网络中没有统一的评判标准及沉默的螺旋效应,若对该事件的意见为对事件当事人的恶意批评与指责,则可能加深对当事人的网络暴力程度。随着信息的加速传播,各营销号、大V等“自媒体”的加入,网民群体乃至线下公民的关注热情持续提升、关注度不断上涨,从潜伏发酵期到规模扩大期大约7日左右,将达到舆论的顶峰。在规模扩大期,对当事人的恶意评论呈倍数增长,且大部分评论属于极端恶意评论,对当事人造成很大程度上的侵害。在这一阶段,舆论当事人将面对数量庞大的恶意评论,其身心健康受到重大影响。

2.平台治理措施。在规模扩大期,平台将限制对相关争议事件的进一步传播,通过降低推荐、强制删除下架等方式避免网络暴力进一步扩大。如抖音平台开设的“抖音小安一键防网暴功能”,当开启一键防护功能,用户在7天内不会收到选择人群外用户发送的私信、弹幕及评论,最大限度减少平台用户所受的网络暴力程度。同时部分平台还设置当用户收到大量非正常评论时,会弹窗提示用户是否开启“一键防护”的功能,当功能开启后,将“只允许我关注的人评论我”和“只允许我关注的人给我发私信”。

平台内部还常设“黑名单制度”,鼓励用户在遇到网络暴力等相关违规内容时进行举报,并提供相关详细信息。对多次发布不当信息的用户限制私信功能,如果系统识别到用户多次发布不当信息,发信人私信功能将被暂停使用一段时间。同时,平台也畅通举报通道,如快手在客户端首页正式开通“网络暴力有害信息”受理热线并在举报类型中增设“网络暴力有害信息”模块。用户可拨打投诉热线“010-51751865”对网络暴力内容进行投诉,快手将第一时间受理和处置。抖音增加用户举报网络暴力行为的入口。同时,其客服电话和举报邮箱也会实时接收和处理针对网络暴力的举报。

(三)消退恢复期

1.特征。在争议事件的讨论达到顶峰后,舆情热度开始下降。在这一阶段,对该争议事件的关注已经达到最大规模,其影响力和扩散能力开始不断缩小。同时,部分网民对该争议事件感到疲惫、失去兴趣和新鲜感,停止对其的关注与表达,因此对争议事件当事人的网络暴力程度逐步降低,最后其逐渐淡出大众视野。在这一阶段,平台对网络环境进一步进行修复,更好地营造健康清朗的网络环境。但值得关注的是,对该事件的关注度衰退之后,仍可能回归潜伏发酵期,从而引发新一轮的热议,对被网暴当事人可能造成二次伤害。

2.平台治理措施。平台在这一阶段主要会对当事人进行心理安抚,并为其进行疏导,关注用户诉求点,对用户账号进行保护。如在快手平台,遭遇网络暴力的用户出现对抑郁等内容的检索时,平台会立即提示“别怕,我们都在”的标语,并提供24小时免费心理危机咨询热线。同时,平台会适时采取报警等方式进行处理,加强对遭遇网络暴力的用户的保护,防止出现意外事件。抖音安全中心联合字节跳动公益、AI-lab等团队组成专项小组,为用户提供心理关怀服务。

同时,平台对被网暴用户提供举证维权的协助功能。在微博平台,用户可以通过该功能批量多选“聊天证据”进行投诉,从而提高投诉取证速度,举证内容可支持文本信息、图片信息、语音信息等。在B站,平台提供法律手段维权指导,帮助被网暴用户维护自身权益,同时也提供后续运营的指导,帮助用户在危机后快速恢复账号的正常运营。

可以发现,在网络暴力不同的发展阶段,平台通过动态的监测和识别,从用户赋能、信息监测、规模控制、效果预判等复杂的指标出发,建立起对应的防范措施,形成平台治理的重要经验。而在平台治理之外,政府监管、司法救济等通常都在事后发生,对于在民事上可能构成侵权、刑事上可能构成犯罪的行为,追究相应的法律责任。公权力的干预和治理,一方面,针对的是情节较为明显、严重的行为和现象,与平台治理并列;另一方面,行政和司法的治理需要很大程度上以平台治理为基础,在信息提供、证据保留等层面都需要有平台治理建构的相应基础作为支持。

三、网络暴力治理的多元责任结构

网络暴力是复杂社会问题在网络空间的投射,依靠单一主体的力量是难以解决的,只有政府部门、媒体机构、平台企业、社会公众等各方主体共同参与,才能实现有效治理。因此有必要对政府、平台、媒体、网民等在网络暴力治理中的角色与作用进行准确定位,实现治理权责的科学配置。

(一)四方主体的责任结构

第一,政府部门在网络暴力治理中承担依法监管责任。政府机关应当在法律法规完善、推动上位立法、明确行业标准、推动行业自律等方面对网络暴力的多元主体治理加以充分引导和鼓励。政府机关应当依法依规对网络暴力现象进行行政和司法手段的治理,包括建立跨平台的协作联动机制、涉网络暴力线索证据移交移送机制、多部门会商协调机制等。

第二,网络服务提供者居于网络暴力防范治理第一线,承担网络暴力直接治理的主体责任,明确网络暴力治理的平台规则和用户公约等,探索建立平台内部适用的网络暴力识别指标,为网络暴力受害者提供充分的、自主选择的技术保护和心理咨询,并对平台上的网络暴力行为加以监控,必要时通过技术手段对快速传播的网络暴力事件加以干预。需要说明的是,平台责任不应当过于泛化,在网络暴力事件处置中,不宜唯结果论,应综合考察平台是否已经采取合理的措施、建立有效的防范治理和拦截保护机制,评估平台是否已经履行主体责任。

第三,媒体是治理网络暴力不可或缺的一环。媒体报道、社交媒体传播对网络暴力的传播扩散和烈度提升具有重要的媒介作用。主流媒体和“自媒体”应当遵循媒体伦理、承担媒介责任,避免随意用网暴定性事件,成为网络暴力的推手,避免因“唯流量论”的不良引导导致网络暴力现象的膨胀和社会矛盾的激化。

第四,网络暴力治理是全体网民的必修课。网络用户应当明确自己作为新时代网民的责任和义务,遵守法律法规、平台规则等,积极参与网络空间生态秩序的维护和与网络暴力行为的斗争,不断提升自身的公民素质、网络素养。

(二)网络暴力治理中平台责任的界定

结合网络暴力现有治理经验总结,平台需要建立体系化的防范机制。第一,要设置专门的快捷功能应对网络暴力,其功能包括但不限于限制私信与评论等切断网络暴力信息传播的途径。第二,事前提醒,平台对可能遭受网络暴力的人进行预警,建议用户打开防止网络暴力的快捷功能。第三,在网络暴力规模扩大期,增大干预力度,平台主动切断网络暴力信息传播途径,关注被网暴用户的身心健康并加以引导。第四,在网络暴力发生中期和后期,对实施网络暴力情节严重的用户进行处理,包括但不限于禁言、封号等方式,必要时进行曝光公示。第五,加强对用户的引导教育,引导用户提升自我保护意识,以减少或避免网络欺凌等不良行为,营造良好的网络环境。

虽然平台在网络内容治理中需要承担主体责任,但是其责任不是无限的。受限于网络暴力判断标准的复杂性,平台很难识别并根治所有网络暴力。在具体的网络暴力事件中,要考察平台是否已经采取合理的措施,建立有效的机制,来评估平台是否已经履行主体责任。总的原则是既需要平台积极探索和采取必要措施,同时也应实事求是、基于当前技术水平和信息内容生产传播规律来要求平台承担合理范围内的责任。

如果对平台的责任要求太过严苛,则平台将面临较高违法风险和较高治理成本,造成“寒蝉效应”,平台可能会改变商业模式并需要承受较高的治理成本。为规避风险,平台可能会过度过滤并删除信息内容,甚至会放弃引入某些新业务和新模式,从而不利于数字经济创新发展。因此,对平台课以过重的责任并不合适,厘清网络暴力治理中平台责任的边界十分重要。

此外,在网络暴力的治理中,有必要形成平台治理与政府监管之间的公私合作治理机制,确立不同治理层次之间的边界,同时也要做好机制衔接。在构建网络暴力治理平台责任时,需要处理好平台与政府、用户之间的关系,政府赋予平台义务时要建立明确且合理的规则指引体系,平台限制用户权利时要遵循正当程序原则,妥善处理好政府与市场、自由与安全的关系。

【本文为国家社科基金项目(批准号:22VRC090)阶段性成果】



  • 社科大法学院微信公众号

  • 法学院校友办微信公众号

  • 版权所有©中国社会科学院大学 地址:北京市房山区长于大街11号 邮编:102488 联系我们