技术并不中立 它可以把网络霸凌关进笼子里

2019-12-05来源:中青在线 作者:任冠青

  漫画:徐简

  最近一段时间,从社会调查报告中对网络暴力状况不容乐观的警告,到演艺明星、青少年因网络暴力自杀的新闻,再到眼看着关注已久的博主因网络攻讦而被迫停更,我开始不得不正视一个事实:网络暴力已成为兼具普遍性与危害性的现实问题。

  互联网平台对网络暴力有不能推辞的责任。它们是网络霸凌的策源地,能够触达施暴者和受害者两个群体。互联网平台不仅应当出面,而且有能力消除网络暴力问题。

  不得不承认,平台面临一系列困境。比如,人力、物力紧张,网络暴力与表达权利间界限模糊,可能伤害用户活跃度,等等。此外,正如现实生活中的暴力一样,网络暴力也不可能完全消失。然而,只要我们都期待一个不再有网络霸凌的空间,就应当积极去探索建设这种空间的可能性。

  科技史专家克兰兹伯格曾说,“技术既不好,也不坏,它也不中立”,并将这句话视为技术的第一定律。在网络暴力的形成过程中,技术本身虽未体现明显的善恶观,却能够放大某些不恰当的情绪和行为,从而对人带来现实伤害。要想解决这一问题,平台就需要在霸凌事前、事中和事后设置必要障碍,让“放大效应”缩小化,让网络霸凌变得没那么简单。

  首先,解决问题的前提是正确理解问题。作为网络霸凌发生的“第一现场”,平台首先应当对网络暴力的概念、类别和变化进行深入理解和研究。就类别来看,网络暴力并非铁板一块,它包括侮辱、耻感化、威胁、隐私曝光等各种形式。从表现形式上看,也有文字、图片、视频,等等。这些变化多端的霸凌方式当然表明了问题的复杂性,却也反证了对其进行研究的必要性。只有对每种形式进行细致的研究与划分,才能真正做到对症下药。

  明确概念之后,平台要学会使用手中最强有力的秘密武器:技术。过去一些有益的尝试表明,虽然网络霸凌始于技术之赋能,却也可以由技术终结。比如,可以开发能够识别侮辱性信息的人工智能工具,让不当信息在一开始就能被拦截;也可以提供软性提醒功能,让用户在发布情绪化言论前,询问其是否真的要发布,给用户提供一个短暂的“冷静期”;在不当信息发布后,也可善用“举报”等功能,在接收多次举报后,将霸凌内容下线,最小化其可能造成的伤害。

  不过,在这一过程中,应当意识到网络暴力与表达权利的界限,尽量避免对后者的误伤。而要想解决这一问题,就必须认识到问题的严肃性,加大投入,让人工智能更智能,把误伤最小化。

  此外,平台可以联合政府、社会组织和学校等力量,设立相关教育机制和行为规范。一方面,通过媒介素养、网络文明、相关法律法规普及等课程唤起用户的自律意识,将网络霸凌行为“扼杀在摇篮中”。另一方面,也可以通过组织自我保护方式宣传、心理咨询等活动,提升用户应对网络暴力的能力和免疫力,降低其可能的伤害。

  诚然,网络暴力是复杂的、变化多端的,也是难以根治的。但是作为网络暴力发生的第一线,平台理应承担起一份社会责任,通过技术等手段把网络霸凌关在笼子里,减少网络暴力对用户的伤害。

【责任编辑:贾志强】

版权声明:凡本网文章下标注有版权声明的均为中青在线合法拥有版权或有权使用的作品,未经本网授权不得使用。违者本网将依法追究法律责任。如需授权,点击
H5频道
图片阅读
今日热点