全媒派:网络骚扰行为成“社交毒瘤”,男性比女性更危险?

网友投稿 430 2022-07-12


知名演讲人Brandon Farbstein第一次使用Instagram时,年仅14岁,他患有先天性侏儒症,想要通过社媒平台分享自己的生活经历,以鼓励需要帮助的人。然而,在他发布实时动态后,一些带有嘲讽、侮辱甚至威胁色彩的恶毒言论纷至沓来,瞬间淹没了评论区,甚至影响了他的现实生活。Farbstein的整个高中生活,都笼罩在这样的噩梦中。

虚拟世界里,诸如人身攻击、性骚扰、暴力威胁等骚扰现象并不是新鲜事,带有攻击性的恶评和人肉追踪、包含暴力或性暗示的私信或图片等,无一不在触犯用户的社交底线。皮尤研究中心的一则新报告显示,社交媒体骚扰现象正呈现出愈演愈烈的态势,使得根治这一顽疾愈发显得棘手。

本期全媒派(ID:quanmeipai)发布汇编文章,梳理网络用户遭受线上骚扰的现状和各大社交平台采取的应对措施,为网络世界拔除这颗“毒瘤”提供一些新思路。

2020年,哪些人遭遇了网络骚扰?

网络骚扰泛滥成灾,程度日趋严重

皮尤研究中心去年9月发布的报告显示,网络骚扰已成为互联网用户公认的一大“社交毒瘤”。约有十分之九的美国人认为骚扰和欺凌是网络世界的一大问题,其中55%的人认为该问题十分严重。

研究还发现,41%的美国人表示自己曾经历过某种类型的在线骚扰,遭遇过严重骚扰事件的人数比例也从2014年的15%增长至2020年的25%。各种类型的骚扰事件日益频繁,在网络上受到言语辱骂、性骚扰、恶意中伤和人身威胁的人数自2014年以来均有所增加。经历过轻度骚扰行为的人数比例则与2017年基本持平,维持在37%左右。

2020年遭受过在线骚扰的人数比例与2017年基本持平,但遭遇严重性骚扰事件的人数则有明显增加

年轻用户成主要受害者

网络骚扰问题在年轻用户中尤为普遍。在此次调查的30岁以下受访者中,约有三分之二的人曾遭遇过线上骚扰,是唯一一个受害者人数过半的年龄群体。30到49岁之间也有近半数人有过类似经历,50岁以上受害者则相对较少,约占26%左右。

年轻用户也是最容易受到严重骚扰行为侵害的群体,受害者比例呈现随年龄增加而逐渐递减的趋势。18到29岁的受访者中48%受到过严重骚扰,30到49岁的人群则有32%受害,50岁及以上的人群有12%有此困扰。

近三分之二的30岁以下成年人受到在线骚扰,且尤其受到言语辱骂、跟踪、人身威胁、性骚扰、长期骚扰等程度严重的骚扰

男性比女性更容易受骚扰?

研究发现,受骚扰现象的类型、严重性及影响程度等均存在性别差异。总体而言,男性较之于女性更经常在互联网上受到骚扰(43%比38%)。

此外,男女用户受到的骚扰类型也不尽相同。约35%男性透露自己曾遭遇过言语辱骂,26%的女性遭遇过类似情况。男性较之于女性也更易受到人身安全威胁(16%比11%)。

而女性群体则一如既往更容易在虚拟世界中遭到性骚扰的侵害。这一问题在年轻女性群体中尤其严重,在年龄小于35岁的受访者中,33%的女性表示曾遭受过在线性骚扰,而仅有11%的男性拥有相似经历。

性取向也是受访者被骚扰的一大诱因,针对同性恋、双性恋者的网络骚扰和欺凌几乎达到泛滥的地步。在性少数群体中,约有70%的受访者曾遭遇过线上骚扰,其中多达51%的人称自己是重度骚扰行为的受害者。相比之下,有40%的异性恋者在线上被骚扰,23%的人受到过严重骚扰。

此外,虽男性普遍比女性更频繁遭遇网络骚扰,但女性更容易在情绪上受到骚扰事件的影响。研究显示,因最近一次受骚扰事件而感到内心极度受挫的女性比例达34%,是男性的两倍之多。相反,61%的男性表示最近一次被骚扰经历并未给自己带来多大影响。

最近一次对骚扰事件感到颇为受创的女性比例是男性的两倍以上

社交媒体成众矢之的

尽管以上种种骚扰行为在虚拟世界中几乎无处不在,皮尤中心多年研究表明,社交媒体一直是目前为止最受诟病的“事故高发地点”。

75%的受访者在被问及近期受骚扰事件发生在什么平台上时都给出了“社交媒体”这个答案;相比之下,25%的人回答在线论坛、讨论网站或聊天软件,有10%的人表示在线上游戏、个人邮箱或约会软件中受到骚扰。总体而言,41%的受访者表示自己最近不止在一个平台上遭遇在线骚扰。

用户在不同平台上遭遇线上骚扰的比例相差较大,其中四分之三的用户在社交媒体上被骚扰

作为重灾区,社交媒体做了什么?

尽管网络欺凌与骚扰已是公认的社媒痼疾,解决问题的良方却迟迟未被找到。不同平台在打击骚扰行为及内容上报和审核流程的透明度上都各不相同。社交媒体近年来也因此类问题而颇受非议,被指责目前的作为还远远不够。

公众也对社交媒体当前的表现持批判态度。皮尤报告显示,仅18%的受访者认为社交媒体在解决骚扰问题方面表现优异或良好,近80%的人认为各平台表现平平,甚至到了糟糕的程度。

47%受访者认为社交平台在解决骚扰问题上表现一般,32%受访者则认为很差劲

Twitter前首席执行官Dick Costolo曾公开承认,“我们在打击网络欺凌和键盘侠问题上做得很烂。”事实也的确如此。作为唯一不允许用户自己删除评论的社交平台,Twitter近年来已成为喷子、杠精、仇恨女性者和网络欺凌者的天下。

用户在Facebook或Google+上发帖时,若发现骚扰性评论,可以删除该评论并屏蔽发表评论的用户,以禁止他继续在评论区发布任何恶性内容。Twitter却大不相同,只允许用户通过报告工具请求管理人员删除评论及发表该评论的账户,最终的决定权落于平台手中。

然而事实证明,面对用户收到死亡威胁、遭遇性骚扰或是身份被盗用等多数情况,Twitter都没有采取删除评论及其相关账户的措施。

尽管Twitter在2019年推出“隐藏评论”功能,允许用户隐藏自己感到反感或无关紧要的评论,所发挥的作用仍不能与删除按钮相提并论。被隐藏的内容并不会从评论区彻底消失,用户依然可以通过点击图标重新查看。

相比之下,Facebook对待骚扰问题的态度似乎更积极。在Facebook上,用户可以批量隐藏或删除多条评论或回复,而无须一条一条删除。同时,Facebook正在尝试让用户的好友帮助举报网络暴力和骚扰性行为,由管理团队进行审核,以确定被投诉的用户是否违反了平台安全政策。另一个正在实践的方法是让用户在评论区通过关键词检索的功能屏蔽令自己反感的字眼。

尽管如此,依然有超过半数在Facebook受到过骚扰的女性用户表示,自己的投诉并没有得到积极的回应或相应的举措,而平台给出的理由是被举报内容并未违规。

图片来源:视觉中国

备受年轻一代数字居民青睐的Instagram也是骚扰事件的高发地。作为一个拥有10亿活跃用户的社交平台,Instagram在一波又一波负面新闻的声浪之中已经展开了一系列复杂的反骚扰措施。

然而,Instagram在隐私设置的全面度和精细度方面似乎不尽人意。平台强制要求用户向所有人公开个人资料及已发布的内容,而不提供任何中间缓冲。同时,Instagram拥有强大的搜索引擎,任何用户都可以通过标签或定位搜索轻松获得成千上万个人的公开资料和图片,喷子和杠精在一张图片或一条动态内容中标注用户简直易如反掌。这对于拥有大量明星用户且粉丝文化繁茂的Instagram来说并不是一件乐观的事情。

目前Instagram和Twitter一样设置了“隐藏评论”功能,但只允许用户隐藏陌生人或未关注者的评论,而无法屏蔽那些使用系统默认头像或没有认证邮箱的“僵尸用户”。2018年起,Instagram开始采用Facebook的机器学习系统DeepText辅助管理平台,然而事实证明,Facebook的这一工具并未达到预期效果。

当前的瓶颈并不在于社交平台是否有能力推出有效的防骚扰功能,而是尚未有一个平台拥有足够的时间和资源去开发相关功能。

打击骚扰行为,哪些方式值得一试?

在越来越多用户被无孔不入的骚扰内容劝退的当下,各平台似乎仍未实践出最行之有效的解决办法。那么,面对沉疴与新疤,社交媒体究竟应该如何保护用户的“秘密花园”不受陌生人践踏?

完善反馈回路,提升反馈效率

首先,平台应该在用户举报骚扰性内容24小时内给予回复,以避免用户受到“二次伤害”。这是一个司法概念,指受害者在举报侵害行为后,因执法人员的冷漠执法而在情感和心理上再次受到伤害。社交媒体平台应该尽力避免用户因没有得到即时的回应和帮助而再次受伤。

Instagram、Facebook和Twitter三大平台目前在这方面比其他社交平台走得更前,但依然需要完善反馈回路,提升反馈效率。暂且遑论用户对反馈结果是否有异议,社交平台至少应该确保让每一位用户在举报骚扰内容后都能得到有意义的反馈。

保持决策公正透明

实验犯罪学杂志(Journal of Experimental Criminology)最新研究表明,若因违规而被删除内容的用户认为规则和程序是公正的,用户出现再次违规行为的可能性将大大降低。

社交平台需要不断完善决策体系,明确规则边界。如今一些社交平台由于将利益凌驾于用户安全之上而饱受非议,若在管理内容方面决策武断又不公开透明,无疑会使平台声誉雪上加霜。

Facebook目前正在尝试建立独立的监督团队,专门处理那些认为其内容被不合理下架的用户的申诉,效果尚未可知。专家认为,最有效的方法是创建在线智囊团,对已删除的问题内容进行分类,并附以简洁明了的原因说明,尽量让决策过程对全体用户公开透明。否则,用户可能会质疑监督团队的决策客观性。

图片来源:视觉中国

优化内容审核机制

如今越来越多社媒平台将内容审核工作外包给第三方。人工智能和机器学习技术为平台防治在线骚扰提供了极大帮助,且日益精进。

2019年末,Instagram推出全新评论警告(Comment Warning)与实时动态警告(Feed Post Warning)系统,利用人工智能技术帮助发布者检测、审核、修改发布内容中可能存在的侮辱性或伤害性的文字。这是一项值得肯定的重要实践。

然而,除依赖技术进步之外,社交媒体也需要探索更多社会科学层面的解决措施,例如尝试认知重构及行为矫正等行为心理学方式。种种创新与尝试都不乏意义,代表着平台正在积极采取行动,而不是被动地等到火烧眉毛时再补漏。

摆脱对技术的单方面依赖,尝试创新的科学方式去探寻骚扰行为的模式和规律,将有利于优化内容审核机制,打造更健康、安全、积极的网络生态。

多方合作,提高用户媒介素养

诚然,优化反馈机制、决策体系和内容审核机制是当前社交媒体解决燃眉之急的最有效出路,但要从根源上防止在线骚扰现象持续蔓延,则应该从用户媒介素养教育方面入手。

Facebook的欺凌防治中心目前正在与政府、反欺凌慈善组织及一些学校密切合作,共同探寻更有效的防骚扰工具,为遭受网络骚扰的青少年及其父母、老师提供指导。例如,青少年可遵循平台提供的指引,通过“动态消息”(News Feed)功能访问欺凌防治中心。

学校教育同样重要,Facebook与一些组织合作开展了“数字大使计划”,向英国250所中学派遣专门的“数字安全大使”,为20万名学生提供优质的媒介素养教育。所有数字安全大使均是接受过Facebook专业培训的年轻人。

反欺凌慈善组织Childnet的首席执行官Will Gardner认为,“同辈教育能够更有效地帮助学生扩大网络安全知识储备,从而在虚拟世界中更好地保护自己、善待他人。”


版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:北京冬奥会倒计时一周年,参赛名额已产生17%!
下一篇:广告情报局:没想到2021一上来,被马应龙这支痔疮膏励志了???
相关文章

 发表评论

暂时没有评论,来抢沙发吧~