计划雇佣3000+人的Facebook,能消除“暴力直播”的影响吗?

Odaily星球日报·2017-05-04 13:07
拒绝暴力!

扎克·伯格昨日在Facebook在财报发布会上宣布,计划明年雇佣超过3000人来移除Facebook的那些不恰当的内容,其中包括杀人、自杀以及其他暴力行为的视频。希望能通过更多人力的加入来消除这些"老鼠屎"对于社交网络的影响。

至于为什么聘请这么多人,Zuckerberg解释到,就目前来说,机器和自动化软件并不能完全解决负面内容的影响。Facebook直播业务是开放的,任何用户都可以使用;但就现在的情况看,已经被一些用户的不恰当使用、流媒体暴力事件的破坏了直播的价值;所以需要更多的人力来进行实时监控。

为了让Facebook更加纯净,公司还设立了黑名单制度。目前,已经有4500个用户违反了Facebook"反暴力"的规定,这些人将不再能进入3000个岗位的招聘过程中。

Facebook在昨天公布了第一季度的财报数据,总收入达到80.3亿美元,同比增长49%;季度利润达到30.6亿美元,同比增长76.6%。收入的增长受益于广告超预期的收入。而这些优秀的数字反面是"社交网络暴力事件"带来的负面影响。

就在上个星期,泰国的一名父亲在Facebook Live上直播了杀死自己女儿的过程。在一天内,有超过37万人观看了此视频;4月中旬,美国德克萨斯州一名男子在克利夫兰市街头也用Facebook直播他杀人的过程。1月6日,芝加哥四名黑人青少年曾在Facebook上直播虐待一名白人智障少年。还有一些来自各州的视频,内容都令人震惊。尽管Facebook已经移除了这些视频,蝴蝶效应已经产生。

扎克·伯格表示:“Facebook正在努力使这些视频更容易被发现,以便我们可以更快地采取行动 — 除了删除信息外,也可以更快速地帮助这些受害者发布帮助信息。” 这3000名员工会成立新的部门,并将监控Facebook的所有内容,而不仅仅是直播视频。

Facebook作为世界上最大的社交网络,目前月活已经达到19.4亿,随着用户的增多以及内容的涌入,保持社交网络纯净是非常重要的内容。公司已经转向使用人工智能,试图自动化的筛选过滤色情、暴力以及其他潜在性的暴力素材。今年3月份,提出了更深一步的计划,可以利用人工智能的技术来发现用户的潜在自杀倾向并帮助他们。但就目前的技术水平来说,Facebook主要还是依靠用户的举报来筛选内容。目前每周能收到来自用户的百万份报告,依旧需要更多的人力来审查这些报告。

其实,除了Facebook 外,youtube也面对极端视频的不良影响。就在3月,由英国政府和几个私营公司资助的广告出现在支持恐怖组织的视频的开头,引起了广告主的撤资;同时也有很多暴力视频每天涌入网站中。在应对恐怖主义的问题上,去年12月,Facebook、微软、Twitter 和 YouTube联合开发了共享行业数据库,旨在识别极端恐怖的图片和视频。未来更多的负面内容可能也需要这些巨头的联手作业。

对于越来越重要的社交网络,负面信息的影响是加成性的,构建一个"纯净版"的环境需要一个长期但是需要高效的过程。






+1
0

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

下一篇

在印尼这个由大约1.7万个大小岛屿组成的赤道群岛国家,物流问题始终是一个巨大的挑战。不过京东在这个东南亚最大国家的业务覆盖范围会有多大目前还不清楚。

2017-05-04

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业