前有Facebook“AI”失控,后有Google为“在管理YouTube极端内容上,AI比人类更有用”站台。

雷锋网8月2日消息 据外媒近日报道,谷歌公开表示,将继续使用机器学习开发高级程序,以打击极端主义内容。经过一段时间的实测表明,AI比人类可以更快更精准的清理YouTube上的非法内容。

7月上旬,谷歌正式发布人机协作计划——“PAIR”(People + AI Research)。据雷锋网(公众号:雷锋网)了解,该项目由Google Brain的研究员 Fernanda Viégas 和 Martin Wattenberg 领导,二位都是开发复杂信息可视化技术的专家。其目的在于保证AI技术对每个人都有益处,并专注为AI开发者提供新工具。

而落实到YouTube上,则为这样的分工模式。即让机器学习和人类审查人员分工合作,作为跨部门途径的一部分,以解决YouTube上的极端主义和争议性视频的内容传播。在此其中,还包括为视频设立更严格的审核标准,以及聘请更多人力对需要审核的内容进行标记。

在该计划发布一个月后,英国内政部部长 Amber Rudd 向美国科技公司一再呼吁,为打击极端主义内容的兴起,大家还需做更多工作。Google旗下YouTube向外表示,该问题利用机器学习系统已经得到很大的改善。

YouTube发言人表示,虽然这些工具并不完美,也并不匹配所有设置,但是使用过程证明,该系统比人类更能准确的标出需要删除的视频。

“最初我们使用机器学习来排除暴力极端主义内容,数据表明是人类排除数量的两倍。而在减少此类内容的速度上,机器同样是我们的两倍。过去一个月内,有超过75%的暴力视频内容被清理。”

该公司表示,YouTube目前在监管非法内容遇到的一个问题在于,用户上传的内容正以每分钟400小时的速度进行,这项可怕的数据将对实时过滤极端主义内容产生巨大的挑战。

YouTube还表示,目前,他们已经和15个NGO和机构合作,包括反诽谤联盟、无仇恨言论运动(the No Hate Speech Movement)和战略对话研究所,以提高系统对这些议题、仇恨言论、激进和恐怖主义内容的理解,以便更好的处理这些内容。

接下来几周内,Google将对视频内容执行更严格的标准,这些视频可能是令人反感但又不违法的。该公司表示,YouTube上虽然有些视频内容被标记为不适当,如含有争议性的宗教主义内容等,但其并不违反公司对仇恨言论或暴力极端主义的政策的,将被置于“被限制的区间”。

如何处理这些内容?一位YouTube发言人对此表示,“这些视频依然会留在YouTube的插页式广告中,不会被推荐,也不会有盈利,更不会有评论、推荐、喜欢等关键功能。”

作为预防激进主义的一部分,YouTube也开始对某些视频页面的特定关键词进行重新定向搜索,这些页面直达暴力极端主义内容。

此外,Google方也表示将继续开发机器学习技术,并以其他技术公司合作处理网络上的极端主义言论。

文章来源




熱門文章