作为世界上最大的社交媒体平台,Facebook人工智能在内容审查和删除仇恨言论方面发挥着至关重要的作用。但《华尔街日报》获得的公司内部文件发现事实并非如此。
10月17日发布的报道援引Facebook根据内部文件,公司使用的人工智能很难继续准确识别第一人称射击视频、种族主义言论,甚至无法区分斗鸡和车祸。
仇恨言论,Facebook员工还在文件中指出,人工智能只能删除一小部分。该公司的一名研究人员在2019年的报告中指出,该公司自动删除的帖子只占违反规则的仇恨电脑言论总数的2%。除非战略发生重大变化,否则短期内很难将这一比例提高到10-20%以上。”
今年3月,根据另一个Facebook团队得出类似的结论,估计人工智能只能删除平台上3%到5%的仇恨言论,0.6%违反Facebook反暴力政策的内容。
文件还显示,两年前,Facebook缩短了用电脑户仇恨言论投诉的人工处理时间,并进行了其他调整,从而减少了投诉总数。负责审核业务的员工每周花费200万美元或1.04亿美元。因此,该公司更依赖于人工智能来执行其规则,并夸大了该技术在公共统计数据中的成功。
Facebook副总裁盖伊·罗森周日反驳说,在过去三年中,该平台上仇恨言论的流行程度下降了50%电脑,打击仇恨言论的技术不足,故意扭曲技术进步的说法是错误的。
根据罗森的解释,目前Facebook每1万个内容浏览量中有5个包含仇恨言论,比2020年中期每1万个内容浏览量中有10个大幅下降。
该公司上个月还表示,其人工智能系统在主动删除违反仇恨言论标准的内容方面越来越有效,比2017年增加了15倍。
向《华尔街日报》泄露内部文件的吹哨人是原来的Facebook弗朗西斯,数据专家·豪根。本月初,她参加了美国国会听证会Facebook故意隐瞒令人担忧的研究成果,比如青少年在使用其产品后感觉更糟,Facebook愿意用仇恨的内容来吸引用户。她希望议员们对世界上最大的社交网络公司采取行动。
而Facebook回应说,豪根的说法是错误的,国会确实应该采取行动为互联网制定标准,而不是指望互联网行业对立法者做出社会决定。
相关阅读:指控吹哨人Facebook扎克伯格回应说,利润高于安全。
电脑