晋钱丝
2019-05-29 02:19:01
  • 举报人投诉显示Facebook无意中利用激进组织的宣传来自动生成可用于联网的视频和页面。
  • Facebook已禁止的大部分内容都会通过其算法滑落,并且很容易找到。
  • 一名极端分子的简介包括自动生成的带有焚烧标志的视频和基地组织领导人Ayman al-Zawahiri的视频,敦促圣战组织不要相互争斗。
  • 投诉是因为Facebook试图保持领先于对其保持仇恨言论,实时流行谋杀和自杀服务能力的批评。

华盛顿 -动画视频以圣战黑旗的照片开头。 几秒后,它闪现了一年社交媒体帖子的亮点:反犹太人经文的牌匾,报复的谈话以及两名男子在燃烧星条旗时携带更多圣战旗帜的照片。

它不是由极端分子制造的; 它是由Facebook创建的。 在一个聪明的自我推销中,社交媒体巨头需要一年的用户内容并自动生成一个庆祝视频。 在这种情况下,用户称自己为“Abip-Rahim Moussa,哈里发”。

“感谢你来自Facebook,”视频以卡通泡泡结束,然后闪现了该公司着名的“竖起大拇指”。

趋势新闻

Facebook喜欢给人留下这样的印象,即通常在用户看到它们之前,通过删掉帖子来保持领先于极端分子。 但据美联社报道,一名机密举报人向美国证券交易委员会的声称社交媒体公司夸大了其成功。 更糟糕的是,它表明该公司无意中利用好战团体的宣传来可能被极端分子用来联网的 。

根据该投诉,在去年的五个月内,研究人员监控了美国国务院指定为恐怖组织的团体的用户页面。 在此期间,38%的极端主义团体名字被删除。 在自己的评论中,美联社发现,截至本月,该研究中引用的大部分被禁内容 - 执行视频,被切断的头像,殉难武装分子的宣传 - 都在算法网上滑落,仍然很容易找到在脸书上。

Facebook庆祝恐怖主义
带有自动生成视频的页面照片,取自美联社获得的机密举报人报告。 Jon Elswick / AP

投诉正在降临,因为Facebook试图在其隐私实践及其保持仇恨言论,实时流行谋杀和自杀服务的能力方面越来越多地受到批评。 面对批评,首席执行官马克扎克伯格谈到了他对公司通过人工智能自动清除暴力哨所的能力感到自豪。 例如,在上个月的财报电话会议上,他重复了Facebook一直采用的措辞谨慎的表述。

“在恐怖主义,基地组织和ISIS相关内容等领域,我们系统中99%的内容在任何人看到之前都会主动标记,”他说。 然后他补充说:“这就是真正的好看。” 扎克伯格没有提供估计有多少违禁材料被清除的估计。

耀眼的瑕疵

美国证券交易委员会投诉背后的研究旨在突出公司方法中的明显缺陷。 去年,研究人员开始监测那些明确认定自己是极端主义团体成员的用户。 记录并不难。 其中一些人甚至将极端主义团体列为雇主。

被基地组织附属团体的黑旗所预示的一个简介将他的雇主(可能是诙谐的)列为Facebook。 包括自动生成的视频和燃烧旗帜的个人资料也有一个基地组织领导人Ayman al-Zawahiri的视频,敦促圣战组织不要相互争斗。

虽然这项研究远非全面 - 部分原因是因为Facebook很少公开其大部分数据 - 参与该项目的研究人员表示,使用基本关键字搜索识别这些配置文件的难易程度以及这些配置文件很少有这样的事实。删除表明Facebook声称其系统捕获大多数极端主义内容并不准确。

参与该项目的研究人员之一Amr Al Azm说:“我的意思是,这只会让想象力超出怀疑范围。” “如果一小组研究人员可以通过简单的搜索找到数百页的内容,为什么一家拥有所有资源的大公司不能这样做呢?” 俄亥俄州肖尼州立大学历史与人类学教授阿兹阿姆还指示叙利亚的一个小组记录了古董的抢劫和走私活动。

Facebook,Instagram禁止亚历克斯琼斯,米洛Yiannapoulos,其他极端主义者

Facebook根据一个用户的帖子自动生成的视频包含燃烧的美国国旗,反犹太主义消息和“报复”呼叫的图像。

Facebook承认其系统并不完美,但表示正在进行改进。 该公司在一份声明中表示,“经过大量投资后,我们正在以比两年前更高的成功率发现和删除恐怖主义内容。” “我们并没有声称能找到一切,我们仍然保持警惕,努力打击世界各地的恐怖组织。”

但作为用户可以轻易逃避Facebook的明显迹象,来自名为“Nawan al-Farancsa”的用户的一个页面有一个标题,黑色背景上的白色字母用英文“伊斯兰国”说。 横幅上刻有一张从城市升起的爆炸性蘑菇云的照片。

这个简介应该引起Facebook的注意 - 以及反间谍机构。 它创建于2018年6月,用户名单来自车臣,曾经是一个激进的热点。 它说他住在德国海德堡,并在印度尼西亚的一所大学学习。 一些用户的朋友也发布了激进的内容。

逃避制造者

这个页面最近几天仍在使用,显然是逃过了Facebook的系统。 这是因为明显且长期逃避审慎,Facebook应该善于识别:字母不是可搜索的文本,而是嵌入在图形块中。 但该公司表示,其技术扫描音频,视频和文字 - 包括嵌入时 - 用于反映暴力,武器或违禁群体标识的图像。

自2016年俄罗斯利用社交媒体干预美国总统选举以来,这家社交网络巨头经历 。 扎克伯格最初淡化了Facebook在俄罗斯情报部门影响运作中的作用,但该公司后来道歉。

Facebook表示,它现在拥有30,000名员工,他们致力于安全和安全实践,审查可能有害的材料以及可能不属于该网站的任何其他内容。 尽管如此,该公司仍然非常信任人工智能及其系统最终在没有人类帮助的情况下清除坏东西的能力。 新的研究表明,目标还有很长的路要走,一些批评者声称该公司没有做出真诚的努力。

当材料没有被移除时,它的处理方式与Facebook的24亿用户发布的其他内容相同 - 在动画视频中进行庆祝,链接和分类以及算法推荐。 但这不仅仅是要归咎于算法的算法。

美国联邦贸易委员会可以对Facebook施加限制,可以任命监督官员

研究人员发现,一些极端分子正在使用Facebook的“框架工作室”来发布激进的宣传。 该工具允许人们在图形框架内装饰他们的个人资料照片 - 例如,支持原因或庆祝生日。 Facebook表示,这些框架图像必须在发布之前得到公司的批准。

加州大学伯克利分校的数字取证专家Hany Farid为反恐极端主义项目提供建议,该项目是纽约和伦敦的一个专注于打击极端主义信息传递的组织,他表示Facebook的人工智能系统正在失败。 他说公司没有动力去解决这个问题,因为它会很昂贵。

“整个基础设施存在根本缺陷,”他说。 “并没有什么兴趣去修复它,因为Facebook和其他社交媒体公司所知道的是,一旦他们开始对他们的平台上的材料负责,它就会打开一大堆蠕虫。”

极端主义同情者名单

另一个Facebook自动生成功能出错,从用户页面中删除了就业信息以创建商业页面。 该功能应该产生旨在帮助公司网络的页面,但在许多情况下,它们是极端组织的品牌登陆空间。 该功能允许Facebook用户喜欢极端主义组织的网页,包括基地组织,伊斯兰国家组织和索马里的青年党,有效地为招聘人员提供了一份同情者名单。

在一个自动生成的阿拉伯半岛基地组织页面的顶部,美联社发现了科尔号航空母舰受损船体的照片,该船在2000年在也门海岸发生的袭击中被基地组织轰炸。 它杀死了17名美国海军水手。 这是AQAP自身宣传中的定义形象。 该页面包含该组的维基百科条目,并且在本周最后一次观看时被277人所喜爱。

作为投诉调查的一部分,Al Azm在叙利亚的研究人员密切关注63个帐户的概况,这些帐户喜欢Hay'at Tahrir al-Sham的自动生成页面,该组织与叙利亚的激进组织合并,包括基地组织附属al-Nusra Front。 研究人员证实,其中31个配置文件与叙利亚的真人相匹配。 其中一些人竟然是Al Azm的团队在一个单独的项目中监测的人,以记录通过古物走私为激进组织提供的资金。

至高无上和仇恨的象征

Facebook也面临着美国仇恨团体的挑战。 今年3月,该公司宣布将其禁止的内容扩展到包括白人民族主义者和白人分裂主义内容 - 之前它只采取了白人至上主义内容的行动。 它说它已经禁止了200多个白人至上主义团体。 但是仍然很容易找到至高无上和种族仇恨的象征。

美国证券交易委员会投诉的研究人员为白人至上主义团体确定了30多个自动生成的页面,其内容是Facebook禁止的。 它们包括“美国纳粹党”和“新雅利安帝国”。 为“雅利安兄弟会总部”创建的页面在地图上标记了办公室,并询问用户是否推荐它。 一位代言人发布了一个问题:“哥哥怎么能进屋。”

即使是执法部门所标记的至高无上的人也正在网上溜走。 在10月份开始逮捕之后,阿肯色州的联邦检察官起诉了与新雅利安帝国有关的数十名贩毒集团成员。 2月份的一份法律文件描绘了该组织的残酷情况,指控谋杀,绑架和恐吓证人,其中一起案件涉及使用灼热的刀子擦伤某人的脸。 它还声称该组织使用Facebook讨论新雅利安帝国的业务。

但是起诉书中提到的许多人都有Facebook页面,这些页面在最近几天仍然存在。 他们毫不怀疑用户的白人至上主义关系,张贴了希特勒,万字符和新雅利安帝国口号“To The Dirt”的数字符号 - 成员们保证忠于最终的承诺。 其中一名被起诉的领导人杰弗里·诺克斯(Jeffrey Knox)将自己的工作列为“踩踏霍尼”。 Facebook然后自动生成一个“stomp down Honky”商业页面。

有关曝光的问题

社交媒体公司在美国法律中广泛保护免受用户在其网站上发布的内容的责任。 但Facebook在从极端主义内容中生成视频和页面的角色引发了有关曝光的问题。 美联社联系的法律分析师对这一发现是否可以使公司开展诉讼存在分歧。

美国证券交易委员会投诉背后的研究至少说明了该公司打击在线极端主义的有限方法。 美国国务院将数十个团体列为“指定的外国恐怖组织”,但Facebook在其公开声明中表示,其重点是两个部门,伊斯兰国家组织和基地组织。

但即使有这两个目标,Facebook的算法往往会错过附属组的名称。 Al Azm表示Facebook的方法似乎不如阿拉伯语脚本有效。

例如,用阿拉伯语搜索“阿拉伯半岛的基地组织”不仅会发布帖子,还会显示自动生成的商业页面。 一名用户将他的职业列为“阿拉伯半岛基地组织”中的“前狙击手”,用阿拉伯语写成。 另一位用户通过扭转阿拉伯语国家伊斯兰国或“伊拉克和叙利亚伊斯兰国”的顺序来避开Facebook的剔除。

约翰·科斯塔克(John Kostyack)是华盛顿国家举报人中心的律师,他代表投诉背后的匿名原告,他说,目标是让Facebook采取更有力的方法来对抗极端主义宣传。

“现在我们正在听到有关新西兰和斯里兰卡发生的事情的故事 - 只是令人心碎的大屠杀,那些出面的团体显然在Facebook和其他社交媒体上公开招募和联网,”他说。 “除非我们制定公共政策来处理它,否则不会停止,除非我们创造某种企业社会责任感。”

数字取证专家法里德表示,Facebook在没有考虑内容带来的危险的情况下建立了基础设施,现在正试图改造解决方案。 “这个平台的政策是:'快速行动,打破局面。' 我实际上认为,一旦他们的座右铭实际上是准确的,“他说。 “战略是增长,增长,增长,利润,利润,利润,然后回去尝试处理任何问题。”