专业工控产品
 跨境电商
设为首页|收藏本站|繁体中文|手机版
APMATIC电磁阀 APMATIC气缸

新闻资讯

联系方式

上海佳武自动化科技有限公司
联系人: 黄小姐
手机:13124847480
Q  Q:548700770
电话:021-80392064-804
传真:021-51862765
邮箱:548700770@qq.com
网址:http://www.apmatic-china.com
地址:上海市奉贤区金齐路868号5078室
 

当前位置: 网站首页 > 新闻资讯 > 品牌动态
品牌动态

使用AI在社交媒体上打击恐怖主义的问题

  社交媒体有恐怖主义问题。从Twitter的2015年着名信到国会,它永远不会限制恐怖分子使用其平台的权利,在面对公众和政府的强烈抗议时,它迅速面对面,硅谷已经改变了自己的角色遏制那些希望在全世界实施暴力的人使用其工具。Facebook今天发布了一份新的透明度报告,强调其打击恐怖主义使用平台的努力以及人工智能在其声称的重大成功中发挥的作用。然而,从学术研究来看,人工智能成功的叙述日益受到挑战这表明不仅内容不会被删除,而且其他Facebook工具可能实际上在协助恐怖分子,上周布隆伯格的作品也表明恐怖主义内容在Facebook上仍然很容易被发现。我们真的可以依靠人工智能来遏制恐怖主义使用社交媒体吗?
 
使用AI在社交媒体上打击恐怖主义的问题
  
  同年Twitter的拒绝了国会的努力恐怖使用社交媒体为王,我呈现给伊拉克和地区的高级军事和政府领导的会议时,我问我的角度就如何解决更让然后快速转变恐怖主义组织招募和宣传贸易手段。我所概述的将反恐情报的“荒野的镜子”方法引入社交媒体恐怖主义领域的结果愿景在当时引起了相当大的关注,并概述了用于审查恐怖主义内容的重击方法的徒劳性。
  
  然而,Facebook特别锁定了使用AI来实时删除其平台上的所有恐怖内容的想法。尽管过去几年来为了避免发布内容调节工作的实质细节而斗嘴,Facebook今天发布了一些关于其努力的基本统计数据,其中包括特别关注其反恐工作。与每一次行动或透明度的重大飞跃一样,Facebook的政府和媒体审查似乎越来越多,终于取得了成效。
  
  与硅谷的所有事情一样,这些报告中的每一个字都很重要,仔细解析实际的陈述非常重要。Facebook的信誉,特别明确了它的目标。它将其反恐努力列为“恐怖主义宣传(伊斯兰国,基地组织和附属组织)”,强调这些是它主要关注的组织。鉴于这些是西方政府给硅谷带来最大压力的集团,政府干预迫使社交媒体公司采取行动的效果很明显。
  
  Facebook在其报告中明确指出: “在第一季度,我们对190万件伊斯兰国,基地组织和附属恐怖主义宣传采取了行动,其中99.5%我们在用户向我们报告之前发现并加以标记。”该声明明确表示, Facebook删除的绝大多数与恐怖主义有关的内容被其AI工具标记,但没有公布其所涉及的平台上所有恐怖内容的百分比。
  
  相比之下,一般公众会相信Facebook的算法更加有效。纽约时报总结上面的声明“Facebook的AI发现网站上的恐怖内容的百分之99.5,导致拆除大约190万件的第一季度内容”,而BBC 提供的 “该公司表示,其工具发现在支持伊斯兰国家,基地组织和其他附属团体中发布的检测到的宣传中,有99.5%只向公众发布了0.5%。“事实上,这根本不是公司声称的。
  
  当被问到有关其反恐努力的类似媒体特征时,一家公司发言人澄清说,这样的表述是不正确的,99%的数字专指被AI公司删除的恐怖分子内容的百分比。
  
  当然,Facebook可以做些什么来纠正主流媒体对其努力的误解和误解,但至少公司可能会在未来要求网点纠正这些言论,以确保公众理解Facebook努力的实际优势和局限性。
  
  认识到绝大多数这些被删除的内容并非是能够自主识别新型恐怖主义内容的人工智能强大新进展的结果也很重要。相反,它们主要来自于简单的重复匹配,其中一旦人类管理员删除了一段内容,它将被添加到整个网站的黑名单中,以防止其他用户重新上传它。一位公司发言人指出,照片和视频删除目前仅通过精确的重复匹配来执行,而文本帖子也通过机器学习方法被删除。
  
  目前尚不清楚为什么公司花了这么长时间才采用这种精确的重复清除技术。当被问及之前,在推出这些工具之前,为什么没有使用这种广泛部署的指纹识别技术来消除恐怖分子的内容,该公司没有提供任何回应。只有在政府的巨大压力下,它才最终同意采用基于指纹的去除方法,再次强化了决策者可以迫使硅谷采取行动的角色。
  
  因此,尽管Facebook告诉我们,它删除的大多数恐怖内容现在基于阻止先前删除的内容被重新上传和机器标记文本帖子的算法,但我们根本不知道Facebook的算法是否能够捕捉到即使是最微不足道的恐怖主义材料在其网站上。更重要的是,我们不知道它删除多少“恐怖主义”内容实际上与恐怖主义毫无关系,而且是人为或机器错误的结果。该公司只是拒绝告诉我们。
  
  然而,很明显,即使是对网站进行最基本的人工检查,其方法也是有限的。彭博社能够通过简单的关键字搜索以少数几种语言快速找到各种恐怖内容。人们会认为,如果Facebook严肃对待遏制对其平台的恐怖主义使用,那么他们会更难以发现恐怖主义内容,而不仅仅是在搜索栏中输入一个重要的恐怖组织名称。
  
  当被问到这个问题时,一位公司发言人强调,恐怖主义内容违反其规则,而且投资做得更好,购买拒绝进一步发表评论。
  
  当被问及为什么Facebook不仅仅将几个主要语言的每个主要恐怖组织的名字输入其搜索栏并删除恐怖分子的内容时,该公司再次表示,除了强调这种材料是针对其规则。
  
  这可能是Facebook以人工智能为中心的最大缺陷:过分依赖和信任没有人类的机器来验证结果,并将注意力集中在令人眼花缭乱的技术上的开创性方法上,这些方法可以帮助您实现最基本的简单方法。
  
  如果用户只需在搜索栏中输入一个恐怖组织的名字来查看他们的宣传并与他们联系以加入或提供帮助,那么所有在世界范围内开创性的AI进步都是有限的。
  
  然而,为了找到针对每个问题的AI解决方案,Facebook往往错过了更简单的解决方案,而由此产生的大规模复杂脆弱的AI具有未知的实际准确性。
  
  这让人想知道为什么Facebook上没有人想过在搜索栏中按名称搜索恐怖组织。这是否意味着公司声称背后缺乏对俄罗斯大选干预的反应?或者它仅仅是人工智能引起的失明的副产品,其中人工智能将解决所有社会问题的信念使该公司无视其人工智能未解决的无数问题?
  
  迄今为止,该公司至今拒绝透露其删除的恐怖主义内容的百分比数量是简单的精确重复匹配还是实际的AI动力机器学习工具,标记新材料。因此,我们不知道它在人工智能和机器学习方面的大规模投资是否实际上对内容删除产生了任何可衡量的影响,特别是由于发言人强调视频和图像内容(构成ISIS生成内容的重要部分)只能通过人类以前识别的材料的精确匹配来删除,而不是新颖的内容的AI标记。
  
  因此,从开创性的新型深度学习进展的媒体叙述中发现,能够删除99%的恐怖主义内容的流血人工智能算法,我们具有更为普通的重复匹配故事的实际情况,防止99%的重复上传,或许还有一些机器学习文本匹配抛出很好的措施。我们不知道这代表了实际恐怖主义内容的百分比,或者错误地删除了多少非恐怖主义内容。该公司一再拒绝对其虚假肯定率发表评论,同时宣传其他统计数据,这一事实提供了很小的信心,该公司认为其算法足够准确,以感到舒适的评论。
  
  以类似的方式,Twitter一再拒绝提供关于其自己的类似内容调节举措的细节。
  
  最令人恐惧的是,我们,Facebook的围墙花园中的20亿成员或Twitter的3.36亿月活跃成员,都没有理解也没有权利了解我们的对话如何被引导或塑造。随着公司越来越多地从被动中立的通信渠道转变为积极主持和受控的媒介,他们正默默无闻地控制着我们所能说的以及我们所知道的事情。
  
  值得注意的是,曾经支持言论自由的公司现在正在用相同的沉默的严厉审查和喷枪来审查和控制言论,这些审查和喷枪确定了世界上最残酷的独裁政权。在少数精英越来越控制我们的信息的世界中,民主不可能存在,特别是当Facebook成为我们消费新闻的更重要的方式时。
  
  综合起来,随着硅谷日益转向人工智能来解决世界上所有的问题,特别是像仇恨言论和恐怖主义这样复杂的话题,他们必须确保他们的AI优先方法不会让他们失明,无论这些AI方法是否实际上处理用户可能发现或参与恐怖内容的最常见方式以及他们的AI工具是否真的可以工作。公司还应该更密切地与媒体向公众展示他们的技术,确保这些工具的描述准确无误,同时公司可以通过提供更多细节(包括误报率)来提供帮助。与其将媒体视为对手缺乏信息,公司可以将它们视为强大的工具来帮助传达他们的故事,以及调节全球世界数字生活的真实复杂性。然而,最后要记住的是,我们正在迅速走上一条整合的道路,在这条道路上,一些运用人工智能算法的精英现在越来越多地在我们的数字生活中拥有绝对的力量,从我们所说的到我们所能看到的,转向早期网络的民主视觉陷入了最恐怖的科幻小说的反乌托邦式噩梦之中。
  
 
分享到:
点击次数:  更新时间:2018-05-16 16:07:17  【打印此页】  【关闭