域名频道资讯站
我们一直在努力制造惊吓

特别设计的对抗性彩色斑块可以被用来“欺骗”特定算法

特别设计的对抗性彩色斑块可以被用来“欺骗”特定算法

最新的例子来自比利时鲁汶大学的一组工程师。在上周在预印本服务器arXiv上分享的一篇论文中,这些学生展示了简单的印刷图案如何能够“欺骗”人工智能系统,该系统旨在识别图像中的人物。

这些学生打印出特别设计的彩色斑块并将其挂在脖子上,从AI的角度来看,这可能相当于“隐形斗篷”。

正如研究人员写道:“我们相信,如果我们将这种技术与精致的服装模拟结合起来,我们就可以设计出一种T恤印花,可以让一个人对自动监控相机几乎不可见。”

这可能看起来很奇怪,但它实际上是AI世界中一个众所周知的现象。这些类型的模式被称为对抗性示例,它们利用计算机视觉系统的弱点来“诱骗它们看到”不存在的东西。

在过去,对抗性的例子被用来欺骗面部识别系统。然而许多研究人员警告说,对抗性的例子具有潜在的危险性。例如,它们可以用来欺骗自动驾驶汽车,或者它们可以欺骗用于识别疾病的医疗AI视觉系统。这可以用于医疗欺诈或甚至故意造成伤害。

对于最近的研究 – 我们通过谷歌研究员David Ha发现 – 一些警告确实适用。最重要的是,学生开发的对抗彩色斑块只能欺骗一个名为YOLOv2的特定算法。这不适用于谷歌或其他科技公司开发的现成的计算机视觉系统,当然,如果一个人正在查看图像时,它也不起作用。

本文素材来自互联网

赞(0)
分享到: 更多 (0)

中国专业的网站域名及网站空间提供商

买域名买空间

登录

注册