最新的例子来自比利时鲁汶大学的一组工程师。在上周在预印本服务器arXiv上分享的一篇论文中,这些学生展示了简单的印刷图案如何能够“欺骗”人工智能系统,该系统旨在识别图像中的人物。
这些学生打印出特别设计的彩色斑块并将其挂在脖子上,从AI的角度来看,这可能相当于“隐形斗篷”。
正如研究人员写道:“我们相信,如果我们将这种技术与精致的服装模拟结合起来,我们就可以设计出一种T恤印花,可以让一个人对自动监控相机几乎不可见。”
这可能看起来很奇怪,但它实际上是AI世界中一个众所周知的现象。这些类型的模式被称为对抗性示例,它们利用计算机视觉系统的弱点来“诱骗它们看到”不存在的东西。
在过去,对抗性的例子被用来欺骗面部识别系统。然而许多研究人员警告说,对抗性的例子具有潜在的危险性。例如,它们可以用来欺骗自动驾驶汽车,或者它们可以欺骗用于识别疾病的医疗AI视觉系统。这可以用于医疗欺诈或甚至故意造成伤害。
对于最近的研究 – 我们通过谷歌研究员David Ha发现 – 一些警告确实适用。最重要的是,学生开发的对抗彩色斑块只能欺骗一个名为YOLOv2的特定算法。这不适用于谷歌或其他科技公司开发的现成的计算机视觉系统,当然,如果一个人正在查看图像时,它也不起作用。
本文素材来自互联网