报道说:“如果武装部队使用致命的人工智能武器,它将从根本上把‘杀的决定权’从士兵们手中转移到设计师和工程师那里。”
新南威尔士大学堪培拉分校当天在官网发布消息说,该校和昆士兰大学与相关机构合作,将启动一项投入超过900万澳元(约合4300万元人民币)的计划,主要研究军用的自动机器人。这项研究的焦点是“可信赖的自动系统”,该系统需要把人类的道德和法律信息嵌入其中,“带来自动化和机器人方面的世界领先技术,以实现人与机器之间可信赖的有效合作”。
当地媒体引用该项目首席研究员杰伊·加利奥的话说,这项研究将详细调查人类士兵如何在道德层面作出“是否开火”的决定,并力争让人工智能武器学会作出类似人类行为的决定,“比如可以据此设计出永远不会对救护车或医院开火的武器”。
人工智能武器研究在全球仍存争议。由于担心这类武器可能被恐怖分子等利用,百余名全球人工智能和机器人公司创始人曾于2017年发布联名公开信,呼吁联合国采取行动禁止“杀手机器人”扩散。
本文素材来自互联网