以深度学习为代表的人工智能算法近年来取得突破性进展,应用越来越广泛。但“人工智能的主体性与侵权责任”“人工智能与知识产权”“人工智能产业发展与个人信息保护”“人工智能与法律伦理”等问题也随之而来。
围绕上述问题,“人工智能:科学与法学的对话”研讨会近日在重庆举行。此次研讨会由中国知识产权法学研究会、西南政法大学主办,西南政法大学知识产权学院、重庆知识产权保护协同创新中心、北京阳光知识产权与法律发展基金会承办。
作品判断存在争议
满足独创性是关键
关于人工智能是否拥有主体资格以及同时伴有的侵权责任问题,目前仍然存在很大的争议。
近日,北京互联网法院一审公开宣判北京菲林律师事务所诉北京百度网讯科技有限公司侵害署名权、保护作品完整权、信息网络传播权纠纷一案,判决认定计算机软件智能生成的涉案文章内容不构成作品,但同时指出其相关内容亦不能自由使用。
此案的判决是人民法院首次对涉计算机软件智能生成内容的著作权保护问题进行回应。
中南财经政法大学知识产权学院教授黄玉烨提出,人工智能生成作品的著作权保护问题存在两种困境,一是其是否具有独创性、是否反映了人的个性;二是其权利主体为谁,假设人工智能生成作品受著作权保护,人工智能能否成为著作权主体。
“依据现行法律和传统著作权理念,人工智能不能成为著作权主体,因为著作权主体应当是民事主体,即自然人、法人和非法人组织,动物、机器都不能成为权利主体。”黄玉烨说。
中国社科院法学所研究员管育鹰认为,创作过程是一种精神上的智力活动,受保护的作品应当具有自然人的独创性表达。人工智能生成物迄今为止仍是算法直接转换、系统自动生成的结果,这一过程并非创作,其结果也不是作品。并不否认人工智能可作为创作的辅助工具,人工智能系统、算法应用和财产利益也可获得其他知识产权法的保护。
华东政法大学知识产权学院教授丛立先则认为,如果在人工智能开发、利用和转移的过程中有合同,不违反合同法基本规则,那么合同要优先。在版权法语境下,目前用现代规则体系和思维模式可以解决问题,当问题无法解决时,再讨论主体性。
在北京理工大学计算机学院副教授马锐看来,人工智能算法对数据的依赖、不确定性、不可解释性等,导致人工智能应用存在潜在的安全风险。
而针对现阶段关于人工智能立法还不完善的状况,西南政法大学民商法学院副教授曹伟认为,可以通过知识产权对人工智能技术的创新进行保护。目前亟需考虑的问题有3个方面,即数据的产权定性;数据的采集、整理和使用规则;人工智能研发的规范与引导。
规制企业伦理道德
有效保护个人信息
隐私利益是什么?清华大学法学院副教授吴伟光认为,隐私利益是竞争中产生的信息独占关系,只要有竞争关系就有隐私利益。
吴伟光认为,人的合作效率越高,其隐私利益越小。劳动合同法明确要求劳动者必须提供相关信息,只要合作,就必须信息交换。在人工智能时代,人的社会合作广度和深度都会有巨大的提升,必须与大量陌生人交换信息,隐私期望一定要下降。
中国科学院大学法律与知识产权系副教授尹锋林称,随着科技进步,个人信息内容不断发展丰富。在人工智能时代,行业规范对个人信息保护至关重要,个人信息保护要借助于行业规范。在我国,个人信息保护如果仅靠个人,可能会面临能力不足问题。行业、政府、相关企业应加强合作,共同建立合理的个人信息保护强制性或准强制性标准。
重庆市公安局电子物证司法鉴定中心主任田庆宜认为,人工智能要想更好地为人提供服务,需要融入与了解人的生活,在服务获得与隐私保护之间取得平衡。过于严苛的个人信息保护,可能阻碍人工智能的发展,他建议立足国内发展实践进行立法保护。
人工智能发展如此迅速,能不能将人工智能应用到司法审判当中?杭州实在智能科技有限公司创始人孙林君认为,如果在司法判决时运用人工智能做辅助,可能面临严肃性悖论。由于存在严肃性悖论,当前阶段把人工智能辅助决策的技术嵌入到审判环节,很难提升案件审理的质量和效率。
人工智能到底会不会帮助法官或律师减轻负担?孙林君提出,打官司会经过咨询、评估、调解、仲裁、审判几个阶段,而老百姓最关心的是胜的概率是多少,可以依据哪些法律法规,有没有相关的案例参考。
也有很多专家和科技界人士对人工智能的发展提出担忧。腾讯公司法务平台部总经理谢兰芳认为,人工智能并不一定100%为人类带来福利。人工智能有了自己的意识后,可能会作恶,成为坏的人工智能。因此,需要将规则、伦理、价值观嵌入其中,规制人工智能的发展。
清华同方集团法务总监苏云鹏建议,企业应加强伦理道德方面的规制,在企业成立伦理道德委员会,所有高科技产品推向市场之前,先经过伦理委员会的论证,并赋予其一票否决权。由于思维视角存在局限性,这个委员会要由不同学科的专家,如社会专家、政府专家、学术专家等共同组成。(记者 吴晓锋)
本文素材来自互联网