研究人员将其归因于一种社会偏见:人类趋向于对流行的东西投入更多的注意力,而机器人程序能创造出某种流行的表象或某些看起来被广泛接受但实际上不是的观点。
他们的研究报告发表在《Nature Communications》期刊上。
在另一项类似的研究中,南加州大学的研究人员分析 400 万 Twitter 帖子,发现机器人程序使用消极内容去创造社会冲突有针对的影响的 Twitter 用户,这些用户通常没有认识到他们成为目标,因而通过转推扩散了假消息。这篇论文发表在 PNAS 期刊上。

本文素材来自互联网
域名频道资讯站