域名频道资讯站
我们一直在努力制造惊吓

关于AI的四个最常见的谬论

关于AI的四个最常见的谬论

米切尔(Mitchell)在题为“为什么AI比我们想象的更难的原因”的新论文中提出了关于AI的四个常见谬论,这些谬论不仅在公众和媒体之间,而且在专家之间引起误解。这些谬论给人一种错误的信心,使我们对实现人工智能,可以与人类的认知能力和一般问题解决能力相匹配的人工智能系统有多大的信心 。

狭窄的AI和一般的AI规模不一样

现有的AI可以很好地解决狭窄的问题。比如在围棋和国际象棋上超越人类,以超乎寻常的准确性在X射线图像中发现癌变模式,并将音频数据转换为文本。

但是,设计可以解决单个问题的系统并不一定会使我们更接近解决更复杂的问题。米切尔(Mitchell)将第一个谬论描述为“狭义情报与普通情报是连续的”。

米切尔在论文中写道:“即使人们在狭窄的区域内看到一台机器在做奇妙的事情,他们通常会认为该领域对通用AI的发展要远得多。”

例如,当今的 自然语言处理系统在解决许多不同问题(例如翻译,文本生成以及对特定问题的问答)方面已经走了很长一段路。

同时,我们拥有可以将语音数据实时转换为文本的深度学习系统。每一项成就的背后都是数千小时的研发(以及在计算和数据上花费的数百万美元)。但是AI社区仍然没有解决创建能够参与开放式对话而又不会长时间失去连贯性的座席的问题。这样的系统不仅需要解决较小的问题,还需要解决更多的问题。

它需要常识,这是AI尚未解决的关键挑战之一。

简单的事情很难自动化

当涉及到人类时,我们希望一个聪明的人去做艰苦的事情,这需要多年的学习和实践。例子可能包括诸如解决微积分和物理问题,在大师级别下棋,或背诵很多诗之类的任务。

但是数十年来的AI研究证明,那些需要自动关注的艰巨任务更容易实现自动化。简单的任务,我们认为理所当然的事情,却很难自动化。米切尔(Mitchell)将第二个谬误描述为“容易的事情很容易,而艰难的事情很难。”

“我们人类不加思索地做的事情-放眼世界,了解我们所看到的东西,进行对话,走在拥挤的人行道上而不会撞到任何人,这对机器来说是最艰巨的挑战,”米切尔写道。

相反,让机器去做对人类来说非常困难的事情通常会更容易;例如,解决复杂的数学问题,精通国际象棋和围棋之类的游戏以及在数百种语言之间翻译句子对于机器来说都变得相对容易了。

例如,考虑视觉。数十亿年来,生物体已经开发出用于处理光信号的复杂设备。动物会用眼睛盘点周围的物体,导航周围的环境,寻找食物,检测威胁并完成许多其他对生存至关重要的任务。我们人类从祖先那里继承了所有这些能力,并且在没有意识的情况下使用它们。但是,其基本机制确实比使高中和大学感到沮丧的大型数学公式更为复杂。

恰当的例子:我们仍然没有  像人类视觉一样通用的计算机视觉系统。我们设法创建了 人工神经网络 ,可以大致模拟动物和人类视觉系统的各个部分,例如检测物体和分割图像。但是它们很脆弱,对许多不同种类的干扰都很敏感,并且它们无法模仿生物视觉可以完成的全部任务。例如,这就是为什么无人驾驶汽车中使用的计算机视觉系统需要使用激光雷达和地图数据等先进技术进行补充的原因。

另一个被证明是非常困难的领域是感觉运动技能,人类无需经过明确的培训即可掌握这些技能。想想如何处理物体,行走,奔跑和跳跃。这些是您可以在没有意识的情况下完成的任务。实际上,在走路时,您可以做其他事情,例如听播客或打电话。但是,对于当前的AI系统而言,这些技能仍然是一项巨大而昂贵的挑战。

米切尔写道:“人工智能比我们想象的要难,因为我们在很大程度上意识不到自己思考过程的复杂性。”

拟人化AI没有帮助

人工智能领域充满了词汇量,使软件与人类智能处于同一水平。我们使用诸如“学习”,“理解”,“阅读”和“思考”之类的术语来描述AI算法的工作方式。尽管此类拟人化术语通常用作简化复杂软件机制的简写,但它们可能误导我们认为当前的AI系统就像人类的大脑一样运作。

Mitchell将此谬误称为“一厢情愿的助记符的诱惑”,并写道:“这种简写可能会误导试图理解这些结果的公众(以及报道这些结果的媒体),并且还会无意识地影响甚至AI专家的思考方式。他们的系统以及这些系统与人类智能的相似程度。”

一厢情愿的谬论也导致AI社区以令人误解的方式命名算法评估基准。例如,考虑由AI中一些最受尊敬的组织和学术机构开发的 通用语言理解评估(GLUE)基准。GLUE提供了一组任务,这些任务可以帮助评估语言模型如何将其功能推广到其已受训的任务之外。但是,与媒体所描述的相反,如果AI代理获得的GLUE得分高于人类,则并不意味着它的语言理解能力要高于人类。

Mitchell写道:“虽然在这些特定基准上机器的性能优于人类,但AI系统仍远不能与我们与基准名称相关联的更一般的人类能力相匹配。”

如意算术的一个明显例子是Facebook人工智能研究公司2017年的一个项目,科学家在该项目中训练了两个AI代理以基于人类对话的任务进行谈判。在他们的 博客文章中,研究人员指出“更新两个代理的参数会导致与人类语言的差异,因为 代理开发了自己的语言 进行谈判(强调我的意思)。”

这导致了一系列的点击诱饵文章,它们警告了AI系统变得比人类更智能,并且正在以秘密方言进行交流。四年后,最先进的语言模型仍然 难以理解 大多数人在很小的年龄就没有受到指导的情况下所学的基本概念。

没有身体的AI

智慧能否与世界丰富的物理经验孤立地存在?这是科学家和哲学家几个世纪以来一直困惑的问题。

一种思想流派认为,智力全在大脑中,并且可以与身体分离,这也被称为“桶中的大脑”理论。米切尔(Mitchell)称其为“智力全在脑中”的谬论。有了正确的算法和数据,我们就可以创建可以生活在服务器中并与人类智能相匹配的AI。对于这种思维方式的拥护者,尤其是那些支持纯粹的基于深度学习的方法的人,达到通用AI取决于收集适量的数据并创建越来越大的神经网络。

同时,越来越多的证据表明这种方法注定会失败。她写道:“越来越多的研究人员正在质疑“全脑”信息处理模型的基础,以理解智能并创建人工智能。”

人和动物的大脑已经与所有其他人体器官一起进化,其最终目标是提高生存机会。我们的智力与身体的极限和能力紧密相关。嵌入式AI的领域不断扩大,其目的是通过通过不同的感官刺激与环境互动来创建能够发展智能技能的主体。

米切尔(Mitchell)指出,神经科学研究表明“控制认知的神经结构与控制感觉和运动系统的神经结构紧密相连,抽象思维利用了基于人体的神经“图”。”事实上,越来越多的证据和研究证明了来自反馈的反馈。大脑的不同感觉区域会影响我们的有意识和无意识思想。

米切尔(Mitchell)支持这样的观念,即情感,感觉,潜意识偏见和身体经验与智力密不可分。她写道:“在我们的心理学或神经科学知识上,没有任何东西可以支持'纯粹的理性'与可以影响我们的认知和目标的情感和文化偏见分开的可能性。”

“相反,我们从体现认知的研究中学到的是,人类智力似乎是一个高度集成的系统,具有紧密相关的属性,包括情感,欲望,强烈的自我意识和自主性以及对世界的常识。尚不清楚这些属性是否可以分开。”

人工智能常识

发展通用人工智能需要对我们对智能本身的理解进行调整。我们仍在努力定义什么是智能以及如何在人工和自然界中对其进行测量。

“很明显,为了更有效地实现和评估AI的进步,我们将需要开发出更好的词汇来谈论机器可以做什么,” Mitchell写道。

“从更广泛的意义上讲,我们将需要对智能进行更好的科学理解,因为它体现在自然界的不同系统中。”

米切尔(Mitchell)在论文中讨论的另一个挑战是常识性挑战,她将其描述为“一种当今最先进的AI系统所缺少的保护伞”。

常识包括我们获得的有关世界的知识,并且每天无需付出太多努力就可以应用它。当我们还是孩子的时候,通过探索世界,我们可以学到很多东西,而无需明确指示。其中包括诸如空间,时间,重力和物体的物理属性之类的概念。

例如,一个孩子很小的时候就知道,当一个物体被另一个物体挡住时,它并没有消失并继续存在,或者当一个球在桌子上滚动并到达壁架时,它应该掉下来。我们使用这些知识来构建世界的心理模型,进行因果推断,并以相当高的准确性预测未来状态。

当今的AI系统缺少这种知识,这使它们变得不可预测且需要大量数据。实际上,本文开头提到的两个AI应用程序-客房清洁和驾驶是大多数人通过常识和一点点实践学习的东西。

常识还包括有关人类本性和生活的基本事实,我们在对话和写作中忽略的事物,因为我们知道我们的读者和听众都知道它们。例如,我们知道如果两个人在“打电话”,则意味着他们不在同一个房间。我们还知道,如果“约翰伸手去拿糖”,则意味着在约翰附近某处有一个装有糖的容器。这种知识对于自然语言处理等领域至关重要。

“还没有人知道如何在机器中捕获这样的知识或能力。这是人工智能研究的当前前沿,一种令人鼓舞的前进方式是利用有关幼儿中这些能力发展的已知知识。”米切尔写道。

尽管我们仍然不知道许多问题的答案,但寻找解决方案的第一步是要意识到我们自己的错误思想。 Mitchell写道:“了解这些谬论及其微妙的影响可以为创建更健壮,值得信赖甚至可能真正智能的AI系统指明方向 。”

本文素材来自互联网

赞(0)
分享到: 更多 (0)

中国专业的网站域名及网站空间提供商

买域名买空间