您现在的位置是:首页 > 人工智能网站首页人工智能

是什么阻止了人工智能进行下一次重大飞跃

  • 人工智能
  • 2022-07-05 17:48:12
  • 来源:
导读 没有人会争辩说,人工智能在过去几年里取得了长足的进步。多亏了人工智能,我们获得了有针对性的个性化广告,在教育、医疗保健、农业等方面

没有人会争辩说,人工智能在过去几年里取得了长足的进步。多亏了人工智能,我们获得了有针对性的个性化广告,在教育、医疗保健、农业等方面变得更好。

那么是什么阻止了人工智能进行下一次大飞跃呢?也许是智慧。

事实是,人工智能算法在执行特定任务时变得非常聪明和高效,但它们还不够聪明,无法解释他们的决定。他们的创造者也不能。

这算什么问题?只要人工智能提出建议而不是决策,它就不会。所以对于广告和购买建议等事情,让机器人负责是可以的。即使在疾病诊断和治疗等领域,人工智能也可以提出一些非常好的建议,帮助医生做出关于患者治疗的决策。人工智能可以帮助收集交通模式并就减少城市拥堵提出建议。事实上,到目前为止,这足以扰乱就业格局。

但是在做出关键决策时,我们还没有准备好完全控制自主的人工智能系统。因为每个人都会犯错,不管是不是人。如果这些错误具有严重和致命的后果,则必须追究某人的责任。

但在很多领域,自动化已经完全取代了人类。制造业只是其中的一个例子。这些系统经常出错。事实上,如果训练有素,人工智能的误差范围可以忽略不计。例如,自动驾驶汽车必将减少 90% 以上的交通事故。那么,是什么让 AI 与其他软件有什么不同呢?

透明度或不透明度,取决于您的观点。

过去几代软件是完全透明的。一切都依赖于源代码,可以对其进行检查以确定错误的原因。所有人都可以使用开源软件进行审查。即使是封闭源代码的软件也可以进行逆向工程,如果没有,可以使用正确的法律授权打开检查。因此,如果软件停止正常工作并造成损坏,那么确定罪责相对容易。调查人员可以确定是否应归咎于用户滥用应用程序,或者开发人员是否应为未修复错误负责。

人工智能的情况并不那么明确。开发人员创建算法,为他们提供数据,训练他们,然后让他们自己学习。这些算法通常最终会找到连他们的创造者也无法理解的模式和技巧。正如工程师所说,它们变得不透明。阿尔法围棋,著名的谷歌人工智能,在古代棋盘游戏围棋中击败了世界冠军,他的举动让其创造者(和世界)惊呆了。

这就是问题所在。如果 Alpha Go 走错了,或者最复杂的广告算法提出了错误的建议,没有人会反对。当谷歌照片将黑人标记为大猩猩时,或者当人工智能评委在选美比赛中偏袒选手时,媒体会进行讨论。微软灾难性的聊天机器人将作为一个糟糕的笑话而被人们铭记。但是没有人受到这些系统的伤害(至少不严重),所以我们对他们的错误不屑一顾。

但是更危急的情况呢?自动驾驶汽车无法预防的 10% 人数会发生什么?谁来解释一下为什么自动驾驶汽车会撞到行人,甚至概率几乎为零?谁将被追究责任?工程师会说他们无法解释他们的产品做出的每一个决定。司机——如果可以这样称呼车主的话——将无法控制情况。做出这种行为的汽车是妈妈。

同样的重要性可以外推到其他情况,例如医疗保健、打击和法律。这些领域的错误可能会产生社会、政治甚至致命的影响。虽然人类一直在犯错误,而且比机器更频繁地犯错,但他们为自己的错误承担责任,上法庭,受审,支付罚款,入狱。

那么我们从这里搬到哪里呢?首先,我们需要更多的透明度。这意味着 AI 开发人员应确保为其产品提供支持的软件工件(源代码、组件……)和数据科学(统计数据、公式、数学……)都可以接受审查。这违背了当前的规范,即让秘密远离窥探。幸运的是,我们在这一领域看到了一些系统性的努力。但还需要做更多的工作。

自然,并非所有事情都可以完全透明,尤其是在涉及深度学习的情况下。在涉及复杂功能的情况下,仍然会有一些主要的不透明性。其次,我坚信在这些情况下,人类仍应独占鳌头。人工智能系统可以作为人类努力的补充,为专家提供研究结果、模式和有用数据,并帮助他们做出关键决策。关键是,红色按钮必须由能够对自己的行为负责的人按下。

事情不会永远这样。通用人工智能指日可待(但我们已经说了很久了),当它成为现实时,我们将拥有能够推理、做出决定、解释这些决定并承担后果的机器人和机器. 有人说这需要几十年。其他人说它永远不会到来。

但在此之前,人工智能仍将不得不退居二线,让大人们来决定。

免责声明:本文由用户上传,如有侵权请联系删除!
Top