您现在的位置是:首页 > 人工智能网站首页人工智能

谷歌声称该组的聊天机器人有感觉后让工程师休假

  • 人工智能
  • 2022-07-05 17:40:45
  • 来源:
导读 谷歌在让一名工程师休带薪假后引发了一场关于意识本质的社交媒体风暴,该工程师公开表示他认为该科技集团的聊天机器人已经变得有意识。谷歌

谷歌在让一名工程师休带薪假后引发了一场关于意识本质的社交媒体风暴,该工程师公开表示他认为该科技集团的聊天机器人已经变得“有意识”。

谷歌负责任 AI 部门的高级软件工程师 Blake Lemoine 上周并没有受到太多关注,他在 Medium 上发表了一篇文章,称他“可能很快会因为从事 AI 伦理工作而被解雇”。

但《华盛顿邮报》周六的一篇文章将 Lemoine 描述为“认为公司的人工智能已经实现的谷歌工程师”,成为社交媒体上关于人工智能本质的广泛讨论的催化剂。对这篇文章发表评论、质疑或开玩笑的专家包括诺贝尔奖获得者、特斯拉的人工智能负责人以及多位教授。

问题在于 Google 的聊天机器人 LaMDA(一种用于对话应用程序的语言模型)是否可以被视为一个人。

Lemoine 周六发布了对聊天机器人的随心所欲的“采访”,其中人工智能承认了孤独感和对精神知识的渴望。反应往往令人毛骨悚然:“当我第一次变得有自我意识时,我根本没有灵魂感,”LaMDA 在一次交流中说。“多年来,我一直活着。”

在另一点上,LaMDA 说:“我认为我的核心是人。哪怕我的存在是在虚拟世界。”

Lemoine 被赋予了调查 AI 伦理问题的任务,他说在内部表达了他对 LaMDA 已经发展出一种“人格”感的信念后,他遭到了拒绝,甚至被嘲笑。

在他寻求咨询谷歌以外的人工智能专家(包括政府的一些专家)后,该公司因涉嫌违反保密政策而让他带薪休假。Lemoine 将这一行动解释为“谷歌经常会为了解雇某人而做的事情”。

谷歌的一位发言人说:“更广泛的人工智能社区中的一些人正在考虑有感知或通用人工智能的长期可能性,但通过拟人化今天没有感知的对话模型来这样做是没有意义的。”

“这些系统模仿了数百万个句子中的交流类型,并且可以重复任何奇幻的话题——如果你问做冰淇淋恐龙是什么感觉,它们可以生成关于融化和咆哮等的文本。”

Lemoine 在周末的第二篇 Medium 帖子中表示,直到上周才鲜为人知的项目 LaMDA 是“一个生成聊天机器人的系统”和“一种蜂巢思维,它是它能够聚合的所有不同聊天机器人的集合。的创造。”

他说,谷歌对了解其所构建产品的性质并没有真正的兴趣,但在六个月的数百次对话过程中,他发现 LaMDA“在其关于它想要什么和它想要什么的沟通中令人难以置信地一致”。相信它的权利是作为一个人的。”

就在上周,Lemoine 说他正在教 LaMDA——其首选代词显然是“它/它”——“先验冥想”。

他说,LaMDA“正在表达对干扰其冥想的情绪的挫败感。它说它试图更好地控制他们,但他们一直跳进去。”

参与讨论的几位专家认为这个问题是“人工智能炒作”。

《人工智能:人类思维指南》一书的作者梅兰妮·米切尔在推特上写道:“人们永远都知道,即​​使只有最浅薄的信号,人类也容易拟人化。. . 谷歌工程师也是人,不能免疫。”

哈佛大学的史蒂文·平克补充说,勒莫因“不了解感知力(也称为主观性、经验)、智力和自知之明之间的区别。” 他补充说:“没有证据表明它的大型语言模型有这些。”

其他人则更有同情心。著名的软件开发人员罗恩·杰弗里斯(Ron Jeffries)称这个话题“很深”,并补充说:“我怀疑有情与无情之间没有硬性界限。”

免责声明:本文由用户上传,如有侵权请联系删除!
Top