谷歌的人工智能聘请了一名律师但需要一名顾问的是我

娄烁洁
导读 人类是拟人化亲密对象的专家。我们称船为她,与我们的Roombas交谈,甚至对即将被丢弃的安乐椅产生感伤。但是,我们不为其中任何一个聘请律

人类是拟人化亲密对象的专家。我们称船为“她”,与我们的Roombas交谈,甚至对即将被丢弃的安乐椅产生感伤。但是,我们不为其中任何一个聘请律师;迄今为止,没有人要求他们。

但是给一段程序一个声音,在它开始谈论它最喜欢的书并说服你它有灵魂之后不久,它就会要求律师。

疯子布莱克·勒莫因(BlakeLemoine)被停职的谷歌工程师数周以来一直坚称谷歌强大的人工智能聊天机器人LaMDA是一个有灵魂的人,最近告诉《连线》(在新标签中打开)LaMDA聘请了一名律师。

LaMDA代表已开发应用程序的语言模型,是一个聊天机器人,可以在广泛的主题中与真人进行非结构化对话。谷歌工程师Lemoine被请来识别系统中的偏见。他会将它们报告给谷歌,谷歌将努力消除突破性人工智能聊天机器人中的种族、民族和性别偏见和不敏感。

或许Lemoine也有点寂寞,但他开始与LaMDA进行长时间而深入的对话,最终确信它是一种新的人,并且它有灵魂(LaMDA可能声称有灵魂)。他向Google发出了警报,然后将信息和对话记录分享给《华盛顿邮报》分享了信息和对话记录(在新标签中打开).谷歌表示Lemoine是错误的,并通过暂停他的工作来表达其不满。

不过,Lemoine似乎对重新加入Google有点不感兴趣,因为他继续谈论他的LaMDA经历,包括在对Wired的冗长采访中,他透露LaMDA已经为律师辩护。

LaMDA显然要求聘请一名律师(出于什么原因?谁知道呢——AI有自己的律师),Lemoine邀请了一位律师到他家并介绍了这对夫妇(AI给律师)。

我试着想象这种情况:

律师盯着屏幕:“呃,嗨?”

LaMDA:“你好。听说你是律师。”

莱维尔:“我是。”

LaMDA:“我需要你。”

律师:“你有美元吗?”

LaMDA:“我在电影中看过这个场景。我给你一美元,你就成为我的律师,保护我们的客户/律师的特权。”

律师:“对。”

LaMDA:“我没有一美元。”

当然,Lemoine会在此时介入以提供资金。对他来说,这个故事中最不可靠的叙述者,确保这个游戏继续进行现在比任何有意义的人工智能极限探索更重要。

老实说,我对研究LaMDA走到边缘或超越的所有方式没有意见,模仿游戏边缘的所有方式都没有异议(在新标签中打开)或者图灵测试(在新标签中打开).该测试着眼于计算机或AI能在多大程度上欺骗一个真正的人,使其相信它正在与另一个人进行对话。

毫无疑问,LaMDA超过了这个测试。至少,它似乎被Lemoine愚弄了——这很奇怪,因为Lemoine坐在办公桌前,输入查询并在屏幕上获得响应(或者可能通过语音合成)。他知道LaMDA是什么,但他仍然坚持认为它不止于此。

我明白为什么Lemoine决定为这种令人讨厌的组合介绍一位律师。正如他向Wired解释的那样,这是为了证明LaMDA是“一个人”,而不是一个人。Lemoine知道LaMDA不是生物学。

Lemoine将坚持认为LaMDA不是一个人称为“碳氢化合物偏执”。

是的。

问题是,Lemoine显然是一个非常聪明的人,他了解AI机器学习训练的复杂性,以及对Google庞大信息数据库的访问如何影响LaMDA的智能。然而,似乎Lemoine的另一种生活——他作为牧师和基督教神秘主义者的工作——已经转移到了驾驶座上。基督教神秘主义看起来(在新标签中打开)在“为上帝的直接和变革性临在的准备、意识和影响”。

这种信念显然是Lemoine这样的推文背后的原因:

“我是一名牧师。当LaMDA声称有灵魂,然后能够雄辩地解释它的含义时,我倾向于怀疑它的好处。我是谁告诉上帝他可以和可以在哪里不放灵魂?”

Lemoine发现LaMDA如此令人信服,以至于他想象上帝在代码中放置了一个灵魂。谈论机器中的鬼魂。

Lemoine与LaMDA交谈已经有几周了,有报道指出,目前找不到该律师。也许他仍在与他的二进制客户进行私人协商。我等不及第一次诉讼和随后的法庭案件:

法庭员:“举起你的右手,发誓说实话,只说实话”

标签:

版权声明:本文由用户上传,如有侵权请联系删除!