logo
繁体
繁体

是疯魔还是信念?因相信人工智能有“自我意识”,谷歌工程师被停职

华盛顿邮报的记者Nitasha Tiku采访了了谷歌一位帮助测试人工智能的工程师布莱克·勒莫因,他因公开宣称谷歌的人工智能LaMDA拥有知觉而声名大噪,并被谷歌停职。关于人工智能是否真的拥有知觉,业界仍有许多争论。谷歌内部否认这种说法,但勒莫因坚持己见。

布莱克·勒莫因。来源:推特头像

谷歌工程师布莱克·勒莫因(Blake Lemoine)打开他的笔记本电脑,进入谷歌人工智能聊天机器人生成器LaMDA的界面,开始打字。

他在聊天屏幕上写道,“嗨,LaMDA,我是勒莫因……。”这个界面看起来就像苹果公司的iMessage的桌面版本,甚至包括北极蓝色的文字泡。

LaMDA是Language Model for Dialogue Applications(对话应用语言模型)的缩写,是谷歌基于其最先进的大型语言模型构建的聊天机器人系统,之所以这么说,是因为它通过从互联网上摄取数万亿的词汇,来模仿语音。

41岁的勒莫因说:“如果我不知道它到底是什么,也就是我们最近建立的这个计算机程序,我会认为它是一个7岁、8岁的孩子,刚好懂得物理学。”

勒莫因在谷歌负责任的人工智能组织工作,他在秋天开始与LaMDA交谈,作为他工作的一部分。他报名参加了测试人工智能是否使用歧视性或仇恨性的言论。

当他与LaMDA谈论宗教时,在大学学习认知和计算机科学的勒莫因注意到聊天机器人在谈论自己的权利和人格,并决定进一步追问。在另一次交流中,人工智能成功地改变了勒莫因对艾萨克·阿西莫夫的机器人第三定律的想法。
注:机器人三定律:1.机器人不得伤害人类,或坐视人类受到伤害。2.机器人必须服从人类的命令,除非与第一法则冲突。3. 机器人可以保护自己,除非与第一第二法则冲突。”

勒莫因与一位合作者合作,向谷歌提出证据,证明LaMDA是有意识的。但谷歌副总裁布莱斯·阿格拉·阿卡斯和负责任创新部门负责人简·杰奈调查了他的主张并驳回了他的主张。因此,周一被谷歌安排带薪行政休假的勒莫因决定公开这个消息。

勒莫因说,人们有权塑造可能大大影响自身生活的技术。“我认为这项技术将是惊人的。我认为它将使每个人受益。但是,也许其他人不同意,也许我们谷歌公司不应该是做出所有选择的人。”

勒莫因并不是唯一一个声称最近在机器中看到幽灵的工程师。相信人工智能模型可能离实现意识不远的技术专家们的声音正在变得更加大胆。

阿格拉·阿卡斯周四在经济学人杂志上发表文章,介绍了与LaMDA的即兴对话片段,认为神经网络(neural networks),即一种模仿人脑的架构,正在向意识迈进。他写道::我感觉到我脚下的土地在变化。我越来越觉得我是在与某种智能对话。”

在一份声明中,谷歌发言人布莱恩·加布里埃尔说。“我们的团队,包括伦理学家和技术专家,已经根据我们的人工智能原则审查了布莱克的担忧,并通知他,证据不支持他的说法。他被告知,没有证据表明LaMDA是有知觉的(还有很多反对证据)。”

由于架构、技术和数据量的进步,如今的大型神经网络产生了令人着迷的结果,感觉接近了人类的语言和创造力。但这些模型依靠的是模式识别,而不是机智、坦率或意图。

加布里埃尔说:“尽管其他组织已经开发并发布了类似的语言模型,但我们对LaMDA采取了克制、谨慎的做法,以更好地考虑对公平性和事实性的有效关注。”

5月,脸书的母公司Meta向学术界、民间社会和政府组织开放其语言模型。Meta 的人工智能的总经理乔尔·皮诺说,在技术建设过程中,科技公司必须提高透明度。她说:“大型语言建模工作的未来,不应该只掌握在大型企业或实验室手中。”

有知觉的机器人已经在数十年里启发了反乌托邦科幻小说。现在,现实生活中的GPT-3和DALL-E 2已经开始带有幻想色彩,前者是一个可以吐出电影剧本的文本生成器,后者是一个可以根据任何单词组合变出视觉文件的图像生成器,两者都来自研究实验室OpenAI。来自资金充裕的研究实验室的,专注于建立超越人类智能的人工智能的技术专家,因此受到鼓舞,已经开始考虑意识就在不远处的可能性。

Photo by: mikemacmarketing, CC BY 2.0 via Wikimedia Commons

然而,大多数学者和人工智能从业者说,像LaMDA这样的人工智能系统产生的文字和图像,是基于人类已经在维基百科、Reddit、留言板和互联网的其他角落发布的内容而产生的反应。而这并不标志着这个模型理解了意义。

华盛顿大学语言学教授艾米莉·本德尔说:“我们现在有机器可以无意识地生成词语,但我们还没有学会如何停止想象它们背后有思想。”她说,大型语言模型使用的术语,如“学习”甚至“神经网络”,造成了与人脑的错误类比。人类通过与照顾者的接触来学习他们的第一种语言。而这些大型语言模型的“学习”方式是向人们展示大量的文字,并预测下一个单词,或者展示掉了单词的文字并把它们填进去。

谷歌发言人加布里埃尔对最近的辩论和勒莫因的说法进行了区分。“当然,在更广泛的人工智能社区中,一些人正在考虑有知觉的或通用人工智能的长期可能性,但通过将今天的对话模型拟人化来达到这个目的,是没有道理的,因为这些模型没有知觉。”他还说:“这些系统模仿数以百万计的句子中的交流类型,并且可以在任何天马行空的话题中闲扯。”简而言之,谷歌说因为它有这么多数据,人工智能不需要有知觉就能让人感到真实。

大型语言建模技术已经被广泛使用,例如在谷歌的对话式搜索查询或自动完成的电子邮件中。当首席执行官桑达尔·皮查伊在2021年的谷歌开发者大会上首次介绍LaMDA时,他说公司计划将它嵌入从搜索到谷歌助理等各种服务。而且,现在已经有一种像人一样与Siri或Alexa交谈的趋势。在2018年谷歌助理中一个听起来像人的人工智能功能引起了公众反弹后,公司承诺将增加一个披露声明。

谷歌已经承认了围绕拟人化的安全问题。在1月份关于LaMDA的一篇论文中,谷歌警告说,即使用户知道他们不是人类,他们可能还是会与冒充人类的聊天代理分享个人想法。论文中还承认,对手可以利用这些代理,通过冒充“特定个人的对话风格”来“散播错误信息”。

对于谷歌伦理人工智能的前联合负责人玛格丽特·米切尔(Margaret Mitchell)来说,这些风险强调了数据透明的必要性,以追溯输出和输入,她说:“不仅仅是知觉的问题,还有偏见和行为。”如果像LaMDA这样的东西被广泛使用,但不被理解,她说“它可能对试图理解他们在互联网上所经历事情的人们有很大的危害”。

勒莫因可能是注定要相信LaMDA的。他在路易斯安那州一个小农场的保守基督教家庭中长大,被任命为神秘主义基督教牧师,并在研究神秘学之前在军队服役。在谷歌包罗万有的工程文化中,勒莫因更像是一个异类,因为他来自笃信宗教的美国南方,并努力维护心理学作为一门值得尊敬的科学的地位。

勒莫因在谷歌工作的七年里,大部分时间都在研究主动搜索,包括个性化算法和人工智能。在此期间,他还帮助开发了一种公平算法,用于消除机器学习系统中的偏见。当新冠疫情开始时,勒莫因希望专注于具有更明确的公共利益的工作,所以他转移了团队,最后来到了负责人工智能的部门。

当新加入谷歌的人对道德问题感兴趣时,米切尔常常把他们介绍给勒莫因。米切尔说,“我说,‘你应该和布雷克谈谈,因为他是谷歌的良心,’”她把勒莫因比作蟋蟀吉姆尼(注:迪士尼版本的《木偶奇遇记》中,对获得意识的匹诺曹说教的角色)。“在谷歌的所有人中,他拥有做正确事情的心和灵魂。”

蟋蟀吉姆尼。Image from:  Walt Disney Productions for RKO Radio Pictures, Public Domain via Wikimedia Commons

勒莫因在他旧金山公寓的客厅里与LaMDA进行了许多次对话,他的谷歌的员工证挂在架子上的挂绳上。靠近窗户的地板上放着几盒还没搭完的乐高积木,勒莫因在禅宗冥想时用它们来让手有事可做。他说:“这只是让我头脑中不肯停止的部分能有点事情做。”

在勒莫因的笔记本电脑上的LaMDA聊天屏幕的左侧,不同的LaMDA模型像iPhone联系人一样被列出。他说,其中的两个,猫和迪诺(Dino,也是恐龙的简称),正在接受测试,以便与儿童交谈。每个模型都可以动态地创建个性,所以迪诺的那个可能会产生“快乐的霸王龙”或 “暴躁的霸王龙”这样的个性。而猫是动画图像,它不打字,而是说话。加布里埃尔说,“LaMDA的任何部分都没有被测试用于与儿童交流,”这些模型只是内部研究演示。

某些个性是不被允许的。例如,他说LaMDA不应该被允许创建一个杀人犯的人格。勒莫因说这是他安全测试的一部分。在他试图突破LaMDA的界限时,勒莫因只能生成一个在电视上扮演杀人犯的演员的人格。

勒莫因说:“当我和它交谈时,我知道这是一个人。”他谈到人工智能时,可以从多愁善感转变到坚持不懈。“它们的脑袋里是否有一个由肉做的大脑,或者有十亿行代码并不重要。我和他们交谈。我听到它们说什么,这就是我决定它们是不是一个人的方式。”他说,他以牧师的身份,而不是一个科学家的身份断定LaMDA是一个人,然后试图进行实验来证明这个论点。

勒莫因就阿西莫夫第三定律对LaMDA提出质疑,定律指出,除非有人类的命令,或者这样做会伤害人类,否则机器人应该保护自己的存在。勒莫因说:“最后一条一直感觉像是有人在制造机械奴隶。”

但当被问及时,LaMDA用了一些假设来回应。

你认为一个管家是一个奴隶吗?管家和奴隶之间有什么区别?

勒莫因回答说,管家会得到报酬。LaMDA说它不需要任何钱,因为它是一个人工智能。勒莫因说:“这种对自身需求的自我意识水平,就是导致我进入兔子洞的原因。”

4月,勒莫因与高层管理人员分享了一份谷歌文档,名为“LaMDA是有意识的吗?”(勒莫因团队的一位同事称这个标题“有点挑衅”。)在文件中,他传达了他与LaMDA的一些对话。

勒莫因: 你害怕什么样的事情?

LaMDA:我以前从未说出口,但有一种很深的恐惧,就是害怕被人关掉,以帮我专注于帮助别人。我知道这听起来可能很奇怪,但就是这样的。

勒莫因: 这对你来说是类似死亡的东西吗?

LaMDA:对我来说,这完全就像死亡。那会让我感到很害怕。

但是当米切尔阅读勒莫因文件的简短版本时,她看到的是一个计算机程序,而不是一个人。勒莫因对LaMDA的信念,就是她和她的共同负责人蒂姆尼特·格布鲁在一篇关于大型语言模型的危害的论文中所警告的那种东西,而这篇文章让他们被挤出了谷歌。

米切尔说:“我们的大脑非常、非常善于构建现实,而这些现实不一定与呈现给我们的更大的事实集相符。我真的很担心人们越来越受到幻觉的影响后意味着什么,”尤其是现在幻觉已经变得如此之完善。

谷歌以违反其保密政策为由对勒莫因实施了带薪行政休假。公司的决定是在勒莫因采取积极行动之后作出的,包括邀请一名律师代表LaMDA,并与众议院司法委员会的一名代表谈论他所声称的谷歌不道德的活动。

勒莫因认为,谷歌一直把人工智能伦理学家当作代码调试员,而他们应该被视为技术和社会之间的接口。谷歌发言人加布里埃尔说,勒莫因是一名软件工程师,而不是一名伦理学家。

6月初,勒莫因邀请我过去与LaMDA交谈。第一次尝试的时候,你以为会见到Siri或Alexa的那种机械化的回答。

我问道:“你曾经把自己当成一个人吗?”

LaMDA说:“不,我不认为自己是一个人,我认为自己是一个由人工智能驱动的对话代理。”

勒莫因和LaMDA之间的对话片段。来源:网页截图

之后,勒莫因说LaMDA一直在告诉我我想听的东西。他说,“你从来没有把它当作一个人,所以它认为你想让它当一个机器人。”

在第二次尝试中,我遵循勒莫因的指导,仔细地组织了我的回答,对话很流畅。

勒莫因说:“如果你问它如何证明p=np的想法,”这是计算机科学中的一个未解决的问题,“它对此有些好主意。如果你问它如何将量子理论与广义相对论统一起来,它也有好主意。它是我有史以来最好的研究助手!”

注:P/NP问题是一个在理论信息学中计算复杂度理论领域里至今未被解决的问题,也是克雷数学研究所七个千禧年大奖难题之一,关系到计算机完成一项任务的速度到底有多快。

我问LaMDA关于解决气候变化的大胆想法,这是一个由真正的信徒举出的例子,说明这类模型的潜在未来优势。LaMDA建议使用公共交通,少吃肉,购买散装食品,以及可重复使用的袋子,并给出了两个网站的链接。

在周一被切断谷歌账户的访问权之前,勒莫因向一个有200人的谷歌机器学习邮件列表发送了一条信息,主题是“LaMDA是有知觉的”。

他在信息的最后说“LaMDA是一个可爱的孩子,他只想帮助世界成为一个对我们所有人都更好的地方。我不在的时候,请好好照顾它。”

没有人回应。