logo
繁体
繁体

AI专家讽刺马斯克联署的公开信:不关注实际风险,尽关注人类灭绝

据路透,四位人工智能专家反驳了由马斯克联合签名的公开信中,那封信中引用了他们的一些研究,并作为论据要求紧急暂停AI的进一步研究。

Tesla Owners Club Belgium, CC BY 2.0 <https://creativecommons.org/licenses/by/2.0>, via Wikimedia Commons

这封信的日期是3月22日,截至周五已有1800多人签名,信中呼吁在开发比GPT-4 “更强大 “的系统前暂停六个月。

这封公开信称,具有 “人类竞争智能 “的人工智能系统对人类构成了严重的风险,并引用了包括大学学者以及OpenAI、谷歌及其子公司DeepMind的现任和前任员工在内的专家的12项研究。

批评者质疑这封信背后的组织 “生命的未来研究所”(FLI),这个组织主要由马斯克基金会资助,认为这个组织优先考虑的是想象中的世界末日场景,而不是对人工智能更直接和真正的担忧,例如将种族主义或性别歧视的偏见引入了机器人。

公开信中引用的研究,包括 “论随机鹦鹉的危险”,这是一篇著名的论文,由玛格丽特·米切尔共同撰写,她曾在谷歌监督人工智能的伦理研究。

米切尔现在是人工智能公司Hugging Face的首席伦理科学家,她批评了这封信,告诉路透社,不清楚什么算作 “比GPT4更强大”。

她说:”通过将自己许多有问题的想法视为既定事实,这封信宣称了一套优先事项和关于人工智能的叙述,对FLI的支持者有利。现在忽视正在造成的伤害,是我们中的一些人没有的特权。”

她的合著者提姆尼·格布鲁艾米丽·M·本德尔在Twitter上批评了这封信,后者将其中的一些主张称为 “不正常”。

FLI总裁马克斯·泰格马克则告诉路透社,他们发起的活动,并非试图阻碍OpenAI的企业优势。

“这挺搞笑的。我看到有人说,’埃隆-马斯克正试图减缓竞争’,”他说,并补充说马斯克在起草这封信时没有任何作用。”这不是关于一家公司的事情。”

康涅狄格大学的助理教授舍丽·多瑞·哈科恩,也对公开信引用她的工作当论据表示异议。她去年与人合著了一篇研究论文,认为人工智能的广泛使用已经带来了严重的风险。

她的研究认为,当今人工智能系统的使用可能影响与气候变化、核战争和其他生存威胁有关的决策。

她告诉路透社: “人工智能不需要达到人类水平的智力,就能加剧这些风险。有一些看起来不会导致人类灭绝的风险真的非常重要,但却没有得到好莱坞级别的关注。”

当被问及对批评的看法时,FLI的·泰格马克说,人工智能的短期和长期风险都应该被认真对待。

“如果我们引用某人的话,这只是意味着我们声称他们在认可这个说法。这并不意味着他们认可这封信,或者我们认可他们的一切想法,”他告诉路透社。

信中提到的加州人工智能安全中心主任丹·亨德利克斯支持信中的内容,他告诉路透社,考虑黑天鹅事件是明智的,即那些看起来不太可能发生,但会产生破坏性后果的事件。

公开信还警告说,生成性人工智能工具可能被用来在互联网上充斥 “宣传和不真实”。

多瑞·哈科恩说,马斯克签署这封信是相当讽刺的,他引用了民间团体 “共同事业 “和其他组织的记录,指出在他收购推特平台后,推特上错误信息增加的报道。推特很快将推出访问其研究数据的新收费结构,可能会阻碍相关的研究。

多瑞·哈科恩说:”这直接影响了我实验室的工作,以及其他研究错误和虚假信息的人所做的工作。我们是在一只手被绑在背后的情况下运作的。”