四个月能带来多大的变化。

如果你在11月问我认为人工智能系统的进展如何,我可能会耸耸肩。当然,那时OpenAI已经发布了DALL-E,我发现自己对它所带来的创造性的可能性感到着迷。但总的来说,在多年来看着大平台对人工智能的炒作之后,市场上似乎很少有产品能达到这些年来为我们描述的更宏伟的愿景。



然后OpenAI发布了ChatGPT,这个聊天机器人以其生成的可能性吸引了全世界。微软的GPT驱动的Bing浏览器、Anthropic的Claude和谷歌的Bard接二连三地出现。人工智能驱动的工具正在迅速进入微软的其他产品,更多的工具正在进入谷歌的产品。

与此同时,随着我们逐渐接近一个无处不在的合成媒体的世界,一些危险的迹象正在出现。上周末,一张显示教皇弗朗西斯穿着精致的白色河豚大衣的图片在网上疯传--而我也是那些被愚弄而相信它是真的人之一。开源情报网站Bellingcat的创始人在用它制作和传播唐纳德-特朗普被捕的一些令人毛骨悚然的图像后,被禁止进入Midjourney。(该公司在新的注册者大量涌入后取消了免费试用)。

一组著名的技术专家现在要求这些工具的制造者放慢速度。

合成文本正在迅速进入学生、文案和其他任何从事知识工作的人的工作流程;本周,BuzzFeed成为最新一家开始尝试使用人工智能编写的帖子的出版商。

与此同时,科技平台正在裁减其人工智能伦理团队的成员。Meta公司创建的一个大型语言模型泄露了,并被发布到4chan,很快就有人想出了如何让它在笔记本电脑上运行。

在其他地方,OpenAI发布了GPT-4的插件,允许语言模型访问API,并更直接地与互联网对接,这引发了人们对它将创造不可预测的新伤害途径的担忧。(我直接向OpenAI询问了这个问题;该公司没有回应我)。

正是在这一漩涡的背景下,一群著名的技术专家现在要求这些工具的制造商放慢速度。以下是《纽约时报》的Cade Metz和Gregory Schmidt:

    包括埃隆-马斯克在内的1000多名技术领袖和研究人员敦促人工智能实验室暂停开发最先进的系统,他们在一封公开信中警告说,人工智能工具 "对社会和人类构成了深刻的风险"。

    根据非营利性的未来生命研究所周三发布的这封信,人工智能开发者 "被锁定在一场失控的竞赛中,开发和部署越来越强大的数字头脑,没有人--甚至他们的创造者--能够理解、预测或可靠地控制。

    其他签署信的人包括苹果公司的联合创始人史蒂夫-沃兹尼亚克(Steve Wozniak)、企业家和2020年总统候选人安德鲁-杨(Andrew Yang),以及设置末日时钟的原子科学家公报主席雷切尔-布朗森。

如果没有其他原因,这封信让我觉得是人工智能生存恐惧向主流意识迈进的一个里程碑。多年来,批评家和学者们一直在警告这些技术所带来的危险。但就在去年秋天,很少有人在玩DALL-E或Midjourney时担心 "开发和部署更多数字思维的失控竞赛"。然而,我们在这里。

对技术专家的信有一些值得批评的地方。华盛顿大学语言学教授、人工智能评论家艾米丽-M-本德(Emily M. Bender)称其为 "一团糟",她认为像这样的嘲讽主义最终会使人工智能公司受益,因为它们看起来比实际情况强大得多。(参见Max Read关于这个问题的文章)。

对于一个名义上担心由人工智能驱动的欺骗行为的团体来说,一个尴尬的情况是,一些最初被认为是信的签署者的人后来发现并没有签署这封信。福布斯》指出,组织这封信活动的机构主要由马斯克资助,他自己也有人工智能的野心。

人工智能的变化速度确实让人觉得它可能很快就会超过我们的集体处理能力

也有观点认为,速度不应该是我们在这里的主要关切。上个月,Ezra Klein认为,我们真正关注的应该是这些系统的商业模式。人们担心的是,事实证明,由广告支持的人工智能系统在操纵我们的行为方面比我们目前所考虑的更加强大--无论我们在这里选择多快或多慢,这都会很危险。"克莱因写道:"社会将不得不弄清楚让人工智能做什么是舒服的,以及人工智能不应该被允许尝试什么,否则做出这些决定就太晚了。

这些都是好的和必要的批评。然而,无论我们在公开信中发现什么缺陷--这些天我对马斯克说的任何话都会打一个相当大的折扣--最后我被他们的集体论点所说服。人工智能的变化速度确实让人感觉到,它可能很快就会超过我们处理它的集体能力。而签名者所要求的变化--短暂暂停开发比已经发布的语言模型更大的语言模型--感觉在事情的大计划中是一个小要求。

科技报道倾向于关注创新和由此产生的直接颠覆。它通常不善于思考新技术如何导致社会层面的变化。然而,人工智能对就业市场、信息环境、网络安全和地缘政治的潜在影响--仅举四项关切--应该让我们都有理由想得更远。

二。

研究信息环境的阿维夫-奥瓦迪亚(Aviv Ovadya),我在这里曾经报道过他的工作,他在GPT-4推出之前,曾在OpenAI的一个红队中任职。红队本质上是一种角色扮演的练习,参与者扮演一个系统的对手,以确定其薄弱环节。GPT-4红队发现,如果不加检查,语言模型会做各种我们希望它不做的事情,比如雇用一个不知情的TaskRabbit来解决验证码。OpenAI随后能够在发布模型之前修复这个问题和其他问题。

不过,在《连线》杂志的一篇新文章中,Ovadya认为,仅有红色团队是不够的。他写道,仅仅知道模型吐出了什么材料是不够的。我们还需要知道该模型的发布可能对整个社会产生什么影响。它将如何影响学校,或新闻,或军事行动?Ovadya建议,在模型发布之前,应邀请这些领域的专家加入,以帮助建立公共产品和机构的复原力,并看看是否可以修改工具本身以防止滥用。

Ovadya称这个过程为 "紫罗兰团队":

    你可以把这看成是一种柔道。通用人工智能系统是一种正在向世界释放的巨大的新形式的力量,而这种力量可能会损害我们的公共产品。就像柔道重定向攻击者的力量以使其失效一样,紫罗兰团队旨在重定向人工智能系统释放的力量,以保护这些公共产品。

    在实践中,执行紫光团队可能涉及一种 "复原力孵化器":将机构和公共产品方面的基础专家与能够使用(预发布)AI模型快速开发新产品的人和组织配对,以帮助减轻这些风险。

如果被OpenAI和谷歌等公司采用,无论是自愿还是在新的联邦机构的坚持下,紫光团队可以让我们更好地准备好更强大的模型将如何影响我们周围的世界。

不过,充其量,紫罗兰团队将只是我们在这里需要的监管的一部分。我们有许多基本问题需要解决。像GPT-4这么大的模型是否应该被允许在笔记本电脑上运行?我们是否应该限制这些模型可以访问更广泛的互联网的程度,就像OpenAI的插件现在做的那样?目前的政府机构是否会监管这些技术,还是我们需要创建一个新的机构?如果是这样,我们能多快地做到这一点?

互联网的速度往往对我们不利

我认为,你不必为人工智能的炒作所迷惑,而相信我们将需要一个对这些问题的答案--如果不是现在,那就是很快。我们僵化的政府将需要时间来提出答案。如果技术的发展速度继续超过政府理解它的能力,我们很可能会后悔让它加速。

无论如何,接下来的几个月将让我们观察GPT-4及其竞争对手的现实世界的影响,并帮助我们了解我们应该如何以及在哪里采取行动。但我认为,在此期间不会有更大的模型发布的知识,会让那些相信人工智能可能像一些人认为的那样有害的人感到安慰。

如果说我从报道社交媒体的反击中得到了一个教训,那就是互联网的速度往往对我们不利。谎言的传播速度比任何人都要快;仇恨言论激发暴力的速度比平息脾气的速度要快。在社交媒体的帖子走红时对其进行制动,或用额外的上下文对其进行注释,使这些网络对那些会利用它们进行伤害的坏人更有弹性。

我不知道人工智能最终是否会像一些危言耸听者现在预测的那样造成破坏。但我相信,如果该行业继续全速前进,这些危害就更有可能发生。

放慢大型语言模型的发布速度并不是对未来问题的完全解答。但它可以给我们一个机会来开发一个。