
当今世界的人工智能“代理”可能会在现实中开展实际工作。这或许并非件好事——探讨可能接管你假期预定或账单支付的AI“代理”,这将成为人工智能下一个前沿领域。
产生文本需求的ChatGPT及其大型语言模型竞争对手非常酷。同属AI生成革命果实的,还包括艺术创作器、音乐生成器、以及更好的自动字幕和翻译工具。
它们能做很多事情(包括声称自己拥有意识——不过我们无需相信),但有一点很重要,那就是AI模型与人类的不同:它们仅在人类触发时执行,仅用来完成特定的结果。完成后就会停止。
现在想象一下,假如你拿到了其中的一个程序——比如一个非常优秀的聊天机器人,但它仍然只是一个聊天机器人——你赋予了它给自己做笔记、存储待办事项和其状态以及代理给其他副本或其他人的任务能力。并且,不再是仅在人类提示时运行,而是像真正的人类助手一样,持续地在这些任务上工作。
在这一点上,无需任何技术上的新飞跃——只需一些基本工具附加在标准语言模型上——你就有了所谓的“AI代理”,或者说一个以独立能力行事,追求自己目标的人工智能。
AI代理被誉为“人工智能的未来”,将“彻底改变我们的生活和工作方式”,是AI的“新边疆”。据报道,OpenAI正在开发这样的代理,许多资金雄厚的初创公司也一样在进行这样的工作。
它们听起来甚至比你已经听说过的关于AI的其他所有内容都更科幻,但AI代理并非无稽之谈,并且如果有效,可能会根本性地改变我们的工作方式。
话虽如此,它们目前的效率并不是很高,并且对AI安全提出了明显挑战。以下是关于我们可能走向何方的快速指南,以及为什么。
为什么你想要一个这样的代理?
现在的AI聊天机器人很有趣,也是很有用的助手——前提是你愿意忽略一系列的限制,包括制造虚假信息。这些模型已经在从艺术到音视频转录(在过去几年中静悄悄地发生了革命)到用类似Copilot这样的工具协助程序员等领域找到了相当大且重要的经济利基。但投入数千亿美元到AI领域的投资者们正寻求一些比这更具有变革性的东西。
许多在工作中使用AI的人告诉我,这就像拥有一个有些糊涂但非常快速的实习生。他们会做有用的工作,但你需要为他们定义每个问题并仔细检查他们的工作,这意味着你可能在监督中失去的东西,抵消了你可能获得的生产力。
对AI的经济案例而言,它可以做的不仅仅是这些。从事AI代理工作的人们希望他们的工具不仅仅能帮助软件开发人员,还能成为软件开发人员。在未来,你不仅仅是向AI咨询旅行规划的想法;相反,你只需简单地发信息告诉它“明年夏天帮我在巴黎安排一个旅行”,就像你对一个真正优秀的执行助理所做的那样。
现在的AI代理还没有实现那个梦想——至少现在还没有。问题是,你需要一个非常高的准确率来完成多步骤过程中的每一步,或者非常好的错误纠正能力,才能从一个需要采取许多步骤的代理那里得到有价值的东西。
但有充分的理由期待,未来一代AI代理能比现在做得更好。首先,代理建立在越来越强大的基础模型上,这些模型在广泛的任务中表现得更好,我们也可以期待它们会继续改进。其次,我们也在学习更多关于如何构建代理本身。
一年前,第一款公开可用的AI代理——比如基于ChatGPT的非常简单的代理AutoGPT——基本上是无用的。但就在几周前,初创公司Cognition Labs发布了Devin,一个可以建造并部署整个小型网络应用程序的AI软件工程师。
Devin是一个令人印象深刻的工程壮举,足以在Upwork上承接一些小项目并交付工作代码。它在一个衡量在软件开发人员平台GitHub上解决问题能力的基准测试中,有将近14%的成功率。
这是一次巨大的飞跃,而且肯定有一个经济利基——但最多也就是一个需要由更资深的软件工程师密切监督的非常初级的软件工程师。不过,就像大多数关于AI的事物一样,我们可以期待将来会有所改进。
我们应该制造数十亿的AI代理吗?
如果世界上每个人都拥有一个可以帮助你计划晚餐、订购杂货、为你妈妈买生日礼物、为孩子们安排去动物园的旅行,并在通知你任何意外账单的同时为你支付账单的AI个人助理,那会很酷,对吗?当然,毫无疑问。如果有AI软件工程师能完成人类软件工程师的工作,这会是经济价值极高的,对吗?当然,无庸置疑。
但是:创建可以独立推理和行动、独立赚钱、独立复制自己并在没有人类监督的情况下执行复杂任务的代理是否有潜在的担忧?当然。
首先,有责任方面的问题。让AI“诈骗者”花时间说服老年人把钱转给它们,就像制造有用的代理一样容易。如果那发生了,谁来负责?
其次,随着AI系统变得更加强大,它们提出的道德困境变得更加紧迫。如果Devin作为一个软件工程师赚了很多钱,Devin是否有权利拥有这些钱,而不是创造它的团队?如果Devin的继任者由数百份Devin副本组成的团队创造的呢?
对于那些担心如果我们在不考虑后果的情况下构建极其强大的AI系统,人类可能会失去对我们未来控制权的人来说,AI拥有代理行为的想法显然是令人紧张的。
从仅在用户咨询时才行动的系统过渡到在现实世界中出去完成复杂目标的系统,风险了顶尖AI科学家Yoshua Bengio所说的“流氓AI”:“一个可能以灾难性的有害方式行为的自主AI系统。”
想象这样一个情况:很难想象ChatGPT如何可能会杀死我们,或者怎样才能成为想要做到这一点的东西。很容易想象一个竞争激烈的AI执行助理/*子骗**打电话者/软件工程师如何可能做到。
因此,一些研究人员正在尝试开发不同语言模型构建的AI代理能力的良好测试,这样我们将在广泛发布它们之前提前知道,它们可以赚钱、制作自己的副本,并能够独立运行而不受监督的。
其他人在努力尝试提前制定良好的监管政策,包括可能会阻止释放一支超级有能力的诈骗者机器人军团的责任规则。
虽然我希望我们还有几年时间来解决这些技术和政治挑战,但我怀疑我们不会有永远的时间。制作代理AI的商业激励是压倒性的,并且它们确实可能极其有用。我们只需要在它们存在之前,而不是之后,解决它们的非凡问题。