在一场来自科技前沿的演讲中,OpenAI 联合创始人 Greg Brockman 探索了 ChatGPT 的基本设计原则,并展示了一些令人惊叹的未发布插件,这款聊天机器人在全球引起了巨大的轰动。演讲结束后,TED 负责人 Chris Anderson 和向 Brockman 深入挖掘了 ChatGPT 开发时间线,并了解 Brockman 对释放如此强大工具所带来风险(被科技行业和其他领域提出)的看法。
Greg Brockman:OpenAI联合创始人。AI pioneer Greg Brockman wants to ensure general-purpose artificial intelligence benefits everyone.
第一篇 演讲

七年前我们创办了 OpenAI,因为我们觉得人工智能领域正在发生一些非常有趣的事情,并希望帮助引导它朝着积极的方向发展。自那时以来,整个领域取得了难以置信的进展,真是令人惊叹。听到像 Raymond 这样使用我们正在构建的技术和其他技术来实现如此多美好事物的人们的反馈,的确让我们感到非常欣慰。有人感到兴奋,有人感到担忧,甚至有人两种情绪兼而有之。说实话,我们也有同样的感受。最重要的是,现在我们似乎正在进入一个历史性时期,在这个时期中全球将定义一项对于未来社会进步如此重要的技术。我相信,我们可以很好的管理它并将它造福于社会。
今天,我想向您展示该技术的最新进展以及我们所秉持的一些基本设计原则。
首先,我想展示,如何为人工智能构建一个工具,而不是为人类构建。我们有一个新的 DALL-E 模型,可以生成图像,并将其作为 ChatGPT 应用程序公开使用。您可以做一些事情,比如询问、推荐一顿美味的 TED 会后晚餐并用一张图画出来。
现在,您可以通过 ChatGPT 获得所有的构思和创意细节。这不仅仅是关于晚餐的想法,而是非常详细的展示。让我们看看我们将会得到什么。但是,在这种情况下, ChatGPT 不仅生成文本,还生成图像。这真正扩展了它代表您执行意图时所能做的事情的能力。我要指出的是,这都是实时演示。所有内容都由 AI 在我们说话时生成。所以我甚至不知道我们将会看到什么。这看起来很棒!

现在我们已经通过其他工具扩展了 ChatGPT 的能力,例如记忆。你可以说“把这个保存下来供后续使用”。有趣的是,这些工具非常易于检查。所以你会看到一个小弹窗,上面写着“使用 DALL-E 应用程序”。顺便说一下,所有 ChatGPT 用户都将在未来几个月内收到此功能。您可以查看底层代码,并了解它实际上是如何编写提示的,就像人类一样。因此,您有能力检查机器如何使用这些工具,并向它们提供反馈。


现在它已保存以供日后使用,让我向您展示如何使用这些信息并与其他应用程序集成。您可以说:“现在为我之前建议的美味食物制作购物清单。” 并且可以对 AI 进行一些小挑战。“然后将其发布到所有 TED 观众的推特上。
如果你真的做了这道美味的菜,我一定想尝尝它的味道。
但是你可以看到,ChatGPT 在我没有明确告诉它在哪些场景下使用什么工具的情况下选择了所有这些不同的工具。我认为,这展示了一种思考用户界面的全新方式。就像我们习惯于思考,嗯,我们有这些应用程序,我们在它们之间点击、复制/粘贴,在应用程序内通常是一个很好的体验,只要你知道菜单和所有选项。是的,请。有礼貌总是好的。
通过在工具之上使用这个统一的语言界面,人工智能可以从你身上取走所有那些细节。因此,你不必清楚的解释每一个小细节。

正如我所说的,这是一个实时演示,有时候我们会遇到意外情况。但让我们一起来看看 Instacart 购物清单。你可以看到我们向 Instacart 发送了一份食材清单。这里是你需要的所有东西。而且真正有趣的事情是传统用户界面仍然非常有价值,对吧?如果你看一下这个,你仍然可以通过它进行点击并修改实际数量。我认为这恰好表明了传统用户界面不会消失,只是我们有了一种新的增强方式来构建它们。现在我们已经草拟好了一条推文供审查,这也是非常重要的事情。我们可以点击“运行”,然后就完成了,在 AI 工作方面我们能够检查和更改它们(AI)。因此,在本次演讲之后,您将能够自己访问此内容。

我们回到幻灯片上。现在,关于我们如何构建这个系统的重要之处不仅在于构建这些工具,还在于教会人工智能如何使用它们。比如说,当我们提出这些高层次问题时,我们究竟希望它做什么?为了实现这一点,我们采用了一个古老的想法。如果回到艾伦·图灵 1950 年关于图灵测试的论文中,他说过:你永远无法通过编程来解决这个问题。相反地,你可以学习它。你可以像教育一个孩子一样制造一台机器,并通过反馈来进行教学。让一个人类老师作为试验者尝试并给予奖励和惩罚来指导其行动是否正确或错误。

这正是我们训练 ChatGPT 的方法。整个过程分为两步。首先,我们通过无监督学习过程生成了图灵所谓的“儿童机器”。我们只是向它展示整个世界、整个互联网,然后说,“用你以前从未见过的文本预测接下来会发生什么。”这个过程赋予了它各种奇妙的技能。例如,如果你看到一个数学问题,唯一完成该数学问题并说出上面那个绿色数字 9 的方法就是实际解决这道数学问题。
但我们实际上还需要进行第二步,那就是教会 AI 如何运用这些技能。为此,我们提供反馈。我们让 AI 尝试多种方法,给出多个建议,然后由人员对其进行评分,“这个比那个更好”。这不仅强化了 AI 所说的具体事情,而且非常重要的是加强了 AI 用于产生答案的整个过程。这使它可以推广应用,并在以前没有见过、没有得到反馈的场景中推断您的意图并应用它。
现在,有时我们需要教授 AI 的东西并不是你所期望的。例如,当我们第一次向可汗学院展示 GPT-4 时,他们说:“哇,这太棒了!我们将能够教授学生很多好东西。只有一个问题,它不能检查学生的数学。如果里面有错误的数学公式,它会愉快地假装 1 加 1 等于 3 并继续运行。”因此,我们必须收集一些反馈数据。Sal Khan 本人非常友善,并提供了 20 个小时的时间与我们团队一起为机器提供反馈意见。经过几个月的努力,我们成功地让 AI 明白,在特定情况下,“嘿,在这种情况下你真应该对人类进行反驳”。通过这种方式,我们实际上已经大大改进了模型。而当您在 ChatGPT 中点击“拇指向下”时,则相当于向我们发送信号以表明“这是一个弱点区域,请收集反馈意见”。因此,当您这样做时,这是我们真正倾听用户并确保我们正在构建对每个人更有用的东西的一种方式。

现在,提供高质量的反馈是一件困难的事情。如果你想让一个孩子打扫他们的房间,如果你所做的只是检查地板,你不知道你是否只是在教他们把所有的玩具塞进壁橱里。顺便说一句,这是一张漂亮的 DALL-E 生成的图像。同样的推理也适用于人工智能。当我们转向更困难的任务时,我们将不得不扩大我们提供高质量反馈的能力。但为此,人工智能本身很乐意提供帮助。它很乐意帮助我们提供更好的反馈,并随着时间的推移扩大我们监督机器的能力。让我来演示一下我所要表达的意思。

例如,您可以向 GPT-4 提出这样的问题,即在无监督学习和从人类反馈中学习这两篇基础博客之间经过了多长时间。模型说过去了两个月。但这是真的吗?就像这些模型并不是 100% 可靠一样,尽管每次我们提供一些反馈,它们都会变得更好。但我们实际上可以使用 AI 进行事实核查。而且它还可以检查自己的工作。您可以说:“为我核实这个事实。



现在,在这种情况下,我实际上给了 AI 一个新工具。这是一个浏览工具,模型可以在其中发出搜索查询并点击网页。它实际上在做的时候写下了它的整个思维链。它说,我要搜索这个,并进行搜索。然后找到发布日期和搜索结果。然后再发出另一个搜索查询,将要点击博客文章等等。所有这些你都可以做到,但这是一项非常繁琐的任务。人类真正想做的事情不是这样的任务。更有趣的是坐在驾驶座位上,在经理位置上掌控全局,如果需要可以三次检查工作成果,并得到引用文献以便轻松验证整个推理过程中任何部分内容是否正确无误。

我们将切换到另一方面。对我来说,整个过程最有趣的事情是它是人工智能和人类之间多步骤的合作。因为使用这种事实核查工具的人是为了为另一个人工智能生成更有用的数据而进行操作。我认为这真正展示了未来我们应该期望看到更加常见的形式,即我们精心设计人类和机器如何适应问题以及如何解决问题。我们确保人类提供管理、监督、反馈,而机器则以可检验和值得信赖的方式运行。通过共同努力,我们甚至可以创建出更加值得信赖的机器。如果我们正确地处理这个过程,随着时间推移,我们将能够解决不可能完成的任务。

为了让你明白我所说的有多么不可能,我认为我们将能够重新思考与计算机交互的几乎每个方面。例如,想想电子表格。自从 40 年前出现 VisiCalc 以来,它们已经以某种形式存在了很长时间。在那段时间里,我不认为它们真正发生了太大变化。这是一个关于过去 30 年 arXiv 上所有 AI 论文的具体电子表格,约有 167,000 篇文章。你可以在这里看到数据。不过,让我向您展示 ChatGPT 如何分析此类数据集。

所以我们可以给 ChatGPT 提供另一个工具,这是一个 Python 解释器,因此它能够运行代码,就像数据科学家一样。因此,您只需上传文件并询问有关该文件的问题即可。非常有帮助的是,它知道文件名,并且会解析 CSV(逗号分隔值)文件。这里唯一的信息是文件名、列名称和实际数据。从中它能够推断出这些列实际上意味着什么。例如语义信息不在其中。必须将其世界知识组合起来才能知道,“arXiv 是人们提交论文的网站”,因此这些内容都与论文相关,“这些都是整数值”,所以它们代表了论文作者数量等等所有那些需要人类完成的工作 AI 很乐意协助完成。

现在我甚至不知道想问什么。所以幸运的是,你可以问机器,“你能制作一些探索性图表吗?”再次强调,这是一个超高级别的指令,背后有很多意图。但我甚至不知道自己想要什么。AI 必须推断出我可能感兴趣的内容。因此它提出了一些好主意,我认为这些都非常有趣:每篇论文作者数量的直方图、每年论文数量的时间序列、论文标题词云等等。而且最棒的是,它确实可以做到这一点。我们来看一个漂亮的钟形曲线吧!你会发现 3 是最常见的数字。然后它将绘制每年论文数量的漂亮图表,在 2023 年似乎发生了疯狂的事情,看起来我们处于指数增长状态并突然下跌了下来。那里可能发生了什么?顺便说一句,所有这些都是 Python 代码,您可以检查它们,并且我们还将看到单词云展示所有这些精彩标题中出现过得单词和短语。


但我对这个 2023 年的事情感到非常不满。它让今年看起来很糟糕。当然,问题在于今年还没有结束。所以我要反击机器。“等一下,这不公平!!!2023 年还没结束呢。2022 年 4 月 13 日之前有多少论文被发表了?” 我想那是截止日期吧?你能用这个来做一个公正的预测吗?我们拭目以待,这是一种雄心勃勃的方式。

你知道,我感觉这个机器还可以做得更好。我真的希望它能注意到这件事情,也许期望它神奇地推断出我的意图有点过分了。但是我注入了我的意图,并提供了额外的指导。在 AI 内部,又开始编写代码,所以如果你想检查它正在做什么,那是完全可能的。现在,它进行了正确的投影。
如果你注意到了,它甚至更新了标题。我没有要求这样做,但它知道我的意思。


现在我们将再次回到幻灯片。这张幻灯片展示了一个寓言,关于我认为我们……关于我们未来可能如何使用这项技术的愿景。一个人带着他生病的狗去看兽医,而兽医却说:“让我们等一等再看看吧。”如果听从了他的建议,那么这只狗今天就不会活着了。于是他把血液检测和完整的医学记录提供给 GPT-4,并得到回复:“我不是兽医,你需要找专业人士咨询,以下是一些假设。” 他把这些信息带给第二个兽医,并用它挽救了狗的生命。现在,这些系统并不完美。你不能过分依赖它们。但我认为,这个故事表明,一个拥有医疗专业的人员和 ChatGPT 作为头脑风暴伙伴的人能够取得否则不会发生的结果。我认为这是我们所有人都应该反思的事情,在我们考虑如何将这些系统整合到我们的世界中时思考。
我深信一件事,那就是要让人工智能发挥作用需要每个人的参与。这包括决定我们希望它如何运作,制定规则以及确定AI将会做什么和不会做什么。如果从这次演讲中有一个要点,那就是这项技术看起来与任何人预期的都不同。因此,我们所有人都必须变得精通它。而这也正是我们发布ChatGPT的原因之一。
我相信,我们可以一起实现 OpenAI 的使命,确保人工通用智能造福于全人类。
第二篇 访谈

Chris Anderson:Greg。哇。我的意思是……我猜想在座的每个人都有一种晕眩的感觉。就像,我猜想很多人看到这个,你们会想,“天啊,我工作的方方面面几乎都需要重新考虑。” 就像那里只有新的可能性。我说得对吗?谁认为他们必须重新考虑我们做事情的方式?是啊,这太神奇了,但也真的很可怕。所以让我们谈谈吧,Greg。
我的意思是,我猜我的第一个问题实际上就是你到底是怎么做到的?
OpenAI 有几百名员工。谷歌有数千名从事人工智能的员工。为什么是你们开发出了这项震惊世界的技术?
Greg Brockman:我的意思是,事实上,我们都是站在巨人的肩膀上建立起来的,这点毫无疑问。如果你看一下算力、算法进展和数据的进展,所有这些进展都是整个行业范围内的。但我认为,在 OpenAI 内部,我们从早期开始就做出了很多经过深思熟虑的选择。第一个选择就是直面现实。我们非常努力地思考:要取得进步需要什么?我们尝试了很多行不通的方法,所以你只能看到那些成功的东西。我认为最重要的事情是让彼此截然不同的团队协调合作。
CA: 顺便问一下,我们能把水送到这里吗?我觉得我们会需要它,因为这是一个让人口干舌燥的话题。但你不认为,在这些语言模型中发现了某些东西意味着如果继续投资和发展它们,某个时候可能会出现什么新的东西吗?
GB:是的。我认为,老实说,这个故事相当具有说明性。我们一直知道高级别、深度学习是我们想要成为的东西,但如何做到呢?在早期阶段,我们尝试了很多方法。其中一个人正在训练模型以预测亚马逊评论中的下一个字符,并获得了结果——这是一个句法过程,你会期望模型能够预测逗号放在哪里、名词和动词在哪里等等。但他实际上从中获得了最先进的情感分析分类器。这个模型可以告诉你评论是积极还是消极的。现在我们只觉得,“嘿,任何人都可以做到。” 但那时候却是第一次看到这种语义从底层句法过程中出现的情况。于此同时,我们知道必须扩大规模并看看它将走向何方。
CA:我认为这有助于解释困扰着每个人的谜题,因为这些东西被描述为预测机器。然而,我们从中看到的感觉...它只是感觉不可能来自一个预测机器。就像你刚才展示给我们的那些东西一样。而“涌现”的关键思想是当你拥有更多某种事物时,会突然出现不同的事物。这种情况经常发生在蚂蚁群体、单个蚂蚁四处奔跑时,当你把足够数量的它们聚集在一起时,就会出现完全涌现、不同行为表现的蚂蚁群体;或者像城市里几栋房子聚集在一起时,只是简单地几栋房子罢了。但随着房屋数量增加,新事物便开始涌现——如郊区、文化中心和交通堵塞等等。给你一点时间,当你看到一些流行音乐让你大吃一惊,而你只是没有预见到它的到来。
GB: 好的,如果你在 ChatGPT 中添加 40 位数字,那么你可以尝试这个--
GB:40 位数字?
GB:40 位数字,模型可以做到这一点,这意味着它真正学会了如何执行内部电路。而真正有趣的事情实际上是,如果你让它加上一个 40 位数和一个 35 位数,它经常会出错。因此你可以看到它确实在学习过程中,但还没有完全泛化。就像你不能记住 40 位加法表一样,那比宇宙中的原子还多。所以它必须已经学会了某些通用的东西,但还没有完全地学会将其推广到任意长度的任意数量的数字相加。
CA: 所以发生的事情是,你让它扩大规模并查看了大量的文本。它正在学习一些你不知道它能够学到的东西。
GB:嗯,而且它也更加微妙。因此,我们开始真正擅长的一门科学是预测这些新兴能力中的一些。为了做到这一点,我认为在这个领域中非常被低估的一个事情就是工程质量。就像建造火箭一样,每个公差都必须非常小。机器学习也是如此。您必须正确地设计整个堆栈的每一个部分,然后才能开始进行这些预测。有所有这些令人难以置信平滑的缩放曲线可以告诉您关于智能方面深刻而基本的东西。如果您查看我们 GPT-4 博客文章中所有这些曲线,则可以看到所有这些曲线。现在我们开始能够进行预测了。例如,我们能够预测编码问题上的表现等等,并且基本上会查看某些模型大小减少 10,000 倍或 1,000 倍之类的内容来实现它们所需要达成目标,在尽管还处于早期阶段时仍具有平稳缩放特性。
CA: 所以这里有一个大的担忧,就是随着规模扩大,可能会出现一些你可以在某种程度上预测但仍然能够让你感到惊讶的事情。为什么没有巨大风险出现真正可怕的东西呢?
GB: 嗯,我认为所有这些都是关于程度、规模和时间的问题。而且我认为人们也经常忽略了与世界融合本身也是一件非常突发性和强大的事情。所以这就是我们认为逐步部署非常重要的原因之一。因此,如果你看看我的演讲内容,很多焦点都放在提供高质量反馈上面。今天我们做的任务可以进行检查对吧?很容易看到那个数学问题并说:“不不不机器啊,正确答案应该是 7。”但即使总结一本书也是一个难以监管的任务。你如何知道这个书摘要是否好?必须读整本书才行。没人愿意那样做。
(笑声)所以我认为重要的将会是我们逐步迈进,并且说:“好吧,在转向图书摘要时,我们必须妥善监管此任务。”我们必须建立这些机器的记录,以便它们能够真正执行我们的意图。我认为我们将不得不生产出更好、更有效、更可靠的方法来扩展规模,就像让机器与你保持一致一样。
CA:所以我们将在本次会议后听到,有批评者说,在系统内部没有真正的理解,它总是会——我们永远不知道它是否产生错误,是否具有常识等等。Greg,你认为这是真的吗?但随着规模的扩大和你谈到的人类反馈基本上将带领它走向实际达成像真相、智慧等高度自信的事物。你能确定吗?
GB:嗯,我认为 OpenAI 一直都是这样做的。简短回答就是,“是”,我相信我们正在朝着那个方向前进。而且我认为 OpenAI 一直采取了“让现实打在脸上”的方法。这个领域充满了失信之言和所有专家说X会发生、Y 如何运作之类的话语。人们已经说神经网络 70 年不能工作了,他们还没被证明正确过。也许需要 70 年加 1 天左右才行吧?但我认为我们一直采取的方法就是必须推动技术极限来看看它真正发挥作用时会怎么样,因为那告诉你接下来该怎么做以转入新范式,并且我们还没有耗尽果实。
CA:你们采取的立场相当有争议,即正确的做法是将其公之于众,然后利用所有这些反馈。而不仅仅是你们团队提供反馈,现在全世界都在提供反馈。但如果会出现坏事情,那就已经发生了。所以我听到 OpenAI 成立时最初的故事是作为非营利组织存在的,在大公司进行未知、可能恶意使用人工智能方面起到了很好的监督作用,并且你们将建立模型来对它们负责并有能力减缓领域进展速度(如需要)。或者至少这是我听到的内容。然而,可以说发生了相反的情况。尤其是 ChatGPT 发布后引起了技术界巨大震动,谷歌和 Meta 等公司都在竞相追赶。他们中一些人批评你强制我们把这个东西放出来却没有适当保障措施或者我们就会完蛋。那么你如何证明自己所做的是负责任而不鲁莽呢?
GB:是的,我们一直在思考这些问题。真的一直在思考。我认为我们不会总是做得对。但有一件事情我认为非常重要,从一开始就很重要,那就是当我们考虑如何构建人工通用智能,并使其惠及全人类时,你应该怎么做呢?默认计划是秘密建造一个超级强大的东西,然后再去解决它的安全性问题并推出“启动”按钮,希望你做得对。我不知道如何执行这个计划。也许别人知道怎么做。但对我来说,这总是令人恐惧的,并不合适。因此,在我的看法中,另外唯一可行的方法就是让现实打击你脸上了。而且我认为,在这些机器变得完美之前,在它们变得超级强大之前,你确实有能力观察它们运作,并给予意见和反馈时间 。正如我们从 GPT-3 中所看到的那样吗?我们真正担心 GPT-3 最主要被用于生成错误信息、试图操纵选举等方面;相反地, 它最主要被用于生成伟哥垃圾邮件。
CA: 所以,伟哥垃圾邮件很糟糕,但有些事情比它更糟。这里有一个思想实验给你。假设你坐在房间里,桌子上放着一个盒子。你相信那个盒子里面有一些东西,非常可能是一些绝对美好的礼物,可以送给你的家人和每个人。但实际上,在小字中还有 1% 的机会说:“潘多拉”。而且这样做可能会释放出无法想象的恶魔来侵袭世界。你会打开那个盒子吗?
GB:当然不会。我认为不能这么做。老实说,我告诉过你们一个之前从未讲过的故事,在我们创立 OpenAI 后不久,我记得我在波多黎各参加了一次 AI 大会。我坐在旅馆房间里看着美丽的水景和所有人玩得开心。如果您可以选择将 Pandora's box 推迟 5 年或 500 年左右呢?您选哪个?一方面您可能认为对于您个人而言,“五年后”更好;但如果它变成“ 500 年后”,并且人们获得更多时间来正确处理它,则应该怎么办?当时我真的感受到了这一点。我想,当然你要选择 500 年。我哥哥那时在*队军**里,他比我们任何一个人更真实地将自己的生命置于危险之中,并且开发此技术时没有任何人会打字。所以,是的,我确信您必须正确处理这个问题。但是我认为这并不完全符合事实。如果您看整个计算机历史,则我的意思是说,这是行业范围内甚至几乎像技术发展一样的变化。而且越来越多地不将存在的部分组合在一起——我们仍在制造更快速度的计算机、改进算法等所有这些事情都正在发生着。如果您不将它们放在一起,则会产生悬挂效应,这意味着如果有人或某个时刻成功连接电路,则突然出现了非常强大的东西,没有时间调整安全措施,并且谁知道可能会带来什么样子后果?因此,我认为可以得出一个结论:即使考虑其他技术(例如核*器武**)的发展方式也应该逐步进行,并找出如何管理每次增加。
CA:所以我的理解是......你希望我们拥有一个模型:我们已经孕育了这个非凡的孩子,它可能拥有超能力,可以将人类带到一个全新的境界。我们有责任为这个孩子提供防护栏,并共同教导它变得明智,不要毁掉我们所有人。基本上是这样吗?
GB:我认为是的。而且我认为也很重要说一下:这可能会发生变化。我们必须在遇到每一步时都采取行动。今天我认为非常重要的一点是,我们都应该熟悉此技术、找出如何提供反馈、决定我们想从中获得什么等等。我的希望是继续沿着最佳道路前进,因为如果没有它,我们就不会这样做。
CA: Greg Brockman,非常感谢您来到 TED 并让我们大开眼界。
From TED
本文由“探显家”编译,转载请注明出处
作者介绍:Frank,专业从事显示行业的产品和商务拓展,每日分享显示领域的相关知识和动向,同时也是“探显家”营销号主理人。探显家:带你探索显示之家,领略显示行业的奇妙世界!这里既有行业新闻的精选转载,也有原创的技术分享,同时还伴随一些个人感悟与大家分享,欢迎关注!