OpenAI CEO:神秘gpt2不是GPT-4.5,Agent未来是AI杀手级应用|钛媒体AGI

5月3日消息,OpenAI联合创始人兼首席执行官萨姆·奥尔特曼(Sam Altman)近期现身美国斯坦福大学、哈佛大学和麻省理工学院(MIT)三家美国顶级大学,做了多场对话内容。

今早哈佛大学演讲中,奥尔特曼承认,神秘gpt2-chatbot确实与OpenAI有关,但不是GPT-4.5。

他指出,OpenAI可以同时在所有模型的行为和功能上取得进展。

“我认为这是个奇迹。每个大学生都应该学会训练GPT-2……这并不是最重要的事情,但我打赌两年后这是每个哈佛新生都必须做的事情。”奥尔特曼称。

奥尔特曼在MIT演讲中表示,Agent(智能体/代理)将是AI的杀手级应用。“就像一个超级能干的同事,他了解我一生的一切,我的每封电子邮件,每一次对话。”

奥尔特曼认为,ChatGPT 有潜力以“指数方式提高生产力”,就像计算器使用户从手动执行计算中解放出来一样,他称该应用为“单词计算器”。

但他也警告称,“人们不要认为使用 ChatGPT就让人们为未来的世界做好准备。”他认为ChatGPT和其他AI Agents应用可以在各个领域发挥巨大潜力。

更早之前的斯坦福大学企业思想领袖讲坛ETL(Entrepreneurial Thought Leaders Lecture)的活动中,奥尔特曼表示,从现在的技术创新和功能迭代来看,人类远远没有达到 AI 的极限,如果只是聚焦现在的AI能力将会是徒劳的。

ChatGPT的下一步是什么?

一年前,OpenAI发布GPT-4模型时,全世界陷入疯狂,认为将彻底改变很多行业的工作模式。如今我们回头再看GPT-4,经常会讥讽地说,“它看起来好蠢啊,GPT-5到底何时发布?”

对此,奥尔特曼平静地说“是的”,面带微笑,没有再说别的了。

“GPT-4将是你们中任何人必须再次使用的最愚蠢的模型。我不在乎我们是否每年烧掉500亿美元,我们正在构建 AGI,这将是值得的。”奥尔特曼称。

奥尔特曼强调,在通往通用人工智能(AGI)的道路上,ChatGPT目前的表现仍不出彩,GPT-4将来或许会是你们中任何人都不得不再次使用的最愚蠢的模型。为解决这一问题,尽早和频繁地推出新模型非常重要,也就是迭代部署。

奥尔特曼指出 AI 发展的本质:“我们能够高度确定,GPT-5将会比GPT-4聪明得多,GPT-6将比GPT-5聪明得多,我们还没有接近这条曲线的顶端。一般来说新一代产品会更聪明,但我认为这句话的重要性仍然被低估了。”

而针对 AI 的发展重点,奥尔特曼表示,OpenAI的终极目标始终都没有变,就是实现——AGI。

“开源不是最佳途径”

奥尔特曼表示,开源意味着放弃对技术的专有控制。对于OpenAI来说,他们投入大量的人力和算力资源开发的产品,需要获得丰厚的商业回报。然后再用这些资金去创新、迭代发布更智能的产品。这一点,埃隆·马斯克(Elon Reeve Musk)还在OpenAI时便与奥尔特曼等创始人达成了共识,他们认为,每年不烧个几十亿美元就想搞AGI根本没戏。

而奥尔特曼在此次讨论中也表示,为了实现AGI,无论每年花费5亿、50亿还是500亿美元,只要能为全人类、AI领域做出一些贡献都不在乎。但这需要良性的资金来源,光靠别人捐献、融资是不行的。

这也是OpenAI从最初的开源策略,转换到闭源的根本原因之一。现在,很多组织、个人开发者都能轻松复现GPT-4的能力,甚至在个别单元测试中超过它。但OpenAI的核心能力是技术变革,是可以真正定义AI能力的下一个范式转变,就像苹果的iPhone对移动领域带来的颠覆性影响。

例如,今年2月15日,OpenAI发布了轰动全球的文生视频模型Sora,可能会重新定义影视、游戏开发、广告营销等行业,其影响力甚至比当年的ChatGPT来的更猛烈。

奥尔特曼表示,OpenAI不怕别人拷贝、复制他们的产品,因为,在生成式AI领域,OpenAI永远是行业的领路人之一,为无数的创业者、开发者点亮一盏指路明灯。

在谈论到创业的契机时,奥尔特曼指出,他认为自己是在过去几个世纪最幸运的时刻成年了。

“我清晰地了解世界将要改变的程度以及影响它的机会。创业,做 AI 研究,任何事情都是非常了不起的。我想这可能是创业的最佳时机。我想我会这么说,我认为这可能是互联网时代,或者是科技史上最佳的创业时机。我认为你可以用 AI 做比一年前更了不起的事情。最伟大的公司就是在这样的时刻诞生的。最具影响力的新产品就是在这样的时候诞生的。我会感到无比的幸运,我会决心充分利用它,我会明白自己想在哪里做贡献,并放手去做。”奥尔特曼称。

奥尔特曼还和大家分享,坚持自己的创业想法很重要。

他说:“我认为应当学会相信自己,提出自己的想法,做非共识的事情,就像我们创办OpenAI之初一样。OpenAI起初就是非共识的事情,但现在已经得到世人的认可。现在我只有显而易见的构想,因为我就像被困在一个框架中一样,但我相信你们在座的人会有其他不同的构想。”

前不久,OpenAI宣布无需注册就能免费使用ChatGPT,当时公司称,OpenAI在实现艰难的AGI的道路上的原动力——造福全人类。

对于实现这一目标的进度规划,奥尔特曼强调:“我已经放弃给出实现AGI的时间表,但我认为在接下来的许多年里,我们每年都会推出更强大的系统。”

关于人工智能硬件的未来

奥尔特曼于2005年从斯坦福大学退学,后因领导开发了ChatGPT和DALL-E背后 AI 研发团队OpenAI而闻名。成立于2015年的OpenAI最初是一家非营利性研究实验室,其使命是“确保AGI能造福全人类”。

如今有消息称,奥尔特曼将与苹果设计师打造未来的 AI 硬件设备。

对此,奥尔特曼在讨论中说,“我不认为它需要一个新的硬件,”并补充所设想的应用程序类型可能存在于云中。

奥尔特曼指出,AI硬件设备确实令人兴奋,但他自己可能不太适合接受这个挑战,“我对新技术的消费硬件非常感兴趣,但我是一个业余爱好者,这与我的专业知识相去甚远。”

针对于模型数据的版权话题,奥尔特曼乐观地认为,这个问题不会持续太长时间,尽管他没有详细说明。

“我相信,但我不确定我们是否会想出一个办法来解决这件事,你总是需要越来越多的训练数据。人类是存在的证据,证明有其他方法‘培养智力’。希望我们能找到它。”奥尔特曼表示。

如今的OpenAI已今非昔比,早从当年的默默无闻的小公司成为生成式AI的领导者。而英伟达借助ChatGPT这股东风,成为超2万亿美元的科技巨头。奥尔特曼期望二者之间的羁绊友谊可以继续长存下去。

在讨论到 AI 未来时,奥尔特曼强调:“我认为在未来的几十年里,韧性和适应性将比过去很长一段时间以来更重要。”

以下是双语字幕版完整视频以及部分内容整理:

主持人:如果用三个词形容你作为斯坦福本科生时的感受,你会用哪三个词?

奥尔特曼:兴奋、乐观、好奇。

主持人:形容现在,你会用哪三个词?

奥尔特曼:我猜是一样的。

主持人:这很棒。尽管过去19年世界发生了许多变化,但与未来19年即将发生的变化相比,这些变化可能显得微不足道。因此,我想请教你一个问题:如果你明天醒来,突然发现自己回到了19岁,并且拥有现在的所有知识,你会怎么做?会感到开心吗?

奥尔特曼:我会觉得自己正处在一个极具历史意义的时刻,世界正经历着巨变,同时,我也看到了参与其中并产生深远影响的机会,比如创业、从事AI研究等。

我认为现在是自互联网时代以来,甚至可能是技术史上,创立公司的最佳时机。随着AI的进步,每年都会产生更多的奇迹,伟大的公司正是在这样的时刻诞生,最具影响力的产品也是在此刻孕育。因此,我感到无比幸运,并决心充分利用这个机遇。我将明确自己的贡献方向,并付诸实践。

主持人:那你对自己将贡献的领域有偏好吗?你是否想继续保持学生的身份?如果是的话,你会主修什么专业?

奥尔特曼:我不会继续做学生,但只是因为我以前也没有这样做,而且我觉得可以合理地假设人们可能会再次做出他们曾经做过的决定。我认为做一名斯坦福的学生是一件很好的事情。只是,这可能不是我想要的。

主持人:你会怎么做?

奥尔特曼:我想我还是会选择我喜欢的方向,这并不奇怪,因为人们通常会按照自己的意愿行事。我想我会投身于人工智能研究。

主持人:你可能会在哪里做?学术界还是在私营企业?

奥尔特曼:我觉得,很明显我偏向于开放的应用程序,但我认为无论在哪里,只要能做有意义的AI研究,我都会感到非常兴奋。但我要悲伤的说,现实情况是,我会选择进入行业。我觉得确实需要在计算资源极其丰富的地方。

主持人:我们上周邀请了Qasar Younis,他极力主张不要成为创始人,而是加入一家现有的公司以学习相关技能。对于那些正在纠结是应该在19、20岁自己创业,还是加入其他创业公司的学生,你会给他们什么建议?

奥尔特曼:既然他给出了加入其他公司的理由,那我就讲另一个观点。我认为自己创办公司能学到很多东西。如果这是你想做的事,保罗·格雷厄姆有句话说得很好,我认为非常真实:创业不像医学那样有预科阶段,你只能通过实际经营创业公司来学会如何管理公司。如果你确信这就是你想做的事,那么你可能应该直接投入其中去做。

主持人:如果有人想要创办一家公司并从事AI领域,你认为当前AI领域最适合创业的短期挑战是什么?为了明确这一点,我指的是哪些问题是你认为需要优先解决但OpenAI在未来三年内无法解决的?

奥尔特曼:从某种意义上说,这个问题是非常合理的,但我不会直接回答它。因为我认为你永远不应该从任何人那里接受这种关于如何开始创业的建议。

当某个领域已经如此显而易见,以至于我或者其他人站在这里都可以指出它时,那它可能就不是一个好的创业方向了。我完全理解,我还记得我当初也会问别人,“我该创办什么样的公司?”。

但我认为拥有一份有影响力的职业最重要的原则之一是必须要走自己的路。如果你正在思考的事情是其他人也会去做的,或者是很多人都会去做的,那么你应该对其保持一点怀疑。

我认为我们需要培养的一个重要的能力是提出那些非显而易见的想法。我不知道现在最重要的想法是什么,但我确信这个房间里的某个人知道答案。我认为学会信任自己,提出自己的想法并勇敢去做那些不被广泛认同的事情非常重要。

比如我们刚开始创办OpenAI那会儿,这件事并没有得到很多人的认同,但现在它已经成为非常显而易见的事情了。现在我只是因为自己身处其中,才会对这个方向有比较明确的想法,但我相信你们会有其他的看法。

主持人:那么换个方式问,我不知道这样问是否公平。你正在思考但其他人并没有谈论的问题是什么呢?

奥尔特曼:如何建造真正大型的计算机。我想,其他人也在讨论这个问题,但我们可能从别人无法想象的角度来看待它。我们正在努力解决的问题不仅是开发小学或中学水平的智能,还包括博士水平及更高层次的智能,并将其以最佳方式应用于产品,最大限度地对社会和人们的生活产生积极影响。我们目前还不知道答案,但我认为这是一个需要弄清楚的重要问题。

主持人:如果我们继续探讨如何建造大型计算机的问题,你能分享一下你的愿景吗?我知道有很多猜测和传闻,关于你正在开展的半导体代工厂项目。这个愿景与目前的做法有什么不同?

奥尔特曼:代工厂只是其中的一部分。我们越来越相信人工智能基础设施将成为未来最重要的投入之一,是每个人都会需要的资源,其中包括能源、数据中心、芯片、芯片设计和新型网络。我们需要从整体上看待整个生态系统,并设法在这些方面做得更多。仅关注某个部分是行不通的,我们必须全面考虑。

我认为这就是人类科技发展史的轨迹:不断构建更大、更复杂的系统。

主持人:至于计算成本方面,我听说训练ChatGPT模型花费了1亿美元,其参数量为1750亿。GPT-4的成本是4亿美元,参数量是前者的10倍。成本几乎增加了4倍,但参数量却增加了10倍。请纠正我,如果我有误的话。

奥尔特曼:我知道,但我想……

主持人:好的。即使你不想纠正实际数字,但如果方向上是对的,你认为每次更新的成本是否会继续增长?

奥尔特曼:是的。

主持人:这种增长会呈倍数增加吗?

奥尔特曼:大概吧.

主持人:那么问题就变成了,我们该如何为此筹集资金?

奥尔特曼:我认为给人们提供真正强大的工具,让他们自己去探索如何用这些工具来构建未来,是非常有价值的。我非常愿意相信你们和世界上其他人的创造力,可以找到应对这一问题的方法。所以,OpenAI中可能有比我更具商业头脑的人担心我们花了多少,但我并不在意。

主持人:OpenAI、ChatGPT以及其他所有模型都非常出色,去年烧掉了5.2亿美元,这不会让你担心它的商业模式吗?盈利来源在哪里?

奥尔特曼:首先,谢谢你这么说,但ChatGPT还远称不上出色,顶多算是勉强合格。GPT-4是大家未来可能用到的最笨的模型了。但是,重要的是早早开始并不断发布,我们相信迭代式发布。

如果我们在地下室开发通用人工智能,然后世界浑然不觉地盲目前行,我不认为这会让我们成为好的邻居。因此,考虑到我们对未来的看法,我觉得重要的是表达我们的观点。

不过,更重要的是,将产品交到用户手中,让社会与技术共同进化。让社会告诉我们,集体和个人从技术中想要什么,如何将其产品化以便于使用。这个模型在哪些方面效果好,哪些方面效果差,让我们的领导者和机构有时间做出反应。给人们时间将其融入生活,学会使用这项工具。

一些人可能会用它作弊,但有一些人也可能会用它做非常了不起的事。每一代人的发展都会有所扩展,这意味着我们发布了不完美的产品,但有一个非常紧密的反馈循环,我们可以学习并变得更好。

发布让你感到尴尬的产品的确有点糟糕,但比起其他选择,这是更好的方式。在这个特别的情况下,我们真的应该向社会迭代发布。

我们了解到AI和惊喜不相容。人们不想受到惊吓,他们想要逐步推进并有能力影响这些系统。这就是我们的做法。

将来或许会有一些情况让我们认为迭代发布不是一个好的策略,但这似乎是目前最好的方法。我认为通过这样做,我们已经学到了很多东西。希望更广泛的世界也从中受益。

不论我们每年花费5亿美元、50亿美元还是500亿美元,我都不在乎。只要我们能够持续创造比这更多的社会价值,并能够找到支付账单的方式。我们正在开发AGI,这会很昂贵,但绝对值得。

主持人:那么,你有一个2030年的愿景吗?如果现在是2030年,你做到了。在你眼中,世界会是什么样子?

奥尔特曼:在某些非常重要的方面,或许并没有太大区别。

我们还会回到这里,会有新的一批学生。我们会谈论初创公司是多么重要,科技是多么酷。我们会拥有这个世界上新的伟大工具。

如果我们今天能够传送到六年前,并拥有这个在许多学科上比人类更聪明的东西,能够为我们完成这些复杂的任务,那将感觉非常棒。你知道,我们可以编写复杂的程序,完成这项研究或开始这项业务。

然而,太阳仍然东升西落,人们继续上演他们的人类戏剧,生活继续。所以,从某种意义上来说非常不同,因为我们现在有丰富的智能,但从另一个意义上来说,又没什么不同。

主持人:你提到了通用人工智能。在之前的对话中,你将其定义为能够模拟一个普通人类在各种任务中表现的软件。你觉得什么时候会实现这个目标?你能给出一个大致的时间或范围吗?

奥尔特曼:我认为我们需要对AGI有一个更精确的定义,以解决时间的问题。因为在这一点上,即使是你刚刚给出的定义,也是合理的,这就是你的定义。

主持人:我是在重复你之前在对话中说过的话。

奥尔特曼:我要批评我自己。这个定义太过宽泛,容易被误解。

所以我认为真正有用或能让人们满意的标准是:当人们问“AGI的时间表是什么”时,他们其实想知道的是世界什么时候会发生巨大变化,变化的速度什么时候会大幅加快,经济运作的方式什么时候会发生巨大变化,我的生活什么时候会改变。由于很多原因,这个时间点可能与我们想象的很不一样。

我完全可以想象这样的世界:我们在任何领域都能开发出具备博士水平的智能,可以大幅提升研究人员的生产力,甚至可以实现一些自主研究。从某种意义上说,这听起来似乎会对世界产生很大的影响,但也可能我们已经做到了这些后,却发现全球GDP增长在随后的几年里并没有发生变化。想想这种情况还是很奇怪的。这最初并不是我对整个过程的直觉。

所以,我无法给出一个具体的时间来说明我们何时能达到人们所关心的里程碑,但是在未来的一年以及之后的每一年,我们都会拥有比现在强大得多的系统,我认为这是关键。所以,我已经放弃了预测AGI的时间表。

主持人:你能否谈谈你对AGI危险性的看法?具体来说,你认为AGI最大的危险会是来自一场轰动各大媒体的灾难性事件,还是更为隐蔽和有害的东西,就像现在大家因为使用TikTok而注意力严重分散一样。或者两者都不是?

奥尔特曼:我更担心隐蔽的危险,因为我们更容易忽视它们。

很多人都在谈论灾难性的危险,并对此保持警惕。我不想轻视这些危险,我认为它们的确很严重且真实存在。但至少我们知道要关注这一点,并会花费大量精力。就像你提到的大家因为使用TikTok而注意力严重分散的例子,我们不需要去关注最终结果。这是一个真正棘手的问题,那些未知的东西真的很难预测,因此我更担心这些,尽管两者我都担心。

主持人:会是未知因素吗?你能说出你特别担心的因素吗?

奥尔特曼:嗯,那它们就会被归为未知因素。

尽管我认为短期内的变化会比我们想象的要少,就像其他重大技术一样。但从长远来看,我认为变化会超出我们的预期。我担心社会适应这种全新事物的速度,以及我们花多长时间去找到新的社会契约与我们能够用多长时间做到这一点,我对此感到担忧。

主持人:随着事物的快速变化,我们正尝试将恢复力(resilience)作为课程的核心内容之一,而恢复力的基石是自我意识。所以,我想知道你在踏上这段旅程时,是否清楚自己的驱动力

奥尔特曼:首先,我相信恢复力是可以被教的,恢复力一直是最重要的生活技能之一。在未来的几十年里,恢复力和适应能力会变得更重要,所以我觉得这个观点很好。至于自我意识的问题,我觉得自己是有自我意识的,但就像每个人都认为自己有自我意识一样,我是否真的有,很难从自身角度来评判。

主持人:我能问你我们在自我意识入门课程中经常问的问题吗?

奥尔特曼:当然。

主持人:这就像彼得·德鲁克的框架,Sam,你认为自己最大的优点是什么?

奥尔特曼:我认为我在许多事情上都不是特别出色,但也在很多方面都还不错。而且我认为在这个世界,广泛的技能被低估了。每个人都在过度专精,所以如果你擅长很多事情,就可以在其中找到联系。我认为这样你就能提出不同于其他人的想法,而不是仅仅成为某个领域的专家。

主持人:你最危险的弱点是什么?

奥尔特曼:最危险的弱点,这是个有趣的思考。我倾向于偏向支持技术,可能因为我很好奇,想看看技术的发展方向,而且我相信总体而言,技术是件好事。

我认为这种世界观总体上对我和其他人都很有利,因此得到了很多积极的反馈。然而,这并不总是对的,而且当它不对时,对许多人来说会产生非常不好的影响。

主持人:哈佛大学心理学家戴维·麦克利兰提出了一个框架,即所有领导者都被三种原始需求之一驱动:归属需求,即被喜欢的需求;成就需求;以及权力需求。如果必须对它们进行排序,你会怎么排?

奥尔特曼:在我的职业生涯中,不同时期都有这些需求。我认为人们会经历不同的阶段。而目前,我觉得驱使我前行的是想做一些有意义和有趣的事情。我之前肯定也经历过追求金钱、权力和地位的阶段。

主持人:你对即将推出的ChatGPT-5最感到兴奋的是什么?

我还不知道,这个答案听起来有点敷衍。但我认为关于GPT-5或任何我们将其命名的版本,最重要的是它将会更聪明。

听起来像在逃避,但我觉得这是人类历史上最显著的事实之一:我们能做点什么,并且现在可以以高度科学的确定性说,GPT-5会比GPT-4更聪明得多,GPT-6会比GPT-5更聪明得多。我们还没有到达这个曲线的顶端,我们大致知道该怎么做。它不会只在某一个领域变得更好,也不是总会在这次评估、这个学科或这种模式上表现更好,而是整体上会变得更聪明。我认为这一事实的重大意义仍被低估了。

观众提问环节

最后,我们也摘录了一些观众提问环节的精彩内容。

提问1:随着你们越来越接近AGI,你们打算如何负责任地部署它,以防止抑制人类创新并继续推动创新?

奥尔特曼:我并不担心AGI会抑制人类创新。我真的深信人们会用更好的工具做出更棒的成就。历史都显示,如果给人们更多的杠杆,他们就能做出更神奇的事情。这对我们所有人来说都是一件好事。

但我确实越来越担心如何负责任地做这一切。随着模型变得更加强大,我们面临的标准也会越来越高。我们已经做了很多事情,比如红队测试和外部审计。这些都很好。但我认为随着模型变得更强大,我们需要更加渐进地部署,并保持更紧密的反馈循环,关注它们的使用情况和发挥效果的领域。

我们过去可以每隔几年就发布一次大的模型更新,但现在我们可能需要找到方法来增加部署的颗粒度,比较更频繁地进行迭代部署。具体该如何做还不太清楚,但这将是负责任部署的关键。

此外,我们让所有利益相关者协商人工智能规则的方式,随着时间的推移,这也会变得越来越复杂。

提问2:你之前提到,每年我们都会有更强大的AI系统。世界上许多地方都不具备建设这些数据中心或大型计算机的基础设施,全球创新会受到怎样的影响?

奥尔特曼:关于这个问题,我想分为两部分来谈。

首先,无论计算机在哪里建造,我认为全球公平地使用计算机进行训练和推理的访问权极为重要。我们使命的核心之一是让尽可能多想要使用ChatGPT的人能够使用它,我们可能无法或出于良好原因不想在那里运营。我们如何考虑使训练计算对世界更加可用,将变得越来越重要。我确实认为我们将进入一个世界,在这个世界里,我们认为获取一定量的计算能力是一种人权。我们得想办法如何将这种能力分配给世界各地的人们。

然而,还有第二点,那就是我认为各国将越来越意识到拥有自己的AI基础设施的重要性。我们想要找到一种方法,我们现在正花费大量时间周游世界,帮助许多想要建立这些设施的国家。我希望我们能在其中发挥一些微小的作用。

提问3:您认为人工智能在未来的太空探索或殖民中将扮演什么角色?

奥尔特曼:我认为太空显然对生物生活并不友好。因此,如果我们能发送机器人,那看起来更容易。

提问4:你如何知道一个观点是非共识的?如何验证你的想法有没有得到科技界的共识?

奥尔特曼:首先,你真正想要的是正确。持有相反观点但错误仍然是错误的。

如果你预测了过去两次衰退中的17次,你可能只是在你正确的那两次上持有相反观点。可能并非必然如此。但你其他15次都错了。所以我认为,成为相反意见者过于兴奋是很容易的。再次强调,最重要的是要正确。群体通常是正确的。但当你持有相反观点同时又正确时,价值最大,而这并不总是以非此即彼的方式发生。就像在场的每个人都可能同意AI是创业的正确领域。如果房间里的一个人找出了正确的公司来创立,然后成功地执行了它,而其他人都认为那不是你能做的最好的事情,那才是最重要的。

至于如何做到这一点,我认为围绕自己建立正确的同行群体非常重要,找到原创思考者也很重要。但你在某种程度上必须独自做这件事,或者至少是独自做一部分,或者与将成为你的联合创始人或其他人的几个人一起做。

我认为,一旦你在如何找到正确的同行群体这个问题上陷得太深,你已经处于错误的框架中了。学会信任自己和自己的直觉以及自己的思考过程,这随着时间的推移会变得容易得多。无论他们说什么,我认为没有人在刚开始时就真的非常擅长这一点。因为你还没有建立起肌肉,所承受的社会压力和进化压力都与此背道而驰。因此,随着时间的推移,你会越来越好,不要过早地对自己要求太高。

提问5:我很想知道你对未来几十年能源需求的变化,以及我们如何实现可再生能源每千瓦时1美分的未来。

奥尔特曼:这一天也许会到来,但我不确定……我猜测最终核聚变将主导地球上的电力生产。我认为它将成为最便宜、最丰富、最可靠、能量密度最高的能源。我可能在这方面是错误的,也有可能是太阳能加上储能。你知道,我最大的猜测是,最终可能是这两种方式中的某一种,并且会有某些情况下其中一种比另一种更好,但这些看起来像是真正全球规模、每千瓦时一美分能源成本的两种主要选择。

提问6:从OpenAI去年的发生的事中学到了什么,是什么让你能回来?

奥尔特曼:我学到的最好的一课是,我们拥有一个非常出色的团队,这个团队完全有能力在没有我的情况下运营公司,并且他们真的在没有我的情况下运营了几天。随着我们向人工通用智能(AGI)的进展,一些疯狂的事情可能会发生,甚至可能会有更多的疯狂事情在我们之间发生。因为世界的不同地区对我们的情感反应越来越强烈,风险也在不断增加。我曾经认为,在很大的压力下,团队会做得很好,但你永远不会真正知道,直到你有机会进行实验。我们有机会进行了这个实验,我了解到团队非常具有韧性,并且准备好了在某种程度上运营公司。

至于为什么我回来了,你知道,最初当董事会在第二天早上打电话给我,问我是否考虑回来时,我回答说不,我很生气。然后,我思考了这个问题,我意识到我有多么热爱OpenAI,我有多么热爱这些人,我们建立的文化,以及我们的使命。我有点想要和大家一起完成这一切。

提问7:能谈谈OpenAI这种俄罗斯套娃的结构吗?

奥尔特曼:这种结构是逐渐形成的,如果我们可以重新来过,这不会是我会选择的方案。但在我们开始的时候,并没有想到会有一个产品。我们只是打算成为一个人工智能研究实验室。我们甚至都不清楚,我们对语言模型、API或ChatGPT没有任何概念。

所以,如果你要创办一家公司,你必须有一些理论,认为你总有一天会销售一个产品,而我们当时并没有这样想。我们没有意识到我们会需要这么多钱用于计算,我们也没有意识到我们会拥有这样一个不错的业务。OpenAI创办之初只是打算推进人工智能研究。

提问8:制造出比人类更聪明的东西是否会让你感到恐惧?

奥尔特曼:当然让我感到恐惧。人类随着时间的推移变得越来越聪明、越来越有能力。你比你的祖父母能做的事要多,不是因为个人吃得更好或得到更多的医疗保健,而是社会的基础设施进步,如互联网、iPhone,让大量知识触手可及。

社会就是一个AGI系统,并不是某个人的大脑所能左右的,是所有人一砖一瓦搭建起来,为后来者创造更高的成就,你的孩子将拥有你没有的工具。

这总是有点吓人。但我认为,好的方面要比坏的方面多得多。未来的人们将能够使用这些新工具解决更多的问题,

(本文首发于钛媒体App,作者|林志佳,编辑|胡润峰)

发布于:北京市
声明:该文观点仅代表作者本人,搜狐号系信息发布平台,搜狐仅提供信息存储空间服务。
意见反馈 合作

Copyright © 2023 Sohu All Rights Reserved

搜狐公司 版权所有