公众号
关注微信公众号
移动端
创头条企服版APP

Exa CEO 神贴全文:今年 AI 将替换所有计算机工作,软件工程师黄金年代

5014
2025-01-06 20:27 抢发第一评

“AGI它真的发生了!”

“接下来的几年将会非常疯狂,这将是历史性的,甚至是星际级的事件!”

“700天后,数学家失业!”

以上的惊人预测出自Exa CEO威廉布里克的推文。

前段时间,这家由他与华人天才极客Jeff Wang在哈佛创立的AI搜索引擎公司Exa,刚刚拿下了英伟达领投的1700万美元A轮融资

硅谷AI新贵中,这对创始人组合格外引人注目。

年仅27岁的CEO布里克提出了“史上最慢搜索引擎”的大胆理念,“宁愿花上几分钟返回精确结果,也不要毫秒级的肤浅匹配”

36岁的Jeff Wang则将向量数据库技术推向了极限,让 AI 真正读懂互联网内容。

但比起搜索技术本身,更令业界震惊的是布里克对 AI 未来的预测:

“前端工程师职位将在 3 年内消失。”

“2025 年底 AI 将能自动处理任何计算机工作。”

“我给数学家们的时间是 700 天,这就是人类作为宇宙已知领域中数学王者的剩余时间。”

下面是布里克于《AI前夜的思考》全文:

AGI 前夕的思考

本周我和几个朋友谈论了 o3。他们的反应基本都是“天啊,这真的发生了吗?”

是的,这确实发生了。接下来的几年将会非常疯狂。这是历史性的事件,甚至是银河系的事件。

可笑的是,对于正在发生的事情,并没有深入的讨论。人工智能实验室无法谈论它。新闻几乎不涉及它。政府不了解它。

事实上,我们通过社交媒体 meme 应用的新闻推送来讨论人类的未来,这听起来像是一部荒诞的情景喜剧,但我们确实就在这里。

以下是我对正在发生的事情的一些想法--我对 X 想法深渊的贡献。

请注意,这些想法都是不成熟的、有趣的推测。我没有足够的时间去思考/研究所有这些想法,而且很多想法都是错的。但我确实希望这些想法能引起那些试图理解正在发生的事情的人的兴趣。

那就让我们开始吧。

------------------------------------------------------

- o3 不应该令人震惊。OpenAI 2 个月前向我们展示了测试时间缩放图,计算机的历史告诉我们,无论趋势线多么难以置信,我们都要相信它。真正令人震惊的是,它只用了 2 个月就发生了。这就是我们从大学级人工智能发展到博士级人工智能的速度。对于人类来说,变化是令人兴奋的,但快速变化令人震惊。

- 接下来会发生什么很明显。o3 类模型非常擅长优化任何可以定义奖励函数的东西。数学和编码很容易设计奖励函数。小说写作更难。所以这意味着在短期内(1 年),我们将得到尖刺模型。它们将在数学、编码和一般推理方面达到 AGI 级别,但写的是普通小说。虽然更好的推理会让模型在各方面感觉更聪明,但它们仍然会以它们没有在 RL 中遇到的愚蠢方式失败-- ,即不在它们的训练数据中。长期来看(1-3年,我们将继续添加新的领域来为它们进行 RL(情感数据、感官数据等),直到盲点被修补,然后这些模型对于任何不是 Gary Marcus 的人来说显然都是 AGI。

- 代理确实会在 2025 年出现。类似 o3 的模型不可能不能浏览浏览器/应用程序并采取行动。这些东西很容易设计奖励模型。这也是一个巨大的市场--自动化计算机工作--因此对于需要证明其巨额支出合理性的实验室来说,这是巨大的激励。我猜到 2025 年 12 月,您将能够告诉您的计算机执行任何涉及浏览网页/应用程序和移动数据的工作流程。

- 在所有知识分子中,最“老练”的一定是数学家。数学家在符号空间中工作。他们的工作与物理世界几乎没有联系,因此不会受到物理世界的阻碍。法学硕士是符号空间之王。数学其实并不难,只是灵长类动物不擅长数学。正则表达式也是一样。

一个大问题是制作研究级合成数据有多难。我猜没那么难。博士级数学和研究员级数学在我们看来在质量上有所不同,但对人工智能来说可能看起来是一样的,只是需要更多几个 RL 量级。我给数学家 700 天的时间。(这听起来很疯狂,但 o6 不打败数学家听起来同样疯狂,所以我对这个预测的把握超过 50/50,就像这篇文章中的所有其他预测一样)。也就是说,再过 700 天,人类就不再是已知宇宙中数学领域的佼佼者了。

- 那我们软件工程师呢?短期内,这将是天堂。每个 SWE 都晋升为技术主管,干得漂亮。对于那些完全采用 LLM 的人来说,到 2025 年底,编码将更像是安排一堆小任务,由小代理去执行。任何具有非常明确规范的 PR 都应该可以通过 o4 系统完成,并且错误率足够小,可以接受。这里的一个问题可能是上下文窗口太小,无法包含代码库,但像 Sam 这样的领导者很清楚这一点。

AI 会很快取代所有软件工程师吗?不会。软件工程不仅仅是根据超清晰的提示制作 PR。与数学家不同,软件工程师不断与物理世界(即其他人类)互动。工程师必须与客户合作以了解他们的需求,并与队友合作以了解他们的需求。当工程师设计架构或编写代码时,他们会在大量组织背景下进行。o4 无法做到这一点。但 o4 将帮助拥有背景的工程师以 10 倍的速度前进。

如果软件工程师的速度快 10 倍,那么我们可能需要的软件工程师数量可能就更少了?好吧,如果你以一家特定的公司为例,那么他们可能需要更少的软件工程师,因为他们可以用更精简的团队实现相同的产出。然而,全世界对软件工程师的需求可能会增加,因为全世界肯定可以使用 10 倍以上的优质软件。所以我认为我们将看到精简公司应用程序的黄金时代。为每个人和企业提供个性化的微应用。

- 从长远来看(>2 年被认为是长期的,哈哈),软件工程将完全不同,很难说会如何。当 o6 系统存在并完全集成到我们的应用程序中时,怎么可能不不同呢?像前端工程师这样的角色可能在 3 年后就不存在了。这很奇怪吗?其实并不奇怪-- 30 年前也不存在前端工程师的角色。

我们应该退一步思考,认识到软件每一代都会发生翻天覆地的变化。软件一直并将永远致力于将需求转化为纯逻辑。这种转换过程的抽象层次已经从二进制上升到 Python。现在的不同之处在于它正在上升到英语。

转向英语让非技术人员也能接触编程。但最好的构建者始终是那些能够在抽象层次上不断提升和降低的人。

简而言之,bc 软件工程实际上就是通过代码来理解和修复组织的需求,软件工程完全自动化的那一天就是所有组织完全自动化的那一天。

- 我们讨论了一些知识型员工,那么体力型员工呢?人工智能也正在向你走来,但是速度会慢一些,因为它必须处理重力和摩擦力。但是 O 类模型对机器人的帮助不大,因为一个需要一个小时的模型对工厂流水线上的机器人没有帮助。基础模型变得更聪明确实有帮助,O 类模型将有助于训练它们,但我认为这并不能解决机器人进步的最大瓶颈。我猜最大的瓶颈是硬件改进和感知+行动的快速/可靠的模型。这两者都需要更长的时间来改进(即几年)。只有当机器人开始制造机器人并且人工智能开始进行人工智能研究时,机器人技术才会疯狂地快速进步。这可能来自 O 类模型,但我认为那还需要几年的时间。

- 我一直在以年为单位讨论,但也许我们真的应该以计算为单位讨论。时间决定人类的产出,但计算决定人工智能的产出,而人工智能的产出将越来越成为研究机构中最重要的部分。这就是为什么人们竞相建造超级集群的原因-- Meta 的 2GW 集群、Xai 的额外 100k H100 等。

所有实验室都将迅速效仿 OpenAI 的测试时间计算模型,有些实验室可以通过增加计算量来弥补算法较差的缺点。它们将像 GPT-4 一样奋起直追。要制作这些模型,需要结合常识和每个实验室的秘诀。目前尚不清楚 OpenAI 在 O 类模型方面有多少秘诀,但它们的改进速度表明这是一种算法上的进步(更容易复制),而不是某种独特的数据组合(更难复制)。

在测试时计算时代,我不清楚拥有更多计算还是更好的模型更重要。一方面,您可以通过投入更多测试时计算来弥补较差的模型。另一方面,稍微好一点的模型可能会节省大量计算。

如果 Xai 赶上 OpenAI,那将会很有趣,因为他们在启动大规模集群方面更胜一筹。

无论如何,不会有持续超过一年的模范护城河,因为实验室像交换棒球卡一样交换研究人员,也许更重要的是,实验室之间的研究人员会互相聚会和睡觉。另外,我认为研究人员过于理想化,如果事情失控,他们不会不分享信息。

我们这里的情况有点疯狂。人工智能竞赛就像核竞赛,但美国人和苏联人在周末在洛斯阿拉莫斯聚会,并在推特上互相挑衅,“打赌你不会在 2025 年拥有最大的核弹哈哈哈:)"

在政府介入和/或发生一些真正糟糕的事情之前,人工智能竞赛将继续充满嬉皮和趣味。

- o 类模型通过一些有趣的方式改变了计算规模的动态。

O 级模型激励大规模建设,因为它们的计算能力每增加一个数量级,收益就会明显增加。计算提供商不可能要求更好的扩展定律。我猜 Sam 想要一个价值数万亿美元的计算集群时看到的就是这个定律。

这对 Nvidia 来说可能并不好。o 类模型使推理比训练更重要。我认为超级优化的推理芯片比训练芯片更容易构建,因此 Nvidia 在这方面没有那么大的护城河。

非常具有推测性:如果 o 类模型解锁来自全世界的聚合计算来训练最佳模型会怎么样?就像如果我们将我们的 MacBook Pro 整合到一个推理千兆集群中,开源会击败闭源,那会有多酷。

- 除了计算之外,现在混合中的另一个新指数是代码本身。如果一个实验室拥有对最智能模型的唯一/特权访问权,因此他们的软件工程师的生产力比其他实验室高出 2 倍,那么他们就会更快地接近下一次生产力翻倍。除非代码速度达到最大值,并且要运行一长串实验,否则实验室再次受到计算的瓶颈。(我不知道,动态很难。看看实验室如何模拟他们应该在计算和人力上花费多少,那将非常酷。)

- 尽管所有这些计算扩展和知识工作自动化听起来很疯狂,但只有当科学家开始感受到 AGI 时,它才开始变得真正疯狂。我想到的是你们物理学家、化学家、生物学家。

一切与理论有关的东西都会从它的名字开始。理论物理学是第一。如果数学真的解决了(即使这样写也听起来很荒谬,但这并不意味着不可能),那么理论物理学也不会落后太多。它也存在于法学硕士将成为超人的象征领域。

当我们拥有一百万个冯·诺依曼人工智能在路易斯安那州的田野上日夜工作时(Meta 即将建成的数据中心),会发生什么?它们能多快阅读过去一个世纪以来成千上万人撰写的每一篇物理论文,并立即给出更正确的标记?

显然,这是故事中难以预测的部分。理论物理、化学、生物学--如果这些对于接受过 RL 训练的 LLM 来说只是个笑话怎么办?目前我们有什么合理的论据可以证明它不是笑话?是的,我们还没有看到这些模型的真正创新,但它们大多处于高中/大学水平,而这些年龄段的人不会发明新的物理学。我们现在处于博士水平,所以我们可能会开始看到一些创造性。

- 一旦人工智能开始大量推出新的科学理论,其发展的瓶颈将是物理世界中的测试和实验。瓶颈在于劳动力和材料。到那时,如果没有能够制造更多机器人的机器人,那将是令人惊讶的。因此,劳动力问题得到了解决。然后材料可以由机器人开采。这里的时间表会很慢,因为建造/运输实物需要很长时间,但这是几年而不是几十年。

- 我上面所说的一切都假设人工智能+机器人研究/开发不会出现新的瓶颈,并且模型可以随心所欲地学习。这几乎肯定不会发生。人工智能进步的最大瓶颈将是人类。我指的是监管、恐怖主义和社会崩溃。

政府不会坐视地球被几家科幻公司运营的自动化机器人开采(监管)。如果政府无能到无法阻止他们,那么愤怒的失业者可能会诉诸暴力(恐怖主义)。除非人们被人工智能增强媒体腐蚀到无法正常运作的地步(社会崩溃)。

如果发生战争,我认为它不会成为瓶颈,而会成为加速器。

事情会变得严肃起来。在穿着西装的普通人参与其中之前,2025 年可能是人工智能成为科幻科技推特模因所描绘的疯狂事物的最后一年,所以让我们尽情享受 roon 和 sama 吧。

- 这会杀死所有人吗?我更害怕人类滥用人工智能,而不是人工智能失控。

我们有 5000 年的证据表明人类使用最新技术相互杀戮。二战后的和平是一种异常现象,一旦美国失策或对手认为必须先发制人以阻止人工智能加速发展,和平就可能破裂。当武器变得更致命、更自主时,风险就会更高。

另一个风险是人工智能会失控。这意味着它会导致我们无法预测的灭绝程度。尤其是随着强化学习重新回归游戏,人工智能现在正在发现自己的优化,而不是试图匹配人类数据(匹配人类更安全)。但到目前为止,这些模型的底层大脑仍然是法学硕士,法学硕士已经表明只是理解人。比如,如果你在提示中包含“确保不要做任何可能杀死我们的事情”,那么此时你就有义务声称它仍然可能会杀死我们。

- 不过,我的兴奋感肯定多于害怕感。

我一直梦想的科幻世界即将到来。它来得比预期的要快一些--因此我感到恐惧--但在所有可能的实现途径中,我不知道最佳途径会好多少。这是一个非常棒的时间线。

我希望十年内实现的首要事情是:

- 一些疯狂而酷炫的物理发现

- 火星和月球基地最初由机器人建造

- 完美的导师/建议(快到了,需要良好的检索能力、记忆力和更多的个性)

- 零副作用的生物增强药物

- 乘坐超级优化的无人机飞行

- 全面采用超清洁能源,包括核聚变、地热和大量太阳能

- 意外:人工智能天文学家在望远镜数据中发现外星信号?人工智能化学家轻松设计室温超导体?人工智能物理学家统一一些理论?人工智能数学家解决黎曼猜想?

这些看起来不再像科幻小说了,它们感觉就像是近在咫尺的科学现实。

- 那么这一切将走向何方?最终,我们将获得超级智能,这意味着我们将获得物理定律允许的一切。我希望永生,并看到其他恒星系统。我还希望将我们的肉体升级到更好的状态。但到目前为止,我最兴奋的是了解宇宙的起源。10 年前,我开始写日记,记录我多么想知道答案,以及人工智能将如何帮助我们找到答案,现在它可能真的发生了,这太疯狂了。

- 我们现在生活在一个这一切听起来都很合理的世界。每一次新的人工智能发展都会让更多人意识到这一点,o3 就是最新的一个。

未来不美好的唯一原因就是我们人民把它搞砸了。我们的公众舆论、我们的下游政策、我们的社会稳定、我们的国际合作--都是可能阻碍这一美好未来的障碍。

- 人们认为人工智能实验室的人正在控制我们的未来。我不同意。他们的工作已经确定了。他们只是在某个实验室中执行将要发生的模型架构。

但我们的公众舆论、我们的下游政策、我们的社会稳定、我们的国际合作--是完全不确定的。这意味着我们共同是未来的守护者。

我们每个人都有责任帮助我们的世界渡过未来的艰难时期,以便我们拥有一个美好的未来,而不是一个可怕的未来。

- 有很多方法可以提供帮助。帮助开发一些产品,使社会更加稳定或使人们更加聪明(例如:一款帮助人们管理社交媒体的应用程序)。帮助人们了解正在发生的事情(社交媒体上更多高质量的评论、一个真正好的搜索引擎等)。帮助清理我们的街道,这样要求将我们带入乌托邦的城市就不会看起来像一个反乌托邦(参与地方政治)。

- 几乎每个和我聊过的人都害怕在人工智能世界中失去意义,你可能也是这样。我想对你说,难道不是完全相反吗?你正处于历史上最重要的时刻,你有能力影响它。帮助拯救世界应该就足够了,不是吗?你想回到那个唯一进步的只是你的事业而不是世界的时代吗?

也许人们需要做出的转变是从通过个人成功获得意义转变为通过集体成功获得意义。我们目前的许多工作很快就会实现自动化。我们必须适应。如果你从一项特定技能中获得意义,是的,这项技能可能在 5 年后不再需要,你就倒霉了。但如果你能从尽你所能帮助世界中获得意义,那么这种意义永远不会消失。

-对于所有因为 o3 而得到建议的新毕业生,我的建议是:学习如何成为 1) 一个高代理问题解决者和2)一个优秀的团队成员。你在这一过程中学到的具体技能并不重要,因为世界变化太快了。但解决问题和与团队良好合作将在很长一段时间内都很重要。

-你可能还需要接受一个不稳定的世界里不稳定的生活。这会变得很奇怪。你可能不会在郊区有两个孩子和一只狗。你可能会在星际方舟上有两个机器人孩子和一只人工智能狗。

我们正生活在 AGI 的前夜,在这个圣诞夜,我请求你们帮助使 AGI 过渡顺利进行,以便我能够在公元 3024 年圣诞夜,在距离奥特曼半人马座四光年的行星上向你们问好。

.END.

图片来源|网络

声明:该文章版权归原作者所有,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如涉及作品内容、版权和其它问题,请在30日内与本网联系。
您阅读这篇文章花了0
转发这篇文章只需要1秒钟
喜欢这篇 0
评论一下 0
凯派尔知识产权全新业务全面上线
相关文章
评论
试试以这些内容开始评论吧
登录后发表评论
凯派尔知识产权全新业务全面上线
阿里云创新中心
×
#热门搜索#
精选双创服务
历史搜索 清空

Tel:18514777506

关注微信公众号

创头条企服版APP