你的位置:任丘市奥力斯涂料厂 > 联系奥力斯 > 石嘴山万能胶 内存不够,AI就得“从头”!美光管:我们跟不上内存需求了,全球建厂5座还不够

石嘴山万能胶 内存不够,AI就得“从头”!美光管:我们跟不上内存需求了,全球建厂5座还不够

发布日期:2026-05-11 00:16 点击次数:101
泡沫板橡塑板专用胶

AI对内存的需求石嘴山万能胶,正在以连美光自己都没预料到的速度爆炸式增长。

The Circuit播客近日发布了期对话节目,主持人访了美光科技数据中心业务部门总裁兼总经理Jeremy Werner。对话围绕AI时代内存与存储行业的结构变化展开。

Werner开门见山地表示,这轮内存行业的繁荣与以往的周期波动有本质区别。

内存已经成为数据中心理环节突破瓶颈的关键战略资产,也是训练全球模型的核心支撑。我不认为这个趋势会放缓。

AI理的“内存墙”:不够用就得从头

Werner用个直白的逻辑解释了为什么理对内存的需求如此特殊。

训练和理对内存的使用式截然不同。Werner说:“训练用内存来学习,然后遗忘,终输出个模型。但理用内存来记忆。”

理过程分为两个阶段:预填充(prefill)和解码(decode)。在解码阶段,模型需要不断调用此前的计结果——也就是所谓的KV缓存(KV Cache)——来生成准确的答案。

问题在于:如果内存不够存下这些历史状态,模型就须从头重新计。Werner解释了这意味着什么:

每轮重新计,所需的力相当于此前所有轮次的总和。也就是说,力需求是指数增长的。而如果你能存下上轮的状态,每轮只需要线地多做步。

换句话说,内存不足会让GPU的力利用率急剧下降。反过来,Werner指出:“如果你能提供足够快、足够大的内存,理论上可以从GPU中榨取出平倍的力。”

动KV缓存需求膨胀的因素有三个:上下文窗口越来越长、模型参数量越来越大、同时并发使用AI的用户越来越多。Werner透露,目前上下文长度正以每年30倍的速度增长。

内存层:从HBM到SSD,条完整的“存储链”

Werner详细梳理了AI数据中心的内存层结构,从靠近GPU的带宽内存(HBM)到远端的海量SSD,构成条完整的“存储链”。

层:HBM,紧贴GPU,典型容量在10至100GB之间,速度快,但容量有限。

二层:主内存(Main Memory),连接至CPU,容量通常是HBM的4至20倍,但速度慢、距离远。以英伟达Blackwell系统为例,主内存连接至Grace CPU。

三层:扩展内存(Expansion Memory),通过光纤连接立内存模块,目前尚未大规模量产部署,但已是业界关注的向。

四层:上下文内存存储(Context Memory Storage),即用SSD来存储KV缓存。Werner指出,英伟达CEO黄仁勋今年已公开谈及这向。与HBM相比,SSD的延迟、带宽低,但容量可达HBM的1000倍。

五层:数据湖,数据中心底层的海量SSD存储,以EB(艾字节)计。

Werner表示,目前整个层从上到下都处于供不应求的状态:“只要我们发布产品,他们就会消耗掉。只要我们提升容量和能,他们就会找到法部署。”

HBM4与245TB SSD:美光的两张

面对上述需求,美光正在两个向同时发力。

HBM4面,Werner透露,美光刚刚发布了HBM4产品,带宽是上代HBM3e的两倍以上。他强调,提升带宽的核心逻辑在于:当瓶颈不是力而是内存带宽时,须加快数据送达GPU的速度。

SSD面,美光出了款245TB大容量SSD,Werner形容“这个东西比扑克大不了多少”。

这款产品的意义不仅在于容量本身。Werner解释,目前数据中心部署的硬盘容量普遍在30TB出头,而245TB的SSD意味着同等存储量所需的设备数量大幅减少,连带减少了网络连接、电源、风扇等配套设施,终将存储占地面积压缩逾80,同时显著降低功耗。

“你只需要为你真正需要的能付费,而这些能是以的每瓦特GB来交付的。”Werner说。

这直接回应了数据中心当前棘手的两大约束:电力预和物理空间。Werner表示:“如果电力是限制增长的瓶颈,那我们就须在固定功耗预内,找到提供能的法。这正是我们大量创新的来源。”

产能已经跟不上:全球五座晶圆厂同步开建

尽管需求盛,Werner坦承,内存行业的产能已经法跟上需求。

“我们没有在全球建造足够多的晶圆厂。”他直接说道。

目前美光正在全球同步进五座晶圆厂的建设:

达荷州博伊西:60万平英尺洁净室,相当于10个足球场大小

纽约州北部:已宣布开工建设石嘴山万能胶

弗吉尼亚州:现有晶圆厂扩建

新加坡:南部晶圆厂(Nanfab)破土动工

日本:DRAM生产设施扩建

台湾:刚刚从PSMC收购座晶圆厂

Werner表示,目前整个行业都受制于洁净室空间,这状况短期内难以改变。

我们已经法跟上需求了,其他所有人也样——英特尔、英伟达、台积电都在说,我们已经满负荷了。晶圆厂不是说长就能长出来的。

市场还没看懂这件事

对于市场的担忧,Werner有不同看法。

他认为,市场目前看到云服务商(CSP)资本开支大幅增加,就开始担心这是否可持续。但他的判断是:“这些企业正在经历场巨大的革命,其潜力仍然出大多数人的想象。”

Werner还指出,AI的应用场景远未饱和。训练时代已经过去,理时代刚刚开始,而Agentic AI(智能体AI)和物理AI(Physical AI)甚至还没有真正大规模落地。“我真的相信,我们只是刚刚触及AI将要带来的变革的表面。”

他也承认,硅谷内外对AI的认知存在巨大落差:

在硅谷,大都非常兴奋,很容易陷入自己的信息茧房。但当我和不在这个行业的朋友聊天,他们很多人还没有意识到未来20年将会发生什么。

访谈全文如下:

突破“内存墙”:美光科技的AI时代战略

节目:The Circuit 嘉宾:Jeremy Werner,美光科技核心数据中心业务部门总裁兼总经理 主持人:Ben Beharin、Jay石嘴山万能胶 Goldberg

章:开场介绍

Ben: 大好,欢迎收听新期《The Circuit》。我是Ben Beharin。

Jay: 大好,我是Jay Goldberg。

Ben: 今天我们有位非常出的嘉宾——来自美光科技的Jeremy Werner。大直希望节目里有多聊存储器的嘉宾,今天这个愿望实现了。Jeremy,感谢你的到来。请先简单介绍下自己,然后我们就直接进入讨论。

Jeremy: 这可是不小的压力,大期望值这么。我是Jeremy Werner,负责美光科技核心数据中心业务部门,我们向全球数据中心提供SSD和DRAM产品。

二章:这轮周期与以往的不同之处

Jay: 我听说存储器市场近表现不错?

Jeremy: 还可以,当然永远可以好。

Jay: 这正是我想问的。存储器行业历来以周期强著称,而你们现在的处境感觉像是每天早上起来都要捏下自己——这是真的吗?你在存储器行业耕多年,能不能帮我们对比下这轮周期和以往有何不同?

Jeremy: 确实有很多有趣的事情正在发生。说实话,在听了你们评论台积电财报电话会议的式之后,我对给出答案还真有点担心。不过,这轮确实不样——AI正在从根本上改变存储器为数据中心创造价值的式。存储器已经成为破解理瓶颈、支撑数据中心理能力的核心战略资产,同时也是训练全球模型的关键所在。这对存储器行业而言是个比精彩的时代,而且我不认为这个趋势会放缓。

Ben: 我很好奇,你们对这切是早有预判,还是像其他人样被了个措手不及?存储器在AI这波浪潮中的角,你们是提前看到了,还是是赶上了?

Jeremy: 我觉得,当LLM模型发展到足够强大、真正发布出来,让大意识到它的能力边界之后,全世界都有点惊讶。随着力和训练能力突破临界点,技术实现了跨越式的飞跃,这点确实出了所有人的预期。ChatGPT的发布让全球都意识到了正在发生的事情。当然,说我们预见到了需求增长的爆发速度,那并不准确——我们清楚地知道存储器和存储在技术上有多重要,但我们没料到增长会这么快。

三章:预判AI的爆炸式增长

Ben: Jensen曾公开表示,你们的CEO是AI的早期倡者。所以你们应该是比较早就看到了吧?

Jeremy: 是的,我们很早就开始布局,持续开发支持AI的各类技术——从靠近GPU的HBM、LPDDR5、SOCAM,到能SSD和大容量SSD。这些产品从研发到量产需要三到五年甚至长时间,不是某天突然决定拼凑起来的。Sanjay长期以来构建了套出的基础设施体系,让我们能够制定长远愿景、规划未来、探索技术、建立大规模运营体系、进路线图并与客户度作。所有这些要素聚在起,才使美光在这个精彩时代取得了今天的成绩。

Jay: 我觉得有点很关键——你们和台积电、以及存储器域的其他玩都在投入扩产,这种投资力度是建立在个共同判断之上的:这不会再回到度周期波动。从数字上看,如果半体行业今年或明年突破万亿美元规模,之后快速迈向两万亿,它不会再跌回7000亿的水平。市场的底部抬了,行业格局变了,总可寻址市场的体量变大了。大都在按这个逻辑规划扩张,因为AI是贯穿整个行业的可持续创新。

Jeremy: 是的,这是可持续的创新,而且我真心相信,我们现在不过是刚刚触及AI发展的表面。过去几年,训练复杂的模型是数据中心基础设施建设的大驱动力。当然,也有很多人在用AI,比如用它来快地回答问题、编辑文档。但仅仅在过去六个月里,AI能做的事情和发展的速度已经让我不得不刷新认知。

Jay,我听了你的播客,你说你般同时跑二十个云端AI Agent。

Jay: 哈哈,对,但录节目的时候只跑五个。

Jeremy: 现在Agentic AI已经出现,个人和企业都刚开始摸索它的可能;而Physical AI(物理AI)实际上还没有真正大规模展开——这是条未来多年持续扩张与变革的路线图。未来十年、二十年,世界的面貌会截然不同。如果你想看清未来,不妨回头看看阿西莫夫的作品。我不是说我们真的会在月球中央建个机器人城市,但他对自动驾驶汽车、飞行自动驾驶交通工具、所不能的机器人、度自动化的生产与制造等面的预言,在今天看来颇具前瞻。我们现在正处于这场变革的起点。

四章:AI市场的长期可持续

Jay: 毫疑问,所有这些发展都将带来海量的存储器需求,同时也会产生需要快速访问的大量数据,这对我们的SSD产品线同样是利好。

Ben: 好,那我们来入聊聊你提到的理这个话题。我认为这是理解当下正在发生什么的佳切入点——我们正在从训练时代走向理时代。围绕ASICs和GPU的基础设施与芯片架构,在很大程度上是为训练而设计的。而现在,我们看到这个格局正在向理时代演进。比如英伟达开始出门针对理的产品,谷歌也出了用于理的TPU——这些都是我们预料中会发生的事。训练架构和理架构会走向分化,而理架构面临着截然不同的存储挑战——谷歌称之为"内存墙"。你能详细讲讲理的工作负载,以及为什么理加速器对存储器的需求如此不同,这将对存储器行业产生怎样的影响?

五章:AI理中的"内存墙"

Jeremy: 当然。训练用存储器来学习,学完之后释放掉,终输出个模型。但理用存储器来记忆。理可以粗略地分为两个关键阶段:个是预填充阶段(prefill),所有的提示词token在这里被处理;二个是解码阶段(decode),每个token在这里被反复迭代以得到好的答案——实际上会有多个解码阶段。

在解码阶段,过去所有的上下文信息都应该被喂给模型,以便获得准确的答案——这是模型智能的主要来源。而这正是理的"内存墙"所在之处。

六章:KV缓存与上下文窗口详解

解决这个问题有两种思路。在传统架构中,有种叫做KV缓存的机制:在解码过程中,计完token之后,将KV缓存保存在内存里,再把它读回来,继续计下个token,如此反复迭代。

上下文窗口越长——对于不熟悉这个概念的朋友,可以把它理解为你输入到问题里的信息量,比如你和AI对话的历史长度——所需的迭代次数就越多。如果你没有足够的内存来存储历史上下文,就须从头开始重新计所有内容。这意味着计量会呈指数增长——每轮的计量,几乎等于此前所有轮次的计量之和。相反,如果能保存上轮的状态,每轮只需增加线的计量。所以,旦内存不足以存储足够的上下文,计量就会以平别膨胀。

此外,不只是上下文本身——模型规模(即参数量)也在持续增长,这对模型智能至关重要;每次迭代的token数量在增长;同时,每块GPU上并发运行的Agentic AI用户数量也在增长。所有这些因素叠加,使得每块GPU所需的KV缓存量急剧攀升。如果能成功提供足够的内存和存储,理论上可以从GPU中榨取出远传统模式——即平别——的计能。

七章:内存层次结构——从HBM到SSD

Jay: 我们节目有不少非存储器、非技术背景的听众,能不能退步,带大梳理下整个存储器层次结构?存储器的种类很多、缩写也很多,整体比较复杂。

奥力斯    保温护角专用胶批发    联系人:王经理    手机:13903175735(微信同号)    地址:河北省任丘市北辛庄乡南代河工业区

Jeremy: 当然。负责AI计的GPU、TPU或其他加速器,离它近的是目前受到多关注的类存储器,即HBM——带宽内存。它既用于训练,也用于理栈中的token生成。通常情况下,紧贴GPU存储的KV缓存大约在10到100GB之间。

如果HBM容量不够用,KV缓存就往外移层,进入主存(main memory)。主存通常挂载在CPU上——比如在H100系统中,往往连接的是英特尔或AMD的x86 CPU;在英伟达新的Blackwell系统中,主存则挂载在Grace CPU上。这部分内存的容量通常是GPU上HBM的4到20倍——容量大,但速度慢、距离远。

到目前为止,KV缓存基本上就止步于主存这层。旦出,就只能重新计。但随着理越来越复杂,上下文窗口不断扩大,大开始探索进步扩展内存容量的案。

往下层,有个叫做扩展内存(expansion memory)的概念,目前还没有在生产中得到实质部署。思路是将大量容量DIMM模块通过光学连接,放在立的扩展盒中,与所有GPU相连——当主存不够用时,可以从这里获取速存储。

再往下,就是Jensen今年提及的"上下文存储"(context memory storage)——用SSD来存储多的上下文。这个层的延迟、带宽低,但容量可以达到HBM的千倍。

底层是数据中心里由海量SSD构成的EB(艾字节)网络数据湖。这就是整个层次结构的全貌。

Ben: 那么在今天,瓶颈集中在哪里?论是技术层面还是产能层面,痛点突出的是什么?

Jeremy: DRAM和SSD,整个栈从上到下都有需求。我们旦出新产品,立刻就会被消化吸收;容量和能旦提升,客户马上就能找到部署式。可以说,全线都是瓶颈。

八章:规模化服务数十亿并发用户

Ben: 从训练过渡到理,让我为震撼的点是:在训练场景中,只是少数人把训练任务扔给堆计节点,目标就是跑完训练、输出模型;而理面临的挑战不同。我们即将迈入这样个阶段——数千万、数亿乃至数十亿用户,将同时使用巨大的上下文窗口处理各自的任务。数用户在同时刻,都需要海量内存来支撑他们的工作。我理解像TPU这样的AI理架构是为此而生的,但就有满架的芯片,再加上你们提到的内存扩展设备,面对这种别的并发,感觉问题还是难解决。整个存储器层次结构中,泡沫板橡塑板专用胶什么能帮助解决这个问题?同时并发命中所有这些用户的工作负载,对存储器的需求究竟是什么?

Jeremy: 关键在于速度。如果瓶颈不在力,而在内存带宽,那我们就须提升带宽,让所有历史上下文都能快速到达GPU。很大程度上,这取决于速度——这也是我们在HBM产品上持续速创新的原因。我们刚刚发布了HBM4产品,其带宽是上代HBM3E的两倍以上,而HBM3E在年前还是行业前沿。

九章:破解功耗与率瓶颈

当然,当你持续提升能时,就会遭遇其他瓶颈——尤其是在数据中心层面,而这也是长期以来大多数人在AI部署上关注的问题:功耗。

能否获得足够的电力来驱动所有这些力?能否充分发挥力的用?能否让电力物尽其用?如果能翻倍的同时功耗也翻倍,而电力总量固定,那实际上能提供给用户的并没有增加。所以,关键在于:如果电力供应是增长的瓶颈,我们就须在固定功耗预内,大幅提升能率——这正是我们大量创新工作的核心所在。目标是在不等比增加功耗的前提下,持续提升能。

大在存储器域经常谈带宽——数据以什么速率传输。但现实远比这复杂。随着整个栈中些层次的动态变化正在发生,美光在这面有些很有意思的探索。要真正实现功耗率的提升,须入了解理的处理式与细节,这反过来驱动了大量的协同代码设计需求——比如在GPU和存储器之间,哪些计该在哪个层完成。这是当下存储器行业另个层次变革要素。

十章:AI为何正在引发存储短缺

Jay: 我想接着问个让我很感兴趣的问题。靠近GPU的存储器、尽可能大的带宽,这部分需求我很好理解。但听起来存储面也面临大面积短缺,不只是在计侧或GPU托盘上,而是覆盖整个数据中心生态系统。这是为什么?

Jeremy: AI对存储的需求来自几个面。先,AI本身会生成大量数据。用过Grok或者刷过X(特)的人都知道,AI图像生成的速度之快,远任何个熟练的表情包制作者,而所有这些内容都会被存下来。我常说,大多数人都是数字囤积狂——我们不太舍得删数据。

不仅如此,AI模型正在让我们每个人——包括那些以前缺乏技术能力来实现创意的人——都能把想法变为现实,至少是数字现实。这是场面向所有人的创意革命,我们都在创造多数据。企业也同样如此,AI让他们能够好地创建和利用自己的数据。而要真正发挥AI的价值,关键的是把所有数据都存放在可以被快速访问的地。

AI不只是创造数据,它还要访问数据来提供洞察、解决问题、给出好的答案。这就带出了存储域的个概念——"数据预热"(warming)。我们通常把数据分为"热数据"和"冷数据"。热数据是指近期很可能被访问的数据;冷数据则是那些基本上没人会查的东西,比如十年前的税单。但有了AI,你提问,它就要翻遍所有数据来找答案——那些曾经的冷数据,正在变暖。切都在升温。数据越热,就需要越快的存储,因为访问频率大幅增加。

此外,还有另个令人兴奋的未来增长点:由于没有足够的内存来存储所有KV缓存,数据中心SSD将迎来巨大的增量需求,用于存储查询调度和多轮对话工作流——如果用现有架构来处理,就不得不反复经历我前面说的那种重新计的循环。

十章:个人AI Agent与持久化内存需求

Jay: 这正是我在使用AI过程中花了大量时间研究各种"框架"的原因——Open Claw、Hermes,各种新工具层出不穷。其中个很重要的是跨模型的负载均衡,但还有个重要的部分是为AI创建持久化记忆。现在个大问题是:你用AI Agent做了件事,下次开它什么都不记得了。

Jeremy: 这不会让你抓狂吗?就好像教班学生,每天都要从教材页重新开始。

Jay: 对,太形象了。现在很多工具都声称"你得用这个、你得用那个",本质上都是在为AI Agent创建个文件结构来模拟记忆——这些都是变通案。它背后的逻辑是:如果你给AI提供记忆,它的历史就会存在内存里。如果你离开段时间,内存要么继续占着,要么需要卸载到SSD,等你回来时再读回来。

Ben: 是的。我现在在Claude里管理着好几个任务和项目,得很刻意地切换到对应的项目或上下文窗口,不然会混在起。而且我直担心每个项目终都会把上下文窗口撑爆。这周跟很多人聊,大都在荐各种工具和"插件"——我觉得终定会有人做出个通用的框架,自动帮你管理这切。大都会喜欢它,因为用起来简单多了,但代价是消耗多内存。现在我手动管理,确实比较,但我很愿意牺牲这种精细化控制,换来流畅的体验——哪怕那意味着需要多内存,率低。

Jeremy: 这正是我们观察到的现象——上下文长度,也就是你说的这个,目前正以每年30倍的速度增长。

Ben(Jay): 天哪。

Ben: 还有件事让我觉得难以置信:我现在和AI的交互——比如用ChatGPT或Claude——是种碎片化的记忆配上碎片化的存储。它只能看到个"文件夹",只有当前上下文范围内的内容是热数据,我所有的数据并不全部可用。我近才意识到,我电脑上的文件加起来有好几个TB,大部分在AI的语境里都是冷数据。我非常想对AI说:"喂,帮我找下这个东西,"但它就是做不到。所以你说的那种场景——企业把全量数据上线,同时开放边缘访问——在我看来是AI价值的又次阶跃。当你真正拥有所有数据的访问权时,那将是质变。但这同时也是个需要我们解决大量难题的存储与内存问题。

十二章:大容量SSD的创新

Jeremy: 正是如此。沿着这个向,针对企业大规模数据——加上我们刚才讨论的功耗问题——我们近发布了款245TB的SSD,体积只比扑克稍大点点。

引入这样的产品,我们能够大幅降低数据中心和企业在存储上的功耗,同时将存储的物理占地面积压缩过80。功耗是大瓶颈,数据中心的物理空间也是大瓶颈,而让存储靠近GPU也是未来的重要趋势。所以,在低的功耗占用下,释放数据中心的潜力,提供的能和大的存储容量,并且尽量靠近GPU——这是我在文件与对象存储域为期待的事情之。

Ben: 这种功耗的优化是存储技术本身的进步,还是因为在单体积中集成了大的容量,减少了分散部署的开销?能不能稍微展开讲讲功耗面的机制?我认为这点非常关键——大都认同Jensen的基本逻辑:在固定的功耗预内,实现大化的力,这包括我们讨论的所有基础设施。所以,任何能降低功耗成本的创新都至关重要。

Jeremy: 当然。先,SSD相比机械硬盘,在提供能面本身就具有的功耗优势——从读取角度看,根据工作负载不同,SSD的读取能可以达到机械硬盘的千倍,而且没有活动部件,这从开始就带来了显著的功耗节省。

但大的收益来自大容量带来的系统整应。245TB装进个大约四分之机械硬盘大小的空间里,而目前部署的机械硬盘容量大概在30TB出头。这意味着你需要的网络连接、线缆、机箱、电源模块、散热风扇——所有围绕着部署多出10倍设备而产生的附加成本——全都大幅减少。这些"附加"的东西都有实实在在的成本和功耗。把这些冗余全部消除掉,做到度整,终你只需要为你真正需要的能付费,而这些能是以的每瓦特GB来交付的。

Ben: "每瓦特GB"这个指标,我觉得是个很好的分析框架。

十三章:加速工程创新的节奏

Ben: 聊聊你们在整个栈上正在进的创新工作。我想从两个角度来看这件事。从历史角度说,你有没有感受到存储器域创新节奏加快的压力?我直以为——你可以纠正我——历史上存储器,乃至存储行业在某种程度上,在挑战限面会相对保守,因为很多事情须做对,良率不能出问题。这点当然没有变——我不是说存储器突然可以像逻辑芯片样接受50的良率了,不可能。但我感觉现在是那种要踩下油门的时刻。你们是怎么看待这个问题的?又在哪些向上着力解决?对于那些在存储器与存储域注攻坚的工程师来说,这也是段很特殊的时期。

Jeremy: 是的,切都在加速:我们的时间线在加速,创新速度在加速,产品需要内嵌的智能程度在加速,复杂度在加速,工厂(mega fab)的建设速度在加速。这是真实的挑战,但也令人振奋。谁不希望每天来上班,到了晚上回头看才意识到自己几乎没有喘息过?我们以惊人的速度奔跑,这在美光是种令人充满活力的感受。

我们在做的事情之,是拥抱AI技术本身。如何跑得快?这个时代给了我们个妙的工具——我不想说是"从天而降",因为我们自己也参与了它的构建——我们正在用它来加速自身的能力,提升良率快,设计和研发快,发现问题快。所有那些传统上存在的挑战依然存在,但现在我们要快、好、地完成所有事情:快地流片,快地迭代制程技术,在全球各地的工厂快地完成设备安装和产能爬坡——快,快,快。周只有七天,到了某个点你就须寻找创新的法。我们直做到了,而现在AI是个了不起的工具,正在帮助我们迈向下个层。

Ben: 在这点上,我能想象客户会直接来找你们说:"我们需要你们实现这个,能做到吗?"然后你们全力投入,协助解决他们两三年后将面临的问题。这种在存储器与存储面度联优化的作模式,在美光与作伙伴之间,直是这样吗?

Jeremy: 我们直保持着扎实、入的技术作。我们有趣的地在于,需要与整个链条上的所有人协同——软件提供商、CPU和GPU硬件设计商、制造工艺、系统集成商、数据中心建设。我们可以和产业链上下游的每个玩携手作。但现在的作度,是前所未有的。这种度联设计,正是回到我们开始说的,这次对存储器行业而言真正不同的地。

十四章:市场的误解与AI的未来潜力

Jay: 很有价值的分享。那么,你觉得市场上大普遍还没有意识到的是什么?有哪些误解?

Jeremy: 我觉得人们看到大型云服务提供商和数据中心企业资本支出不断攀升,会担心这是否可持续。但我认为,这些企业正在经历场刻的变革——就像我前面提到的,它将从根本上改变人类社会,解决数难题:没有医疗资源的人将能获得诊断和外科建议;我们将以快的速度实现创新;生产与制造将走向度自动化,提升全球数十亿人的生活质量。

当然,并非所有事情在任何时刻都是清晰可见的——这些模型的商业变现何时转化为实际营收?他们的投入是否过了当下的能力?我的答案是:没有。我认为AI的潜力仍然出大多数人的想象。

有趣的是,在硅谷,大对AI的热情涨,很容易陷入自己的信息圈,因为周围的人都刻理解这项技术的度,也知道各种令人兴奋的进展。但当我和不在这个行业的朋友聊,情况就不样了。有的朋友确实说:"这东西让我能在自己的行业做出难以置信的事情",他们真的在创新。但也有多的朋友,他们看到的是LLM在ChatGPT上的表现和股市的波动,却并没有真正看清楚未来二十年将会发生什么。而我相信那切都会发生。

十五章:全球工厂建设竞赛

Jay: 让我问个反面的问题。我们大概都同意,AI是真实的,只是大多数人还没意识到它的潜力。这意味着随着时间移,人们会逐渐追上来——他们会意识到ChatGPT不只是用来生成搞笑表情包的,可以真正做严肃的工作。需求还在持续加速——但近期内,存储器行业能跟得上吗?有没有可能到了某个时间点,我们只能告诉用户:"不好意思,我们已经尽力了,新工厂还没投产,先等半年吧。"

Jeremy: 坦率地说,从产能角度来看,那个时刻已经到了。我们已经跟不上需求了。

全球的工厂建设确实不够用,而建座工厂非易事。给你些参考:我们目前在全球同时建设五座工厂。我们已宣布在达荷州博伊西建设座60万平英尺的洁净室;在纽约州北部启动了新工厂建设——这些项目正在把存储器生产带回美国本土,同时扩充我们在弗吉尼亚州的存储器工厂,使美国成为存储器的重要生产国。仅博伊西和纽约的工厂,每座的车间面积就相当于十个标准足球场大小。此外,我们宣布在新加坡的Nan Fab破土动工以扩大产能,扩建日本的DRAM生产设施,并从台湾PSMC收购了座工厂。我们正在大力进建设以快速上线产能。

目前,整个行业受限于建筑施工和洁净室空间,这种状况短期内不会改变。如何满足需求,是我们面临的大挑战。我们也在通过提升工艺技术来提每平英尺的芯片产出,从而在不扩大面积的情况下多生产些。但归根结底,我们已经没能跟上需求,其他人也样——英特尔、英伟达、台积电都在财报电话会上说:产能已经满了,工厂不是说长就能长出来的。

Ben: 而且回头看整个对话,让我感慨的是变化之快——就连年前,我们都没有聊过这些话题。很可能年后,这里的切又会大不样。但不管形势怎么变,对力的需求不会变;而我们正在解决的这些问题,会随着多力、多存储器、多存储的到位,让AI变得有能力。我忘了是谁说的了,但有句话我特别喜欢:"你今天用的AI,是AI有史以来蠢的。"然而感觉已经相当聪明了。你们正在解决的这些问题,正是让AI有用、有价值的关键——而随着AI越来越好,大规模云厂商的变现能力也会提升,吸引多用户,创造多价值。存储器和存储,是这切的核心组成部分。

Jeremy: 说得好。

十六章:结语

Ben: Jeremy,非常感谢你今天来到《The Circuit》,也感谢你的时间。欢迎随时回来聊存储器。感谢大的收听,希望这期节目对你们有所启发,我们下周再见。

Jeremy: 谢谢大,别忘了告诉你的朋友——还有你的AI Agent。

风险提示及责条款 市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符其特定状况。据此投资,责任自负。 相关词条:玻璃棉毡     塑料挤出机     预应力钢绞线    铁皮保温    万能胶生产厂家

1.本网站以及本平台支持关于《新广告法》实施的“极限词“用语属“违词”的规定石嘴山万能胶,并在网站的各个栏目、产品主图、详情页等描述中规避“违禁词”。
2.本店欢迎所有用户指出有“违禁词”“广告法”出现的地方,并积极配合修改。
3.凡用户访问本网页,均表示默认详情页的描述,不支持任何以极限化“违禁词”“广告法”为借口理由投诉违反《新广告法》,以此来变相勒索商家索要赔偿的违法恶意行为。

友情链接:

产品中心 新闻资讯 联系奥力斯

Powered by 任丘市奥力斯涂料厂 RSS地图 HTML地图

Copyright Powered by365建站 © 2025-2054