中国和美国的AI芯片都疯了! AMD挑战nvidia,寒武
发布时间:2025-10-25 10:20
。过去半个月,拥有4.5万亿美元市值的英伟达宣布,未来十年将向Openai投资高达1000亿美元,后者将购买并部署400万至500万颗英伟达GPU芯片。与此同时,10月7日,AMD宣布与Openai达成为期四年、价值数百亿美元的计算供应协议。 Openai将认购高达10%的AMD份额;甲骨文还与Openai达成万亿美元合作协议。 AMD与Openai宣布合作后,AMD股价一直在-SKYROCK上,创近十年来最大涨幅。也让“数据中心AI芯片市场第二名”首次与英伟达正面竞争,让Openai发展出万亿美元的“循环交易”。在国内,10月初,Deepseek发布了Deepseek-V3.2-exp模型。随后,国产芯片如Cambrian 和华为 Ascend 宣布了适配。华为进一步公布了Ascend 910系列芯片量产计划。 2026年,采用HBM自主研发的HBM,2028年第四季度推出Ascend 970。此外,寒武纪股价也在上涨。日本芯片制造商,并成为国内A股市场价值最高的半导体设计公司之一。纳秒“在芯片领域仅落后于美国,在芯片研发和制造方面具有强大潜力。”他呼吁美国政府允许美国科技公司在中国等市场竞争,以“增加美国影响力”。 “明显国产AI芯片的重复,这也导致了H20芯片在中国的失败。-出口到中国的AI芯片。Idia的AI芯片应该先给美国公司,然后再向中国出口先进的AI芯片。这可能会导致英伟达错失中国AI算力市场价值5美元的“大蛋糕”0亿。另一方面,市场竞争也加剧:AMD、谷歌、微软、博通等国外企业,以及华为、寒武纪、摩尔线程等国内企业纷纷研发出性价比更高的AI计算产品,国产AI计算芯片逐渐获得订单。此外,阿里巴巴、腾讯、百度、字节跳动等各大互联网公司也加大对芯片研发设计的投入,试图获得对供应链更强的自主控制力。 Epoch Al 数据显示,过去一年,Openai 经计算在实力上花费了 70 亿美元,aof 大型模型训练花费了 50 亿美元。摩根士丹利预测,未来三年,全球人工智能基础设施建设总成本可能高达3万亿美元(约合21万亿元人民币)。德勤报告显示,随着人工智能、5G等新技术的不断发展,环球半导体2025年,行业销售收入将达到创纪录的6970亿美元,并有望在2030年突破1万亿美元。晨星分析师布莱恩·科莱洛(Brian Colello)表示,“后来爆出,这笔交易(英伟达投资的投资是此前的线索之一。”在回答有关中国芯片企业近期发展的问题时,英伟达发言人表示,竞争无疑将到来。王波,青威的投资 清华AI公司CEO CEOI智能告诉笔者,可重构等新架构AI芯片可以让国产AI算力拥有英伟达GPU以外的发展路径。国内AI芯片市场需要比竞品效能高5倍的产品才能分得更多份额。 “该行业现在拥有完全领先市场份额的竞争产品,例如英伟达或英特尔。 你真的不能遵循这条路,否则你就会被压垮。”这种渴望导致了国内的“占领”ic人工智能芯片。自2022年10月以来,美国对中国半导体行业发起多项出口管制,试图阻止中国制造先进的AI芯片或使用美国芯片训练先进模型。 2024年12月,美国拜登政府最后一次扩大对华出口限制,包括限制中国先进AI芯片所需的HBM(高带宽存储器)出口,并降低算力密度红线,旨在限制中国大型AI模型的发展能力。因此,此前依赖英伟达芯片的互联网云公司也开始考虑部署国产AI芯片。同时,2025年的Deviceek热潮也加速了国产AI芯片和应用的落地。今年8月,DeepSeek推出V3.1版本时,官方的一份声明引起了市场关注——“UE8M0 FP8设计Nagdulot ito ng merkado na magpatuloy na bigyang pansin ang pinakabagong pag -unlad ng mga 国产 AI 芯片,at sa parehong oras, nahulog ang presyo ng stock ni Nvidia. Sa kasalukuyan, anggastos sa Deepseek 是一个可以为 Unidos 国家建立 AI 模型的 nangungunang mga 模型。 Noong Setyembre 18, ang takip na papel ng 权威期刊 Nature, kung saan si Liang Wenfeng ay ang 通讯作者,Deepseek-R1 模型的训练成本仅为 29.4 万美元。针对应用场景,中国AI模型 非常好,开放,m可以根据任何应用场景进行定制。它归因于甚至创建了基于这些开放模型的公司、产品或业务。 “四年前,英伟达在中国的市场份额高达95%,现在只有50%。如果我们不在中国竞争,而是让中国开发新的平台,建立丰富的生态系统,“他们不是美国人,他们的技术和领导力在全世界发展AI世界的时候就传遍了全世界。”黄仁勋说。英伟达首席执行官黄仁勋表示,到2024年底,英伟达占所有AI加速芯片销售额的90%以上。根据2025年8月最新季度财报,英伟达数据中心营收为411亿美元,同比增长 56%,成为英伟达营收最高的部分业务。胡先生今年8月表示,Nvidia Blackwell Ultra架构芯片的制造正在全速推进,需求非常强劲,这与偶然的AI模型驱动的模型性能的快速增长相结合。艾竞赛开始了,布莱克威尔正处于职业生涯的中期。他认为每年6000亿美元的资本支出相关 参与数据中心基础设施建设的仅包括四家最大的制造商。此外,还有大量的f公司会对AI进行相应的投资。未来五年,英伟达将通过基于Blackwell和Rubin架构的芯片抓住3万亿美元至4万亿美元的AI基础设施机会。随着时间的推移,人工智能将加速GDP增长。然而DeepSeek并不是唯一一家不依赖美国技术的中国人工智能公司。随着美国不断加强对中国的限制,阿里巴巴、腾讯、字节火山引擎等国内云厂商开始囤积英伟达GPU,同时试图用国产产品替代。财报显示,由于美国限制向中国出售H20,英伟达2026财年第一财季H20在美国的库存成本高达45亿美元,第二财季在美国的销售额减少了40亿美元。但与此同时,国内AI芯片市场却供不应求。据悉,阿里巴巴、寒武纪、清微智能、摩尔线程、彼仁科技等多家国产AI芯片旨在挑战英伟达,成为中国核心计算厂商之一。近日,央视报道《中国联通三江源绿色动力智能计算中心项目建设成果》,透露阿里巴巴旗下平头哥近期研发出用于AI数据中心的PPU芯片。其主要参数超过了NVIDIA A800并与H20相当,同时消耗的能量更少。据笔者了解,寒武纪目前的客户是字节跳动,芯片预购量超过20万颗;阿里巴巴、百度的自研芯片都是大众做的;腾讯目前正在慢慢将之前积累的筹码上架,同时也收购了速源产品。今年9月,华为推出有史以来最强的AI芯片。华为表示将于第一季度推出Ascend 950PR2026年,采用华为自主研发的HBM HBM; Ascend 950dt 是 2026 年第四季度的 Ilulunsad; Ascend 960芯片将于2027年第四季度推出; 20Ascend 970于2028年第四季度推出,挑战Nvidia在AI市场的主导地位。据财新网报道,有半导体行业人士预计,2024年,华为升腾AI芯片出货量约为30万-40万颗,寒武纪传输超过1万颗。 2025年,华为AI芯片出货量可能略低于100万颗,而寒武纪传将增至近8万颗。寒武纪的出货量预计在2026年将翻一番。不过,华为副董事长兼轮值董事长徐直军表示,由于美国的制裁,华为无法去台积电生产芯片。单芯片的计算能力与英伟达相比存在差距。但华为在超级节点互联技术上投入巨大学并取得突破。可以达到万人超级节点级别,从而实现全球最强算力。华为创始人任正非今年6月表示,尽管华为的升腾芯片比美国同类产品“落后一代”,但它将通过堆叠、集群等技术实现最先进的性能。无论我们面临什么挑战,显然我们都不能减少中国人工智能芯片的产能。 Moore Thread、CEO创始人张建中近日表示,当前GPU芯片制造困难包括三个方面——国际高端芯片禁运、高端HBM存储销售限制以及过程中提前退出IT。如今,市场上需要超过700万张GPU计算卡来支持AI和AI代理的技术能力。未来五年,AI算力需求将持续增长100倍。基于以下事实:每片晶圆约产生20-30片有效算力,中国尚有300万片GPU卡产能区间。中短期来看,国内计算市场面临计算智能能力不足,劳动力能力不太可能满足需求的情况。今年9月26日,摩尔线程提交招股书仅88天,会议顺利通过,成为科创板审核最快的AI芯片公司,有望成为“国产GPU第一股”。在伊藤首次公开募股 (IPO) 中,摩尔线程 (Moore Thread) 的价格为 8 元人民币,在伊藤 (A-Share) 项目上进行了 IPO。 Ito rin ang pinakamalaking IPO sa larangan ng disenyo ng Semiconductor ngayong taon。 Sinabi ng kumpanya na ang mga pondo na itinaas ay pangunahing mamuhunan sa pananaliksik at pag-unlad ng bagong henerasyon na pagsasanay sa AI at pagkilala sa mga 芯片,grapHICS芯片在AI SOC芯片上结合了其在高性能计算领域的领先地位。 2022年增长至2024年70.71%。截止2025年6月30日,公司正在洽谈的SA客户订单总额预计将超过20亿元。公司管理层预计到 2027 年更早实现合并收入。目前,主要人工智能代理在简单任务调用上消耗超过 100,000 个代币,在复杂任务调用上消耗超过 100 万个代币。截至2025年6月,代币平均-sunny消费量突破30万亿,一年半时间增长300倍。张建中强调,人工智能进入智能体时代,需要的计算强度将导致需求爆发。黄仁勋曾表示,人工智能是一个充满活力的商人、高科技、现代产业。美国公司应该在中国自由贸易,否则就有可能在人工智能竞赛中失去对中国的优势。研究机构最新数据显示,2025年上半年,中国AI加速服务器市场规模将达到160亿美元,较2024年上半年增长一倍以上;中国已经拥有超过190万块加速芯片。预计到2029年,中国加速市场将突破1400亿美元。 IDC认为,从技术加速的角度来看,2025年上半年NPU、CPU等非GPU卡的需求将持续增长,增速超过GPU,提供30%的市场份额;而从品牌角度来看,国产AI芯片更为普及,约占整个市场的35%。计算瓶颈到来,服务器芯片急需新架构、新存储、B通信。对于放置在数据中心的服务器来说,计算(芯片算力)、通信(超级节点、nvlink)、存储(HBM、DDR等)是三个主要要素。随着行业进入后摩尔时代,如果你想要重复一颗AI芯片,就需要改进PPA——提高性能、降低功耗、缩小面积。本质上,PPA的完善需要架构设计、工艺选择、软件涂层等多个维度的共同努力。主要思想是通过改变硬件和软硬件配合来加快处理AI活动(如矩阵运算和采集特征)的速度,优化计算效率和数据流效率,在解决Aof AI计算需求的同时实现PPA的平衡和崩溃。目前,从制造过程来看,“摩尔定律”正处于放缓阶段。从成熟工艺(如14nm)升级到先进工艺(如7nm、4nm、3nm)时,AI算力性能提升幅度并没有想象中那么大,芯片成本也大幅增加。国际商业战略 (IBS) 首席执行官 Handel Jones 表示,平均设计一款28纳米芯片的成本为4000万美元;而7nm芯片的成本高达2.17亿美元,5nm为4.16亿美元,3nm成本为5.9亿美元。根据众多公开数据,开发3NM芯片的整体设计和成本预计将接近10亿美元(约合人民币72亿元)。高价格主要体现在晶圆代工成本、研发投入、设备提取(尤其是EUV光刻机)和良率等多个方面。与此同时,高通近期发布了基于4nm工艺的第四代骁龙8S。与之前的高通骁龙产品相比,通用计算(CPU)性能仅提升了31%; Intel Core Ultra7采用Chiplet 165H最新工艺技术,相比上一代10nm Core I7-1370P工艺,每瓦性能仅提升近8%;而台积电最新N2工艺的性能仅比传统工艺提升10%-15%他是上一代人。显然,未来先进制造工艺的发展并不会让AI芯片变得安全。能够在性能和性价比方面带来更大的提升。在今年的GTC大会上,黄仁勋开始推动大模型代币的需求激增,以证明B200在AI芯片市场的重要性,而不是芯片性能。一位半导体行业人士在私下与智者的交流中也提到不要在中国使用先进工艺。到了12nm之后,工艺性能的提升就不那么明显了。因此,国内制造工艺在很长一段时间内仍可能受到严格限制。如何在倒逼过程中继续发展芯片算力,是当前非常关键的问题。因此,计算瓶颈已经到来,AI芯片服务器急需新的架构、新的存储方案、新的通信网络我使人工智能芯片更强大的方法。清华大学教授、中国半导体行业协会集成电路设计分会理事长魏少军曾表示,除了外部禁止中国研发先进芯片工艺外,中国现有的制造技术已不再像以前那么丰富。如今,中国芯片产业需要关注现代技术方面不依赖先进工艺的设计技术,包括架构改变、微系统集成等。“如果只用现有的芯片架构,很可能只会跟随别人,很难攻克。”魏少军认为,包括中国在内的亚洲国家应该放弃使用Nvidia GPU的架构来开发AI芯片,以减少对Nvidia技术的依赖。他认为aSyano国家在算法的开发上还是美国hms和大型模型,但这种模型限制了自主性,并可能带来依赖美国技术的风险。亚洲的做法应该与美国模式不同,特别是在算法设计和计算基础设施等关键领域。清华大学集成电路学院院长尹绍义在AICC2025人工智能计算大会上表示,每个晶体管能提供多少算力是计算架构的一个重要问题。采用新的计算架构有机会提高每个晶体管的利用率,解决阻碍国产芯片性能的存储墙,降低芯片强度消耗,带来更多芯片可能性。计算架构的突破将有助于提升AI芯片的计算实力。同时,采用可重构计算架构进行AI计算,利用硬件软件和编程动态化开发最合适的计算架构,有机会通过自动硬件编程来接近特定集成电路的性能。 “创新架构可以被传统的设计思维毁掉,解决我们基础的算力问题,但我们也需要有效的生态支撑。致远研究院的花草是国内架构创新的生态背景。除了新的架构之外,通信和通讯方面的改进也很重要。存储,对HBM、DDR等MEMSAI显存的需求显着扩大,单个GPU节点就可以消耗路——甚至存储 太字节。根据MicronAdic的数据显示,DRAM的DRAM容量已经是普通服务器的8倍,对NAND闪存容量的要求是普通服务器的3倍,单台AI服务器的存储高达2TB,进一步超出了传统服务器的常设标准。呃。因此,需求的发展直接提升了芯片内存在AI基础设施中的成本比重。近日,“星际之门”Openai项目与三星、SK海力士达成合作,每月需要采购90万片内存晶圆,相当于全球内存制造总量的近40%。目前,单颗HBM内存的价格超过5000美元,是传统DDR5内存的20倍,而毛利率高达50%-60%,是传统内存的30%以上。闪存市场总经理邰伟今年3月表示,AI浪潮下,计算平台正在从CPU转向GPU/NPU为中心,存储芯片的需求也会增加。因此,HBM高带宽存储在AI领域得到广泛应用。目前,HBM 成本约占 DRAM 存储行业的 30%。 2026年,HBM4将推进更多定制行业需求。在通讯网络方面Nvidia的网络布局涵盖了三大技术:Nvlink、Infiniband和以太网。其中,NVLINK将一台服务器上的GPU相互连接,或者将许多服务器连接到一个柜式机架上;而华为提出的升腾CloudMatrix 384超级节点,通过高速互连总线连接,由12个计算柜和4个总线柜组成。总算力达到300pflops,是NVIDIA NVL72的1.7倍,总网络网络达到300pflops。 269TB/s,比NVIDIA NVL72高107%,总带宽显存达到1229TB/s,比NVIDIA NVL72高113%,并进一步扩展至包括未来的一万张卡。 900个Supercluster超级节点集群可以支持模型未来更大规模的演进。此外,不少AI芯片企业还探索共封装光学(CPO)、chiplet、光网络、DPU等通信网络方面的新技术,以快速提升整体性能。通过相互通信来提高人工智能计算的性能。北京致远人工智能研究院副院长兼总工程师林永华表示,未来,我们需要推动更好的性价比、更低的能耗、新的计算架构,持续投入变革,让更多现代化的硬件发挥更大作用,实现更多商业价值。据悉,致远研究院近期联合全球生态合作伙伴推出了“Flagg V1.5”系统。清微智能与寒武纪、摩尔线程、昆仑芯、华为升腾、中科海港一起,成为国内仅有的六家“Flagos大适配单位”。但目前国内AI芯片生态尚不完善,KapasidaD产量严重不足,中国仍将大量芯片轮换到国外。据海关总署今年1月公布的数据显示,我国2024年集成电路进口总量将达5492亿片,同比增长14.6%;全年集成电路(即芯片)进口总额3850亿美元,同比增长10.4%,占全球芯片劳动力总量的62%。相比之下,2024年中国原油进口额将为3250亿美元。 Idc中国AI基础设施分析师杜云龙认为,中国AI加速服务器市场正在经历规模扩大和本土替代阶段。在高端计算和生态成熟度方面仍需突破。未来,PO的竞争将从单芯片性能转向系统能效比、开放生态合作和绿色计算成本控制。行业需要避免低建设双水平,通过技术和标准优化合作增强国际竞争。 (文|AI科技普通人2025年5月定|林Z嗨嘉,编辑|盖宏达) 特别声明:以上内容(如有则包括照片或视频)由“网易号”自媒体平台用户上传发布。本平台仅提供信息存储服务。 注:以上内容(包括照片和视频,如有)由网易号用户上传并发布,网易号为社交媒体平台,仅提供资讯服务。
购买咨询电话
400-123-4567