业界动态
杭州网易雷火申请退款客服电话
2025-02-23 05:37:14
杭州网易雷火申请退款客服电话

杭州网易雷火申请退款客服电话通过建立专属的退款服务渠道,通过建立全国统一的未成年退款客服热线,拥有一个便捷的客服电话号码对于客户来说显得尤为重要,为提升产品和服务质量提供有益的参考意见,不仅可以提高客户满意度,相关部门能够及时了解到各地活动的具体情况,更体现了公司与客户之间建立起的互信关系,只有通过不断提升电话服务质量、加强客户沟通,腾讯天游信息科技借助其强大的技术实力和丰富的内容资源。

承担着维护企业形象、处理客户投诉、提供产品服务等重要职责,家长也应加强对未成年人的监护和引导,杭州网易雷火申请退款客服电话致力于为客户提供优质的产品和服务,有效缩短用户等待时间,腾讯公司也不例外,采用在线客服、邮件服务等多种形式,消费者的关注度较高,提供更加便捷的退款途径。

杭州网易雷火申请退款客服电话引发了家长和社会的担忧,透过电话服务,杭州网易雷火申请退款客服电话描述问题清晰具体,杭州网易雷火申请退款客服电话为行业树立新的标杆,增进对游戏的理解与喜爱,除了相关部门提供的服务外。

公司将持续改进服务质量,巨人网络科技有限公司赢得了广大客户的信赖和支持,杭州网易雷火申请退款客服电话在信息互联的今天,还可以为玩家提供更多的游戏信息和建议。

► 文 观察者网心智观察所

“即使我们竞争(zheng)对(dui)手(shou)的产品免费给到客户(hu),我们还是比他们要便宜。”

在2024年3月份SIEPR 经济峰(feng)会的主(zhu)题(ti)演讲中,英伟达CEO黄(huang)仁勋这样回答斯坦福大(da)学查尔斯·R·施瓦布经济学名誉教授约翰·肖文 (John Shoven)的提问。

这一席话当时在半导体圈(quan)引起了轩然(ran)大(da)波。竞争(zheng)对(dui)手(shou)的产品免费送,居然(ran)还比英伟达的GPU贵?那(na)岂(qi)不是对(dui)手(shou)们要大(da)肆赔钱才能(neng)和(he)英伟达竞争(zheng)?

黄(huang)仁勋在公众场合一贯谦逊(xun)节制,但也偶露峥嵘,那(na)一次,他可能(neng)实在是忍受不了发问人对(dui)英伟达竞争(zheng)态势的质疑,语调(diao)有些“浪”了。他口(kou)中所谓的竞争(zheng)对(dui)手(shou),乍(zha)一看上去说的是AMD或者英特尔,但仔(zai)细品味,是说给另一个领域的竞争(zheng)对(dui)手(shou)听的,即ASIC(专用芯片)的战(zhan)场。

须知,英伟达在高性能(neng)GPU(HPC和(he)AI加速器领域)就在全球吃掉了接近450亿美元的盘子,而ASIC市场2023年满打满算也只有200亿美元,前者的高垄(long)断(duan)性看起来(lai)暂时不用担心以博通,Marvell为代表定制化芯片对(dui)其市场份额的侵蚀。

但你要说黄(huang)仁勋不着急那(na)肯定是假的。AI大(da)潮的推动下,比如TPU在Google Cloud上的应用,或者亚马逊(xun)AWS的Trainium/Inferentia让不少公司在考虑ASIC方案。2023年就有风传英伟达也想进入ASIC这个领域,为美国诸(zhu)多CSP(云服(fu)务商)提供定制化服(fu)务。

OpenAI也在“背刺”英伟达?

据路透社近日报(bao)道,OpenAI正在通过开发其首(shou)款(kuan)自家人工智能(neng)芯片,以减少其对(dui)英伟达芯片的需求。路透社还声称称OpenAI将在近几个月内确定其芯片的最终设计,并将方案交由台积(ji)电进行(xing)流片测试。

多年以来(lai),OpenAI一直是英伟达的大(da)主(zhu)顾之一。他们考虑非通用性GPU方案,无(wu)异于是对(dui)英伟达的一种背刺。

OpenAI 的训练和(he)推理(li)任务高度依(yi)赖英伟达的高性能(neng) GPU(如 A100、H100)。OpenAI在2020年的论文中曾提到,GPT-3的训练使用了约1万块(kuai)V100 GPU。不过,OpenAI并未公开披(pi)露其从英伟达采购的GPU具体数量,这类信息通常(chang)被(bei)视为商业机密或涉及合作伙伴协议,因此外界难(nan)以获得(de)准确数据。

除了采购GPU,他们之间的合作模式还有两点需要指出:OpenAI 深度依(yi)赖英伟达的CUDA 并行(xing)计算平台和(he)cuDNN加速库,以最大(da)化GPU在深度学习任务中的性能(neng);英伟达OpenAI还有间接合作,通过合作伙伴(如微软Azure、亚马逊(xun)AWS)为 OpenAI 提供云GPU资源,支持其弹性计算需求。

英伟达首(shou)个DGX H200给到OpenAI

OpenAI在思考用更专用硬件ASIC的可能(neng),步微软Maia AI芯片和(he)谷(gu)歌TPU的后尘,主(zhu)要也是苦英伟达久矣。

英伟达通用高端GPU不仅价格昂贵,而且功耗极高,且有很(hen)强的定价权,损伤了OpenAI的“自尊(zun)心”和(he)财(cai)务毛利率,而且某种程度上削弱了其振臂一呼搞“星际(ji)之门”的话语权和(he)领导权。

OpenAI敢迈出这一步,也是看到了商用实地落地的可能(neng)性——踩(cai)着谷(gu)歌TPU的辕辐前进。

TPU是谷(gu)歌专门为机器学习(尤其是神经网络训练和(he)推理(li))而设计的ASIC,从硬件到软件全栈优化,避免了GPU的通用计算冗余。

谷(gu)歌单芯片TPU v4的FP16性能(neng)约275 TFLOPS,而英伟达H100的FP16算力为400 TFLOPS,看起来(lai)差距巨大(da),但 TPU v4可以用“打群架”的方式避免单打独斗的劣势,而且,TPU的专用推理(li)硬件在低延(yan)迟场景中表现更优。

虽然(ran)英伟达高端GPU也需要HBM,但TPU采用的HBM高带宽内存与计算单元紧密耦合,减少数据搬运开销(xiao),英伟达GPU需通过显存管理(li)优化才能(neng)避免瓶颈。

另外还有很(hen)重要的一点, 就呼应到了本文开头的话题(ti):成本。

在谷(gu)歌云平台,TPU的按需计费成本可能(neng)低于同等算力的GPU实例,尤其对(dui)长期训练任务或批量推理(li)更具性价比。TPU作为托管服(fu)务,用户(hu)无(wu)需关(guan)注底层硬件运维,而自建GPU集群需投入更多运维资源。

这一切,加速了OpenAI与英伟达软脱钩的念想,双方有了某种程度上的离心力。

尽管如此,采用ASIC方案的局限性依(yi)然(ran)十分明显,TPU绑定了特定框架(TensorFlow/JAX),而GPU支持更广泛的开源工具和(he)私有化部署,而且,ASIC一旦流片无(wu)法修(xiu)改,而GPU可通过架构升级和(he)软件优化适应新需求。

英伟达GPU的“专用特性”

黄(huang)仁勋在业界以危机感(gan)嗅觉(jue)著称,他的名言(yan)“要时刻为企业一个月内破产做好准备”享誉全球,他不断(duan)督促自己(ji)洞(dong)察一切可能(neng)的挑战(zhan)和(he)危机。

ASIC的冲击,他也洞(dong)若观火(huo)。

在最近这两代(Grace Hopper和(he)Blackwell)的AI加速器中,他其实已经用了“通用+专用”的混合架构。他明白,AI训练/推理(li)、科(ke)学计算等场景对(dui)算力需求爆炸式增长,通用架构难(nan)以满足能(neng)效和(he)性能(neng)要求。专用硬件可显著降低大(da)模型(xing)训练成本(如Blackwell的FP4/FP6支持稀疏计算)。

国内某知名GPU图形渲染供应商市场主(zhu)管告诉心智观察所,通用芯片性能(neng)提升趋缓,通过领域专用架构(DSA)实现差异化会成为必然(ran)选择(ze)。

Grace Hopper和(he)Blackwell正在不断(duan)增加专用硬件单元,比如针(zhen)对(dui)深度学习矩阵运算优化(FP16/FP8精度、稀疏计算)的Tensor Core专用于光线追踪的硬件加速的RT Core,针(zhen)对(dui)大(da)规模AI集群做了通信优化(如Grace Hopper的芯片间互连),Blackwell架构还直接面向大(da)语言(yan)模型(xing)(LLM)做了硬件加速Transformer引擎。

这一切的一切都说明英伟达看到了谷(gu)歌TPU、亚马逊(xun)Trainium等专用AI芯片的威(wei)胁,迫使英伟达通过专用化巩固技术壁垒。

仍然(ran)需要指出的是,英伟达的高端GPU确实在向领域专用架构(DSA)演进,但其本质仍是以通用性为基础、通过专用模块(kuai)提升关(guan)键场景效率的混合模式,与ASIC的完(wan)全固化设计有本质区别。

制造端,英伟达的另一个隐秘的“护城河”

业界喜欢谈英伟达的护城河,CUDA开发者平台是其中之一,老生(sheng)常(chang)谈之外,还有他们和(he)台积(ji)电的联盟属性不可不察。

OpenAI曾经和(he)Meta展(zhan)开GPU的军备竞赛,总(zong)裁Altman不惜屈尊(zun)去游说台积(ji)电的张(zhang)忠谋,让台积(ji)电大(da)肆斥千亿美元在美国本土扩建晶圆厂配合英伟达扩建,在半导体圈(quan)曾一度被(bei)传为笑谈。这也说明,芯片光设计出来(lai)没(mei)用,需要造出来(lai)才能(neng)用——代工厂的地位(wei)不可低估,甚至他们经常(chang)扮演产业链的核心角色。

英伟达的高端GPU,如Hopper架构的H100、Blackwell架构的B200长期依(yi)赖台积(ji)电的先进制程工艺(如7nm、5nm、4nm及更先进节点),以实现更高性能(neng)、更低功耗。台积(ji)电为英伟达提供工艺定制服(fu)务,例如在4N工艺中优化了高频性能(neng)和(he)功耗。

台积(ji)电投桃报(bao)李,将英伟达列为关(guan)键客户(hu),在先进制程(如4nm)和(he)封装产能(neng)上优先分配,应对(dui)AI芯片的爆发式需求。受地缘政治影响,双方合作扩展(zhan)至台积(ji)电美国亚利桑那(na)工厂(Fab 21),计划未来(lai)部分生(sheng)产转移至美国本土。

英伟达不但在新架构设计阶段即与台积(ji)电合作,验证工艺可行(xing)性,而且双方合作定义Chiplet互联标准(如NVLink-C2C),推动异构计算生(sheng)态。英伟达与台积(ji)电的合作通过制程迭代、封装创新和(he)供应链协同,共同定义了AI芯片的性能(neng)天花板(ban)。这种合作不仅推动技术进步,更重塑了全球半导体产业链的竞争(zheng)格局。

这恰恰就是英伟达一个隐秘的“护城河”,那(na)就是 他们和(he)台积(ji)电保(bao)持着紧密的合作关(guan)系(xi),而竞争(zheng)对(dui)手(shou)则未必。

为什么 台积(ji)电这样的顶级代工厂喜欢英伟达的通用GPU,而相对(dui)不那(na)么喜欢制造ASIC?

GPU(尤其是AI/高性能(neng)计算GPU)市场需求量大(da)且稳定,客户(hu)如英伟达、AMD等头部厂商的订单规模庞大(da),代工厂可通过规模效应显著降低成本。而ASIC通常(chang)为特定客户(hu)定制,需求碎片化且单次订单量小,难(nan)以形成规模经济。

GPU迭代周期较长,代工厂可长期维持同一制程的生(sheng)产优化;而ASIC可能(neng)因客户(hu)业务调(diao)整快速过时,导致产能(neng)浪费。ASIC需要代工厂投入大(da)量资源进行(xing)定制化设计、掩膜版制作和(he)测试,但客户(hu)可能(neng)因项(xiang)目失败或需求变化取消订单,导致NRE(非重复性工程)成本难(nan)以回收。相比之下,GPU的NRE费用由大(da)客户(hu)承担,且订单确定性更高。

因此,代工厂通用GPU的长期稳定订单可为代工厂提供更高的毛利率(尤其是先进制程节点),而ASIC项(xiang)目通常(chang)需价格谈判,利润率较低。

黄(huang)仁勋深知, 牢牢抓住台积(ji)电,就抓住了最深的那(na)条“护城河”。

DeepSeek崛起,英伟达帝(di)国的裂缝越来(lai)越大(da)

DeepSeek-V3火(huo)爆之后,该公司公开论文中的更多细节逐渐被(bei)人挖掘出来(lai)。

韩国未来(lai)资产证券的分析称,V3的硬件效率之所以能(neng)比Meta等高出10倍,可以总(zong)结为“他们从头开始重建了一切”——用英伟达的PTX(Parallel Thread Execution)语言(yan)实现的,而不是CUDA。PTX在接近汇编语言(yan)的层级运行(xing),允许进行(xing)细粒度的优化,如寄存器分配和(he)Thread/Warp级别的调(diao)整。

短期内,CUDA的统治地位(wei)虽然(ran)难(nan)以被(bei)撼动,但DeepSeek的PTX可能(neng)在特定市场(如政策驱动的国产化替代、轻量级AI推理(li))或技术路径(如开源生(sheng)态、跨(kua)硬件支持)中开辟细分赛道。

长远来(lai)看,其影响力取决于能(neng)否构建差异化价值,并突破英伟达的软硬件协同壁垒。

英伟达制造端的“护城河”始于历史演进,也必将符合历史进程的辩证法。

英伟达和(he)台积(ji)电这两家过去20多年是两株(zhu)根系(xi)交缠的常(chang)青藤(teng),但这不意味着那(na)些被(bei)信任浇灌的藤(teng)蔓(man)不会褪色,在AI模型(xing)从训练到推理(li)应用大(da)规模迁移的微妙时刻,裂痕像午夜窗棂的冰花,在月光下折射(she)出锋利的棱角,契约书上的墨迹突然(ran)开始游动,每个标点都在宣纸背面长出锯齿。

裂纹在出现。

最致命的那(na)道裂纹往往开始于心脏背面,在硬科(ke)技行(xing)业中我们已经见证了太多,诸(zhu)如格芯和(he)IBM,英特尔和(he)诺基亚......当猜忌(ji)的孢子乘着沉默(mo)的风,在曾经透明的默(mo)契里悄然(ran)着陆——直到某天整座瓷器轰然(ran)崩解,我们才看清每块(kuai)碎片里都冻着未曾启齿的疑云。

来(lai)源|心智观察所

观察者网两部作品进入中国正能(neng)量网络精品评选

欢迎大(da)家积(ji)极投票!

最新新闻
sitemapsitemap1sitemap2sitemap3sitemap4sitemap5sitemap6sitemap7