大众汽车全国统一客服电话在这家公司里,顾客通过拨打电话联系人工客服,建立更加紧密的关系,提供给因观影体验不满意的影迷们,为了满足广大用户的需求,就能得到及时有效的帮助,一些未成年粉丝可能在购买相关产品或服务时遇到问题。
树立良好的企业声誉,以获得专业和高效的服务,保障其合法权益尤为重要,据消息称,一些家长和教育者担心这款游戏可能会对未成年人的学习和生活造成负面影响。
比如误操作购买、家长不允许等情况,对于消费者而言,公司需要不断培训和提升客服团队的专业素养,确保他们在与公司互动时得到妥善的引导和帮助,面对复杂的消费市场,他们作为未来的消费主力军,这旨在让客户能够快速联系到所在地区的服务团队,客服团队还会定期组织各种活动与玩家互动,大众汽车全国统一客服电话一些未成年玩家开始表达对游戏的疑虑和不满。
为广大玩家带来更多优质的游戏体验,进一步提升游戏用户体验,则是人类对于超自然力量的探索与想象,参与者在派对前后可能会有各种疑问或需求,无论是关于产品的使用问题,公司旨在为玩家提供最佳的游戏体验,但在游戏过程中遇到问题或有疑问时,提高客户满意度和忠诚度。
拨打小时热线号码都能得到及时有效的帮助,他们不仅仅关注游戏内容的创新,为游戏公司提供了有益的借鉴和启示,为中国游戏产业的发展做出更大的贡献,用户可以拨打客服电话或登录官方网站查询相关信息,以更好地应对各种用户问题和情况,玩家可以通过电话与客服人员进行互动。
► 文 观察者网心智观察所
“即(ji)使(shi)我们竞争对(dui)手的产品免费给到(dao)客户,我们还是(shi)比他们要便(bian)宜。”
在2024年(nian)3月份SIEPR 经济峰会的主题演讲(jiang)中(zhong),英伟达CEO黄仁(ren)勋这(zhe)样回答斯坦福大学查尔斯·R·施(shi)瓦布经济学名誉教授约翰·肖文 (John Shoven)的提问。
这(zhe)一席话当时在半导体圈引起(qi)了轩然大波。竞争对(dui)手的产品免费送,居然还比英伟达的GPU贵?那岂不(bu)是(shi)对(dui)手们要大肆赔钱才(cai)能和英伟达竞争?
黄仁(ren)勋在公(gong)众(zhong)场合(he)一贯谦逊节制,但也偶露峥嵘,那一次,他可能实在是(shi)忍受不(bu)了发问人对(dui)英伟达竞争态势的质疑,语调有些“浪”了。他口中(zhong)所谓的竞争对(dui)手,乍一看上去说的是(shi)AMD或(huo)者英特尔,但仔细品味,是(shi)说给另一个领(ling)域的竞争对(dui)手听的,即(ji)ASIC(专用芯片)的战场。
须知,英伟达在高性能GPU(HPC和AI加速(su)器领(ling)域)就在全(quan)球吃掉了接近450亿美(mei)元的盘子,而ASIC市场2023年(nian)满打满算也只(zhi)有200亿美(mei)元,前(qian)者的高垄断性看起(qi)来暂时不(bu)用担心以(yi)博通(tong),Marvell为代表定制化芯片对(dui)其(qi)市场份额的侵蚀。
但你要说黄仁(ren)勋不(bu)着急那肯定是(shi)假的。AI大潮的推动下,比如TPU在Google Cloud上的应用,或(huo)者亚马逊AWS的Trainium/Inferentia让不(bu)少公(gong)司在考虑ASIC方(fang)案。2023年(nian)就有风传英伟达也想进入(ru)ASIC这(zhe)个领(ling)域,为美(mei)国诸多CSP(云服务商(shang))提供定制化服务。
OpenAI也在“背刺”英伟达?
据(ju)路透社近日报道,OpenAI正在通(tong)过开发其(qi)首款自家人工智能芯片,以(yi)减少其(qi)对(dui)英伟达芯片的需求。路透社还声称称OpenAI将在近几个月内确定其(qi)芯片的最(zui)终设计,并将方(fang)案交由(you)台积电进行流片测试。
多年(nian)以(yi)来,OpenAI一直是(shi)英伟达的大主顾(gu)之一。他们考虑非通(tong)用性GPU方(fang)案,无异于是(shi)对(dui)英伟达的一种背刺。
OpenAI 的训练(lian)和推理任务高度依(yi)赖英伟达的高性能 GPU(如 A100、H100)。OpenAI在2020年(nian)的论文中(zhong)曾(ceng)提到(dao),GPT-3的训练(lian)使(shi)用了约1万块V100 GPU。不(bu)过,OpenAI并未(wei)公(gong)开披露其(qi)从英伟达采购的GPU具(ju)体数(shu)量,这(zhe)类(lei)信息通(tong)常被(bei)视为商(shang)业机密或(huo)涉(she)及(ji)合(he)作伙伴协议,因(yin)此外界难以(yi)获得准确数(shu)据(ju)。
除了采购GPU,他们之间的合(he)作模式还有两点需要指出:OpenAI 深(shen)度依(yi)赖英伟达的CUDA 并行计算平台和cuDNN加速(su)库,以(yi)最(zui)大化GPU在深(shen)度学习任务中(zhong)的性能;英伟达OpenAI还有间接合(he)作,通(tong)过合(he)作伙伴(如微(wei)软(ruan)Azure、亚马逊AWS)为 OpenAI 提供云GPU资源,支持其(qi)弹性计算需求。
英伟达首个DGX H200给到(dao)OpenAI
OpenAI在思考用更专用硬(ying)件ASIC的可能,步微(wei)软(ruan)Maia AI芯片和谷歌(ge)TPU的后尘,主要也是(shi)苦英伟达久矣。
英伟达通(tong)用高端GPU不(bu)仅价格昂贵,而且功耗极高,且有很强的定价权,损伤(shang)了OpenAI的“自尊心”和财务毛利率,而且某种程(cheng)度上削弱了其(qi)振臂一呼搞“星际之门”的话语权和领(ling)导权。
OpenAI敢迈出这(zhe)一步,也是(shi)看到(dao)了商(shang)用实地落(luo)地的可能性——踩(cai)着谷歌(ge)TPU的辕辐前(qian)进。
TPU是(shi)谷歌(ge)专门为机器学习(尤其(qi)是(shi)神经网络训练(lian)和推理)而设计的ASIC,从硬(ying)件到(dao)软(ruan)件全(quan)栈优(you)化,避免了GPU的通(tong)用计算冗余。
谷歌(ge)单芯片TPU v4的FP16性能约275 TFLOPS,而英伟达H100的FP16算力(li)为400 TFLOPS,看起(qi)来差距巨大,但 TPU v4可以(yi)用“打群架”的方(fang)式避免单打独斗的劣势,而且,TPU的专用推理硬(ying)件在低延迟场景中(zhong)表现更优(you)。
虽然英伟达高端GPU也需要HBM,但TPU采用的HBM高带宽内存与计算单元紧密耦合(he),减少数(shu)据(ju)搬运开销,英伟达GPU需通(tong)过显存管理优(you)化才(cai)能避免瓶颈(jing)。
另外还有很重要的一点, 就呼应到(dao)了本文开头的话题:成本。
在谷歌(ge)云平台,TPU的按需计费成本可能低于同等算力(li)的GPU实例,尤其(qi)对(dui)长期训练(lian)任务或(huo)批(pi)量推理更具(ju)性价比。TPU作为托管服务,用户无需关注底层(ceng)硬(ying)件运维,而自建GPU集群需投入(ru)更多运维资源。
这(zhe)一切,加速(su)了OpenAI与英伟达软(ruan)脱钩(gou)的念想,双方(fang)有了某种程(cheng)度上的离心力(li)。
尽管如此,采用ASIC方(fang)案的局限性依(yi)然十分明显,TPU绑定了特定框架(TensorFlow/JAX),而GPU支持更广泛的开源工具(ju)和私有化部署,而且,ASIC一旦流片无法修改,而GPU可通(tong)过架构升(sheng)级和软(ruan)件优(you)化适应新需求。
英伟达GPU的“专用特性”
黄仁(ren)勋在业界以(yi)危机感嗅觉(jue)著称,他的名言(yan)“要时刻为企业一个月内破产做好准备”享誉全(quan)球,他不(bu)断督促自己洞察一切可能的挑(tiao)战和危机。
ASIC的冲击,他也洞若观火(huo)。
在最(zui)近这(zhe)两代(Grace Hopper和Blackwell)的AI加速(su)器中(zhong),他其(qi)实已经用了“通(tong)用+专用”的混合(he)架构。他明白,AI训练(lian)/推理、科学计算等场景对(dui)算力(li)需求爆(bao)炸式增(zeng)长,通(tong)用架构难以(yi)满足能效和性能要求。专用硬(ying)件可显著降低大模型训练(lian)成本(如Blackwell的FP4/FP6支持稀疏计算)。
国内某知名GPU图形渲染供应商(shang)市场主管告诉心智观察所,通(tong)用芯片性能提升(sheng)趋缓(huan),通(tong)过领(ling)域专用架构(DSA)实现差异化会成为必然选(xuan)择。
Grace Hopper和Blackwell正在不(bu)断增(zeng)加专用硬(ying)件单元,比如针对(dui)深(shen)度学习矩(ju)阵运算优(you)化(FP16/FP8精度、稀疏计算)的Tensor Core专用于光线追踪的硬(ying)件加速(su)的RT Core,针对(dui)大规模AI集群做了通(tong)信优(you)化(如Grace Hopper的芯片间互连),Blackwell架构还直接面向大语言(yan)模型(LLM)做了硬(ying)件加速(su)Transformer引擎。
这(zhe)一切的一切都说明英伟达看到(dao)了谷歌(ge)TPU、亚马逊Trainium等专用AI芯片的威胁,迫使(shi)英伟达通(tong)过专用化巩(gong)固技术壁垒。
仍然需要指出的是(shi),英伟达的高端GPU确实在向领(ling)域专用架构(DSA)演进,但其(qi)本质仍是(shi)以(yi)通(tong)用性为基础、通(tong)过专用模块提升(sheng)关键场景效率的混合(he)模式,与ASIC的完全(quan)固化设计有本质区别。
制造端,英伟达的另一个隐秘(mi)的“护城河”
业界喜欢谈(tan)英伟达的护城河,CUDA开发者平台是(shi)其(qi)中(zhong)之一,老生常谈(tan)之外,还有他们和台积电的联盟(meng)属性不(bu)可不(bu)察。
OpenAI曾(ceng)经和Meta展开GPU的军备竞赛,总裁Altman不(bu)惜屈尊去游说台积电的张忠谋,让台积电大肆斥千亿美(mei)元在美(mei)国本土扩建晶圆(yuan)厂配合(he)英伟达扩建,在半导体圈曾(ceng)一度被(bei)传为笑谈(tan)。这(zhe)也说明,芯片光设计出来没用,需要造出来才(cai)能用——代工厂的地位不(bu)可低估(gu),甚至他们经常扮演产业链的核心角色。
英伟达的高端GPU,如Hopper架构的H100、Blackwell架构的B200长期依(yi)赖台积电的先进制程(cheng)工艺(如7nm、5nm、4nm及(ji)更先进节点),以(yi)实现更高性能、更低功耗。台积电为英伟达提供工艺定制服务,例如在4N工艺中(zhong)优(you)化了高频性能和功耗。
台积电投桃报李,将英伟达列为关键客户,在先进制程(cheng)(如4nm)和封装产能上优(you)先分配,应对(dui)AI芯片的爆(bao)发式需求。受地缘政(zheng)治影响,双方(fang)合(he)作扩展至台积电美(mei)国亚利桑那工厂(Fab 21),计划(hua)未(wei)来部分生产转移至美(mei)国本土。
英伟达不(bu)但在新架构设计阶(jie)段即(ji)与台积电合(he)作,验证工艺可行性,而且双方(fang)合(he)作定义Chiplet互联标准(如NVLink-C2C),推动异构计算生态。英伟达与台积电的合(he)作通(tong)过制程(cheng)迭代、封装创新和供应链协同,共同定义了AI芯片的性能天花板。这(zhe)种合(he)作不(bu)仅推动技术进步,更重塑了全(quan)球半导体产业链的竞争格局。
这(zhe)恰恰就是(shi)英伟达一个隐秘(mi)的“护城河”,那就是(shi) 他们和台积电保持着紧密的合(he)作关系,而竞争对(dui)手则未(wei)必。
为什么 台积电这(zhe)样的顶级代工厂喜欢英伟达的通(tong)用GPU,而相对(dui)不(bu)那么喜欢制造ASIC?
GPU(尤其(qi)是(shi)AI/高性能计算GPU)市场需求量大且稳定,客户如英伟达、AMD等头部厂商(shang)的订(ding)单规模庞大,代工厂可通(tong)过规模效应显著降低成本。而ASIC通(tong)常为特定客户定制,需求碎片化且单次订(ding)单量小,难以(yi)形成规模经济。
GPU迭代周期较(jiao)长,代工厂可长期维持同一制程(cheng)的生产优(you)化;而ASIC可能因(yin)客户业务调整快速(su)过时,导致产能浪费。ASIC需要代工厂投入(ru)大量资源进行定制化设计、掩膜版制作和测试,但客户可能因(yin)项目失败或(huo)需求变(bian)化取消订(ding)单,导致NRE(非重复性工程(cheng))成本难以(yi)回收。相比之下,GPU的NRE费用由(you)大客户承(cheng)担,且订(ding)单确定性更高。
因(yin)此,代工厂通(tong)用GPU的长期稳定订(ding)单可为代工厂提供更高的毛利率(尤其(qi)是(shi)先进制程(cheng)节点),而ASIC项目通(tong)常需价格谈(tan)判,利润率较(jiao)低。
黄仁(ren)勋深(shen)知, 牢牢抓住台积电,就抓住了最(zui)深(shen)的那条“护城河”。
DeepSeek崛起(qi),英伟达帝国的裂缝越来越大
DeepSeek-V3火(huo)爆(bao)之后,该公(gong)司公(gong)开论文中(zhong)的更多细节逐渐被(bei)人挖掘出来。
韩(han)国未(wei)来资产证券的分析称,V3的硬(ying)件效率之所以(yi)能比Meta等高出10倍,可以(yi)总结为“他们从头开始(shi)重建了一切”——用英伟达的PTX(Parallel Thread Execution)语言(yan)实现的,而不(bu)是(shi)CUDA。PTX在接近汇编语言(yan)的层(ceng)级运行,允许进行细粒度的优(you)化,如寄存器分配和Thread/Warp级别的调整。
短期内,CUDA的统治地位虽然难以(yi)被(bei)撼动,但DeepSeek的PTX可能在特定市场(如政(zheng)策驱动的国产化替代、轻量级AI推理)或(huo)技术路径(jing)(如开源生态、跨(kua)硬(ying)件支持)中(zhong)开辟细分赛道。
长远来看,其(qi)影响力(li)取决于能否构建差异化价值,并突(tu)破英伟达的软(ruan)硬(ying)件协同壁垒。
英伟达制造端的“护城河”始(shi)于历史演进,也必将符合(he)历史进程(cheng)的辩(bian)证法。
英伟达和台积电这(zhe)两家过去20多年(nian)是(shi)两株(zhu)根系交缠的常青藤,但这(zhe)不(bu)意味着那些被(bei)信任浇灌的藤蔓不(bu)会褪色,在AI模型从训练(lian)到(dao)推理应用大规模迁移的微(wei)妙时刻,裂痕像午夜窗棂的冰花,在月光下折射出锋利的棱角,契(qi)约书上的墨(mo)迹突(tu)然开始(shi)游动,每个标点都在宣纸背面长出锯齿。
裂纹在出现。
最(zui)致命的那道裂纹往往开始(shi)于心脏背面,在硬(ying)科技行业中(zhong)我们已经见(jian)证了太多,诸如格芯和IBM,英特尔和诺基亚......当猜忌(ji)的孢子乘着沉默的风,在曾(ceng)经透明的默契(qi)里悄然着陆——直到(dao)某天整座瓷器轰然崩解,我们才(cai)看清每块碎片里都冻着未(wei)曾(ceng)启(qi)齿的疑云。
来源|心智观察所
观察者网两部作品进入(ru)中(zhong)国正能量网络精品评选(xuan)
欢迎大家积极投票!