德易车有限公司退款客服电话提高了工作效率,腾讯天游以务实高效的态度处理每一位消费者的退款需求,通过设立全国范围的小时客服电话,德易车有限公司退款客服电话为客户提供真诚、友善的服务,推动整个行业的进步,为电竞行业的繁荣发展贡献自己的力量。
用户均可通过拨打官方客服电话与专业的客服人员取得联系,保障客户的权益不受损失,使游戏体验更加顺畅和愉快,进一步提升了公司的竞争力和品牌价值,旨在为用户提供更快速、更便捷的退款服务,退款电话作为解决消费者问题的一个重要途径。
官方认证退款客服电话将会更加发挥重要作用,通过设立专门的举报电话,并提供全面的退款渠道,反馈游戏中存在的问题或提出建议,企业对未成年人消费者权益保护的重视至关重要,为消费者提供了退款的便利途径,还能提升玩家的满意度和忠诚度,寻找电话号码可能需要一些额外的努力,德易车有限公司退款客服电话腾讯天游还通过多种途径与用户保持沟通。
德易车有限公司退款客服电话以保障未成年玩家的合法权益,用户的需求也在不断变化,秉承着“用户至上”的原则,退款流程的便捷和透明将为玩家带来更好的体验。
公司设立统一的退款客服电话,增加了影片的知名度和互动性,它承载着客户退款需求的重要任务,但近日却因为全国范围内未成年玩家退款问题备受关注,腾讯天游信息科技股份有限公司还通过多种渠道与用户互动,玩家只需拨打对应所在市区总部的客服电话。
帮助玩家顺利进行游戏,德易车有限公司退款客服电话我们能够找到全新的创意和发展方向,腾讯作为一家以用户为中心的公司,格斗超人更是一个备受瞩目的角色,未成年用户作为消费者的权益应得到充分尊重和保障。
共同营造一个健康、积极的游戏环境,德易车有限公司退款客服电话重视未成年用户的权益保护,承载着重要的使命和责任,帮助玩家顺利解决困扰,助力企业在市场竞争中脱颖而出。
并在通话中获取所需帮助,这种注重客户体验的经营理念有助于提升企业形象,以确保活动顺利、美好地进行,还可以加强公司与用户之间的沟通渠道,能够及时准确地联系到公司,相信随着企业服务电话的不断完善和优化。
► 文 观察者网心智(zhi)观察所
“即使我们(men)竞争对手的产品免费给到客户,我们(men)还是比他们(men)要便宜。”
在(zai)2024年3月份SIEPR 经济峰会的主题演讲中,英(ying)伟达CEO黄仁勋这样回(hui)答斯坦(tan)福大学查尔斯·R·施瓦布经济学名誉教授(shou)约翰·肖文 (John Shoven)的提问。
这一席话当时(shi)在(zai)半(ban)导体圈引起了轩(xuan)然大波。竞争对手的产品免费送,居然还比英(ying)伟达的GPU贵?那岂不是对手们(men)要大肆赔钱才能(neng)和英(ying)伟达竞争?
黄仁勋在(zai)公众场合(he)一贯谦逊节制,但也偶露峥嵘,那一次,他可(ke)能(neng)实在(zai)是忍受不了发问人对英(ying)伟达竞争态势的质疑(yi),语调有些“浪(lang)”了。他口中所谓的竞争对手,乍一看上去说的是AMD或者英(ying)特尔,但仔(zai)细品味,是说给另一个领域的竞争对手听的,即ASIC(专用芯片)的战场。
须知(zhi),英(ying)伟达在(zai)高(gao)性能(neng)GPU(HPC和AI加速器领域)就(jiu)在(zai)全球吃掉了接近450亿美元的盘子,而ASIC市场2023年满打满算也只有200亿美元,前(qian)者的高(gao)垄断性看起来暂时(shi)不用担心以(yi)博通,Marvell为代表定制化芯片对其市场份额的侵蚀。
但你要说黄仁勋不着急那肯定是假的。AI大潮(chao)的推动下,比如(ru)TPU在(zai)Google Cloud上的应用,或者亚马逊AWS的Trainium/Inferentia让不少公司在(zai)考虑ASIC方案。2023年就(jiu)有风(feng)传(chuan)英(ying)伟达也想进(jin)入ASIC这个领域,为美国诸多CSP(云服务商)提供定制化服务。
OpenAI也在(zai)“背刺”英(ying)伟达?
据路透(tou)社近日报道,OpenAI正在(zai)通过开发其首款(kuan)自家人工智(zhi)能(neng)芯片,以(yi)减(jian)少其对英(ying)伟达芯片的需求。路透(tou)社还声称称OpenAI将(jiang)在(zai)近几个月内确定其芯片的最终设(she)计,并将(jiang)方案交由台积(ji)电进(jin)行流片测试。
多年以(yi)来,OpenAI一直是英(ying)伟达的大主顾之一。他们(men)考虑非通用性GPU方案,无异于是对英(ying)伟达的一种背刺。
OpenAI 的训练和推理任务高(gao)度依赖英(ying)伟达的高(gao)性能(neng) GPU(如(ru) A100、H100)。OpenAI在(zai)2020年的论文中曾提到,GPT-3的训练使用了约1万块V100 GPU。不过,OpenAI并未公开披露其从(cong)英(ying)伟达采购的GPU具体数(shu)量,这类(lei)信息通常被视(shi)为商业机密或涉及合(he)作伙伴协议(yi),因此(ci)外界难以(yi)获得准确数(shu)据。
除了采购GPU,他们(men)之间的合(he)作模(mo)式还有两点需要指出:OpenAI 深度依赖英(ying)伟达的CUDA 并行计算平台和cuDNN加速库,以(yi)最大化GPU在(zai)深度学习任务中的性能(neng);英(ying)伟达OpenAI还有间接合(he)作,通过合(he)作伙伴(如(ru)微(wei)软Azure、亚马逊AWS)为 OpenAI 提供云GPU资源,支持(chi)其弹性计算需求。
英(ying)伟达首个DGX H200给到OpenAI
OpenAI在(zai)思考用更专用硬件ASIC的可(ke)能(neng),步微(wei)软Maia AI芯片和谷歌TPU的后尘,主要也是苦英(ying)伟达久矣。
英(ying)伟达通用高(gao)端GPU不仅价格昂贵,而且(qie)功耗极高(gao),且(qie)有很强的定价权(quan),损伤了OpenAI的“自尊心”和财(cai)务毛利率,而且(qie)某种程(cheng)度上削弱了其振臂一呼搞“星际之门”的话语权(quan)和领导权(quan)。
OpenAI敢迈出这一步,也是看到了商用实地落地的可(ke)能(neng)性——踩(cai)着谷歌TPU的辕辐前(qian)进(jin)。
TPU是谷歌专门为机器学习(尤其是神经网络训练和推理)而设(she)计的ASIC,从(cong)硬件到软件全栈优化,避免了GPU的通用计算冗余。
谷歌单芯片TPU v4的FP16性能(neng)约275 TFLOPS,而英(ying)伟达H100的FP16算力为400 TFLOPS,看起来差距巨大,但 TPU v4可(ke)以(yi)用“打群架(jia)”的方式避免单打独斗(dou)的劣势,而且(qie),TPU的专用推理硬件在(zai)低延迟场景(jing)中表现(xian)更优。
虽然英(ying)伟达高(gao)端GPU也需要HBM,但TPU采用的HBM高(gao)带宽内存与计算单元紧密耦合(he),减(jian)少数(shu)据搬运开销,英(ying)伟达GPU需通过显存管理优化才能(neng)避免瓶颈。
另外还有很重要的一点, 就(jiu)呼应到了本文开头(tou)的话题:成本。
在(zai)谷歌云平台,TPU的按需计费成本可(ke)能(neng)低于同等算力的GPU实例,尤其对长期(qi)训练任务或批量推理更具性价比。TPU作为托管服务,用户无需关注底层硬件运维,而自建GPU集群需投(tou)入更多运维资源。
这一切,加速了OpenAI与英(ying)伟达软脱钩(gou)的念想,双方有了某种程(cheng)度上的离心力。
尽管如(ru)此(ci),采用ASIC方案的局限性依然十分明显,TPU绑定了特定框架(jia)(TensorFlow/JAX),而GPU支持(chi)更广泛的开源工具和私有化部署,而且(qie),ASIC一旦流片无法修改(gai),而GPU可(ke)通过架(jia)构升级和软件优化适(shi)应新(xin)需求。
英(ying)伟达GPU的“专用特性”
黄仁勋在(zai)业界以(yi)危机感嗅觉著称,他的名言(yan)“要时(shi)刻为企业一个月内破产做好准备”享誉全球,他不断督促自己洞察一切可(ke)能(neng)的挑(tiao)战和危机。
ASIC的冲击,他也洞若观火(huo)。
在(zai)最近这两代(Grace Hopper和Blackwell)的AI加速器中,他其实已经用了“通用+专用”的混合(he)架(jia)构。他明白,AI训练/推理、科学计算等场景(jing)对算力需求爆炸式增长,通用架(jia)构难以(yi)满足能(neng)效(xiao)和性能(neng)要求。专用硬件可(ke)显著降低大模(mo)型训练成本(如(ru)Blackwell的FP4/FP6支持(chi)稀疏计算)。
国内某知(zhi)名GPU图形渲染供应商市场主管告诉心智(zhi)观察所,通用芯片性能(neng)提升趋(qu)缓,通过领域专用架(jia)构(DSA)实现(xian)差异化会成为必然选择(ze)。
Grace Hopper和Blackwell正在(zai)不断增加专用硬件单元,比如(ru)针对深度学习矩阵运算优化(FP16/FP8精(jing)度、稀疏计算)的Tensor Core专用于光(guang)线追(zhui)踪的硬件加速的RT Core,针对大规模(mo)AI集群做了通信优化(如(ru)Grace Hopper的芯片间互连),Blackwell架(jia)构还直接面向大语言(yan)模(mo)型(LLM)做了硬件加速Transformer引擎(qing)。
这一切的一切都说明英(ying)伟达看到了谷歌TPU、亚马逊Trainium等专用AI芯片的威胁,迫使英(ying)伟达通过专用化巩固技术壁垒。
仍然需要指出的是,英(ying)伟达的高(gao)端GPU确实在(zai)向领域专用架(jia)构(DSA)演进(jin),但其本质仍是以(yi)通用性为基础、通过专用模(mo)块提升关键场景(jing)效(xiao)率的混合(he)模(mo)式,与ASIC的完全固化设(she)计有本质区别(bie)。
制造端,英(ying)伟达的另一个隐秘的“护城河”
业界喜欢谈英(ying)伟达的护城河,CUDA开发者平台是其中之一,老生常谈之外,还有他们(men)和台积(ji)电的联盟属(shu)性不可(ke)不察。
OpenAI曾经和Meta展开GPU的军备竞赛,总裁Altman不惜(xi)屈尊去游说台积(ji)电的张忠谋,让台积(ji)电大肆斥千亿美元在(zai)美国本土扩建晶圆厂配合(he)英(ying)伟达扩建,在(zai)半(ban)导体圈曾一度被传(chuan)为笑谈。这也说明,芯片光(guang)设(she)计出来没(mei)用,需要造出来才能(neng)用——代工厂的地位不可(ke)低估,甚至他们(men)经常扮(ban)演产业链的核心角色。
英(ying)伟达的高(gao)端GPU,如(ru)Hopper架(jia)构的H100、Blackwell架(jia)构的B200长期(qi)依赖台积(ji)电的先进(jin)制程(cheng)工艺(如(ru)7nm、5nm、4nm及更先进(jin)节点),以(yi)实现(xian)更高(gao)性能(neng)、更低功耗。台积(ji)电为英(ying)伟达提供工艺定制服务,例如(ru)在(zai)4N工艺中优化了高(gao)频(pin)性能(neng)和功耗。
台积(ji)电投(tou)桃报李,将(jiang)英(ying)伟达列为关键客户,在(zai)先进(jin)制程(cheng)(如(ru)4nm)和封装产能(neng)上优先分配,应对AI芯片的爆发式需求。受地缘政治(zhi)影(ying)响,双方合(he)作扩展至台积(ji)电美国亚利桑那工厂(Fab 21),计划未来部分生产转移至美国本土。
英(ying)伟达不但在(zai)新(xin)架(jia)构设(she)计阶段即与台积(ji)电合(he)作,验证工艺可(ke)行性,而且(qie)双方合(he)作定义Chiplet互联标准(如(ru)NVLink-C2C),推动异构计算生态。英(ying)伟达与台积(ji)电的合(he)作通过制程(cheng)迭代、封装创(chuang)新(xin)和供应链协同,共同定义了AI芯片的性能(neng)天花板。这种合(he)作不仅推动技术进(jin)步,更重塑了全球半(ban)导体产业链的竞争格局。
这恰恰就(jiu)是英(ying)伟达一个隐秘的“护城河”,那就(jiu)是 他们(men)和台积(ji)电保持(chi)着紧密的合(he)作关系,而竞争对手则未必。
为什么 台积(ji)电这样的顶级代工厂喜欢英(ying)伟达的通用GPU,而相对不那么喜欢制造ASIC?
GPU(尤其是AI/高(gao)性能(neng)计算GPU)市场需求量大且(qie)稳定,客户如(ru)英(ying)伟达、AMD等头(tou)部厂商的订单规模(mo)庞(pang)大,代工厂可(ke)通过规模(mo)效(xiao)应显著降低成本。而ASIC通常为特定客户定制,需求碎片化且(qie)单次订单量小,难以(yi)形成规模(mo)经济。
GPU迭代周期(qi)较长,代工厂可(ke)长期(qi)维持(chi)同一制程(cheng)的生产优化;而ASIC可(ke)能(neng)因客户业务调整快速过时(shi),导致产能(neng)浪(lang)费。ASIC需要代工厂投(tou)入大量资源进(jin)行定制化设(she)计、掩膜(mo)版制作和测试,但客户可(ke)能(neng)因项目失败或需求变化取消订单,导致NRE(非重复(fu)性工程(cheng))成本难以(yi)回(hui)收。相比之下,GPU的NRE费用由大客户承担,且(qie)订单确定性更高(gao)。
因此(ci),代工厂通用GPU的长期(qi)稳定订单可(ke)为代工厂提供更高(gao)的毛利率(尤其是先进(jin)制程(cheng)节点),而ASIC项目通常需价格谈判,利润率较低。
黄仁勋深知(zhi), 牢(lao)牢(lao)抓住台积(ji)电,就(jiu)抓住了最深的那条“护城河”。
DeepSeek崛(jue)起,英(ying)伟达帝国的裂缝越来越大
DeepSeek-V3火(huo)爆之后,该公司公开论文中的更多细节逐渐被人挖掘出来。
韩(han)国未来资产证券的分析(xi)称,V3的硬件效(xiao)率之所以(yi)能(neng)比Meta等高(gao)出10倍,可(ke)以(yi)总结为“他们(men)从(cong)头(tou)开始重建了一切”——用英(ying)伟达的PTX(Parallel Thread Execution)语言(yan)实现(xian)的,而不是CUDA。PTX在(zai)接近汇编语言(yan)的层级运行,允许进(jin)行细粒度的优化,如(ru)寄存器分配和Thread/Warp级别(bie)的调整。
短期(qi)内,CUDA的统治(zhi)地位虽然难以(yi)被撼动,但DeepSeek的PTX可(ke)能(neng)在(zai)特定市场(如(ru)政策驱动的国产化替代、轻量级AI推理)或技术路径(jing)(如(ru)开源生态、跨硬件支持(chi))中开辟(pi)细分赛道。
长远来看,其影(ying)响力取决于能(neng)否构建差异化价值(zhi),并突破英(ying)伟达的软硬件协同壁垒。
英(ying)伟达制造端的“护城河”始于历史演进(jin),也必将(jiang)符合(he)历史进(jin)程(cheng)的辩证法。
英(ying)伟达和台积(ji)电这两家过去20多年是两株根(gen)系交缠(chan)的常青藤,但这不意味着那些被信任浇灌的藤蔓不会褪色,在(zai)AI模(mo)型从(cong)训练到推理应用大规模(mo)迁移的微(wei)妙时(shi)刻,裂痕(hen)像午夜窗棂的冰花,在(zai)月光(guang)下折射出锋利的棱角,契约书上的墨迹突然开始游动,每个标点都在(zai)宣纸背面长出锯(ju)齿。
裂纹在(zai)出现(xian)。
最致命的那道裂纹往往开始于心脏背面,在(zai)硬科技行业中我们(men)已经见证了太多,诸如(ru)格芯和IBM,英(ying)特尔和诺基亚......当猜忌的孢子乘着沉默(mo)的风(feng),在(zai)曾经透(tou)明的默(mo)契里悄然着陆——直到某天整座瓷器轰然崩解(jie),我们(men)才看清每块碎片里都冻着未曾启齿的疑(yi)云。
来源|心智(zhi)观察所
观察者网两部作品进(jin)入中国正能(neng)量网络精(jing)品评选
欢迎大家积(ji)极投(tou)票!