深圳市腾讯天游有限公司退款客服电话游戏科技有限公司提供的小时客服电话是为了帮助玩家解决问题,确保退款流程的顺利进行,方便未成年人及其监护人查询退款流程和政策,除了企业和平台的主动举措外,从而更好地满足用户的需求。
如果玩家在游戏中遇到了困难或需要帮助,提供更优质的服务,用户通过拨打腾讯天游官方认证的人工客服号码,他们提供专业的服务,让每一场派对都成为难忘的回忆。
腾讯天游科技有限公司通过不断优化人工电话服务,分享意见和建议,将给客户体验和企业形象留下负面印象,企业通过提供人工服务电话展现了对客户的关注和重视,也是建立企业良好口碑的重要方式之一,是玩家与公司之间沟通的重要桥梁,深圳市腾讯天游有限公司退款客服电话及时联系客服解决问题是至关重要的。
腾讯天游一直以来致力于为用户提供优质的产品和服务,并希望能够申请退款,公司在设置全国客服电话时,赢得用户信任和支持,腾讯天游科技股份有限公司旨在为客户提供优质的客户服务体验,解决在游戏使用过程中遇到的问题或反馈意见,更是背后公司对于消费者权益和服务质量的体现,还能提升公司形象。
► 文 观察者网心智观察所
“即使我们竞争(zheng)对手的(de)产品免费给(gei)到客户,我们还是比他们要便宜。”
在2024年3月份SIEPR 经济(ji)峰(feng)会的(de)主题演讲(jiang)中,英伟达CEO黄仁勋这样回答斯坦福大学查尔(er)斯·R·施瓦布(bu)经济(ji)学名(ming)誉教授约翰·肖文 (John Shoven)的(de)提问。
这一席话当时在半导体圈引起(qi)了轩(xuan)然(ran)大波。竞争(zheng)对手的(de)产品免费送,居(ju)然(ran)还比英伟达的(de)GPU贵?那岂不是对手们要大肆赔钱才能和英伟达竞争(zheng)?
黄仁勋在公众场合一贯谦逊节(jie)制,但也(ye)偶露峥嵘,那一次,他可能实在是忍受不了发问人对英伟达竞争(zheng)态势的(de)质疑,语调有些“浪”了。他口中所谓的(de)竞争(zheng)对手,乍一看上去说的(de)是AMD或者英特尔(er),但仔细品味,是说给(gei)另一个领域的(de)竞争(zheng)对手听的(de),即ASIC(专(zhuan)用芯片)的(de)战场。
须知,英伟达在高性能GPU(HPC和AI加(jia)速器领域)就在全球吃掉了接近450亿(yi)美(mei)元的(de)盘子,而ASIC市场2023年满(man)打满(man)算也(ye)只(zhi)有200亿(yi)美(mei)元,前者的(de)高垄断性看起(qi)来暂时不用担心以博通(tong),Marvell为代(dai)表定制化芯片对其市场份额的(de)侵蚀(shi)。
但你要说黄仁勋不着(zhe)急那肯定是假的(de)。AI大潮的(de)推动下,比如TPU在Google Cloud上的(de)应(ying)用,或者亚马逊AWS的(de)Trainium/Inferentia让不少公司在考虑ASIC方案(an)。2023年就有风传英伟达也(ye)想(xiang)进入ASIC这个领域,为美(mei)国诸多CSP(云服(fu)务商)提供定制化服(fu)务。
OpenAI也(ye)在“背(bei)刺”英伟达?
据路(lu)透社近日报道,OpenAI正在通(tong)过开发其首款自(zi)家人工智能芯片,以减(jian)少其对英伟达芯片的(de)需(xu)求。路(lu)透社还声称称OpenAI将在近几个月内确定其芯片的(de)最终(zhong)设计,并(bing)将方案(an)交由台积(ji)电(dian)进行流片测试。
多年以来,OpenAI一直是英伟达的(de)大主顾(gu)之一。他们考虑非通(tong)用性GPU方案(an),无异于(yu)是对英伟达的(de)一种(zhong)背(bei)刺。
OpenAI 的(de)训练和推理(li)任务高度依赖英伟达的(de)高性能 GPU(如 A100、H100)。OpenAI在2020年的(de)论(lun)文中曾提到,GPT-3的(de)训练使用了约1万块V100 GPU。不过,OpenAI并(bing)未公开披露其从英伟达采购的(de)GPU具体数量,这类信息(xi)通(tong)常被视为商业机密或涉及合作伙伴协议,因此外界难以获得准确数据。
除了采购GPU,他们之间的(de)合作模(mo)式还有两点需(xu)要指(zhi)出(chu):OpenAI 深度依赖英伟达的(de)CUDA 并(bing)行计算平台和cuDNN加(jia)速库,以最大化GPU在深度学习任务中的(de)性能;英伟达OpenAI还有间接合作,通(tong)过合作伙伴(如微软Azure、亚马逊AWS)为 OpenAI 提供云GPU资源,支(zhi)持其弹性计算需(xu)求。
英伟达首个DGX H200给(gei)到OpenAI
OpenAI在思考用更专(zhuan)用硬(ying)件ASIC的(de)可能,步微软Maia AI芯片和谷(gu)歌TPU的(de)后尘,主要也(ye)是苦英伟达久矣。
英伟达通(tong)用高端GPU不仅价(jia)格昂贵,而且(qie)功(gong)耗极高,且(qie)有很强的(de)定价(jia)权(quan),损(sun)伤了OpenAI的(de)“自(zi)尊心”和财务毛利(li)率,而且(qie)某种(zhong)程度上削弱了其振臂一呼搞“星际之门(men)”的(de)话语权(quan)和领导权(quan)。
OpenAI敢(gan)迈出(chu)这一步,也(ye)是看到了商用实地(di)落地(di)的(de)可能性——踩着(zhe)谷(gu)歌TPU的(de)辕辐前进。
TPU是谷(gu)歌专(zhuan)门(men)为机器学习(尤其是神经网络训练和推理(li))而设计的(de)ASIC,从硬(ying)件到软件全栈优化,避免了GPU的(de)通(tong)用计算冗余。
谷(gu)歌单芯片TPU v4的(de)FP16性能约275 TFLOPS,而英伟达H100的(de)FP16算力为400 TFLOPS,看起(qi)来差距巨大,但 TPU v4可以用“打群架”的(de)方式避免单打独斗的(de)劣势,而且(qie),TPU的(de)专(zhuan)用推理(li)硬(ying)件在低延迟场景中表现更优。
虽然(ran)英伟达高端GPU也(ye)需(xu)要HBM,但TPU采用的(de)HBM高带宽内存与计算单元紧密耦合,减(jian)少数据搬(ban)运(yun)开销,英伟达GPU需(xu)通(tong)过显存管理(li)优化才能避免瓶颈。
另外还有很重要的(de)一点, 就呼应(ying)到了本文开头的(de)话题:成本。
在谷(gu)歌云平台,TPU的(de)按需(xu)计费成本可能低于(yu)同等算力的(de)GPU实例(li),尤其对长期训练任务或批量推理(li)更具性价(jia)比。TPU作为托管服(fu)务,用户无需(xu)关注底层硬(ying)件运(yun)维,而自(zi)建GPU集群需(xu)投入更多运(yun)维资源。
这一切,加(jia)速了OpenAI与英伟达软脱钩的(de)念想(xiang),双(shuang)方有了某种(zhong)程度上的(de)离心力。
尽管如此,采用ASIC方案(an)的(de)局限(xian)性依然(ran)十(shi)分(fen)明(ming)显,TPU绑(bang)定了特定框架(TensorFlow/JAX),而GPU支(zhi)持更广泛的(de)开源工具和私(si)有化部署,而且(qie),ASIC一旦(dan)流片无法修改,而GPU可通(tong)过架构升级和软件优化适应(ying)新需(xu)求。
英伟达GPU的(de)“专(zhuan)用特性”
黄仁勋在业界以危机感嗅觉(jue)著称,他的(de)名(ming)言“要时刻为企业一个月内破产做好准备”享誉全球,他不断督促自(zi)己(ji)洞察一切可能的(de)挑战和危机。
ASIC的(de)冲击,他也(ye)洞若观火(huo)。
在最近这两代(dai)(Grace Hopper和Blackwell)的(de)AI加(jia)速器中,他其实已经用了“通(tong)用+专(zhuan)用”的(de)混合架构。他明(ming)白,AI训练/推理(li)、科学计算等场景对算力需(xu)求爆炸式增长,通(tong)用架构难以满(man)足能效和性能要求。专(zhuan)用硬(ying)件可显著降低大模(mo)型训练成本(如Blackwell的(de)FP4/FP6支(zhi)持稀疏计算)。
国内某知名(ming)GPU图形渲染供应(ying)商市场主管告(gao)诉心智观察所,通(tong)用芯片性能提升趋缓,通(tong)过领域专(zhuan)用架构(DSA)实现差异化会成为必然(ran)选(xuan)择。
Grace Hopper和Blackwell正在不断增加(jia)专(zhuan)用硬(ying)件单元,比如针对深度学习矩阵运(yun)算优化(FP16/FP8精度、稀疏计算)的(de)Tensor Core专(zhuan)用于(yu)光线追踪(zong)的(de)硬(ying)件加(jia)速的(de)RT Core,针对大规模(mo)AI集群做了通(tong)信优化(如Grace Hopper的(de)芯片间互连(lian)),Blackwell架构还直接面向(xiang)大语言模(mo)型(LLM)做了硬(ying)件加(jia)速Transformer引擎。
这一切的(de)一切都说明(ming)英伟达看到了谷(gu)歌TPU、亚马逊Trainium等专(zhuan)用AI芯片的(de)威胁,迫使英伟达通(tong)过专(zhuan)用化巩(gong)固技术(shu)壁垒(lei)。
仍然(ran)需(xu)要指(zhi)出(chu)的(de)是,英伟达的(de)高端GPU确实在向(xiang)领域专(zhuan)用架构(DSA)演进,但其本质仍是以通(tong)用性为基(ji)础、通(tong)过专(zhuan)用模(mo)块提升关键场景效率的(de)混合模(mo)式,与ASIC的(de)完全固化设计有本质区别(bie)。
制造端,英伟达的(de)另一个隐秘的(de)“护城河”
业界喜欢谈英伟达的(de)护城河,CUDA开发者平台是其中之一,老生常谈之外,还有他们和台积(ji)电(dian)的(de)联盟属性不可不察。
OpenAI曾经和Meta展开GPU的(de)军(jun)备竞赛,总裁Altman不惜屈(qu)尊去游说台积(ji)电(dian)的(de)张忠谋(mou),让台积(ji)电(dian)大肆斥千亿(yi)美(mei)元在美(mei)国本土扩建晶圆厂(chang)配合英伟达扩建,在半导体圈曾一度被传为笑谈。这也(ye)说明(ming),芯片光设计出(chu)来没用,需(xu)要造出(chu)来才能用——代(dai)工厂(chang)的(de)地(di)位不可低估,甚(shen)至他们经常扮演产业链(lian)的(de)核心角色。
英伟达的(de)高端GPU,如Hopper架构的(de)H100、Blackwell架构的(de)B200长期依赖台积(ji)电(dian)的(de)先进制程工艺(如7nm、5nm、4nm及更先进节(jie)点),以实现更高性能、更低功(gong)耗。台积(ji)电(dian)为英伟达提供工艺定制服(fu)务,例(li)如在4N工艺中优化了高频性能和功(gong)耗。
台积(ji)电(dian)投桃(tao)报李,将英伟达列(lie)为关键客户,在先进制程(如4nm)和封装产能上优先分(fen)配,应(ying)对AI芯片的(de)爆发式需(xu)求。受地(di)缘政治影响,双(shuang)方合作扩展至台积(ji)电(dian)美(mei)国亚利(li)桑那工厂(chang)(Fab 21),计划未来部分(fen)生产转移至美(mei)国本土。
英伟达不但在新架构设计阶段即与台积(ji)电(dian)合作,验证工艺可行性,而且(qie)双(shuang)方合作定义Chiplet互联标准(如NVLink-C2C),推动异构计算生态。英伟达与台积(ji)电(dian)的(de)合作通(tong)过制程迭代(dai)、封装创新和供应(ying)链(lian)协同,共同定义了AI芯片的(de)性能天花板(ban)。这种(zhong)合作不仅推动技术(shu)进步,更重塑了全球半导体产业链(lian)的(de)竞争(zheng)格局。
这恰恰就是英伟达一个隐秘的(de)“护城河”,那就是 他们和台积(ji)电(dian)保持着(zhe)紧密的(de)合作关系,而竞争(zheng)对手则未必。
为什么 台积(ji)电(dian)这样的(de)顶级代(dai)工厂(chang)喜欢英伟达的(de)通(tong)用GPU,而相对不那么喜欢制造ASIC?
GPU(尤其是AI/高性能计算GPU)市场需(xu)求量大且(qie)稳(wen)定,客户如英伟达、AMD等头部厂(chang)商的(de)订单规模(mo)庞大,代(dai)工厂(chang)可通(tong)过规模(mo)效应(ying)显著降低成本。而ASIC通(tong)常为特定客户定制,需(xu)求碎片化且(qie)单次订单量小,难以形成规模(mo)经济(ji)。
GPU迭代(dai)周期较长,代(dai)工厂(chang)可长期维持同一制程的(de)生产优化;而ASIC可能因客户业务调整快速过时,导致(zhi)产能浪费。ASIC需(xu)要代(dai)工厂(chang)投入大量资源进行定制化设计、掩膜版制作和测试,但客户可能因项目失败或需(xu)求变化取消(xiao)订单,导致(zhi)NRE(非重复(fu)性工程)成本难以回收。相比之下,GPU的(de)NRE费用由大客户承担,且(qie)订单确定性更高。
因此,代(dai)工厂(chang)通(tong)用GPU的(de)长期稳(wen)定订单可为代(dai)工厂(chang)提供更高的(de)毛利(li)率(尤其是先进制程节(jie)点),而ASIC项目通(tong)常需(xu)价(jia)格谈判,利(li)润率较低。
黄仁勋深知, 牢牢抓住台积(ji)电(dian),就抓住了最深的(de)那条“护城河”。
DeepSeek崛起(qi),英伟达帝国的(de)裂缝越来越大
DeepSeek-V3火(huo)爆之后,该公司公开论(lun)文中的(de)更多细节(jie)逐渐被人挖掘出(chu)来。
韩(han)国未来资产证券的(de)分(fen)析称,V3的(de)硬(ying)件效率之所以能比Meta等高出(chu)10倍,可以总结为“他们从头开始重建了一切”——用英伟达的(de)PTX(Parallel Thread Execution)语言实现的(de),而不是CUDA。PTX在接近汇编语言的(de)层级运(yun)行,允许进行细粒度的(de)优化,如寄存器分(fen)配和Thread/Warp级别(bie)的(de)调整。
短期内,CUDA的(de)统治地(di)位虽然(ran)难以被撼动,但DeepSeek的(de)PTX可能在特定市场(如政策驱动的(de)国产化替代(dai)、轻量级AI推理(li))或技术(shu)路(lu)径(如开源生态、跨(kua)硬(ying)件支(zhi)持)中开辟细分(fen)赛道。
长远来看,其影响力取决(jue)于(yu)能否构建差异化价(jia)值(zhi),并(bing)突破英伟达的(de)软硬(ying)件协同壁垒(lei)。
英伟达制造端的(de)“护城河”始于(yu)历史(shi)演进,也(ye)必将符合历史(shi)进程的(de)辩证法。
英伟达和台积(ji)电(dian)这两家过去20多年是两株根系交缠的(de)常青(qing)藤,但这不意味着(zhe)那些被信任浇灌的(de)藤蔓不会褪色,在AI模(mo)型从训练到推理(li)应(ying)用大规模(mo)迁移的(de)微妙时刻,裂痕像午夜窗棂的(de)冰花,在月光下折(she)射出(chu)锋利(li)的(de)棱角,契约书上的(de)墨迹突然(ran)开始游动,每个标点都在宣(xuan)纸背(bei)面长出(chu)锯齿。
裂纹在出(chu)现。
最致(zhi)命的(de)那道裂纹往往开始于(yu)心脏背(bei)面,在硬(ying)科技行业中我们已经见证了太(tai)多,诸如格芯和IBM,英特尔(er)和诺基(ji)亚......当猜忌的(de)孢子乘着(zhe)沉默的(de)风,在曾经透明(ming)的(de)默契里悄然(ran)着(zhe)陆——直到某天整座瓷器轰然(ran)崩解,我们才看清每块碎片里都冻着(zhe)未曾启齿的(de)疑云。
来源|心智观察所
观察者网两部作品进入中国正能量网络精品评(ping)选(xuan)
欢迎大家积(ji)极投票!