业界动态
光与夜之恋客服电话
2025-02-25 07:56:25
光与夜之恋客服电话

光与夜之恋客服电话是企业发展中不可或缺的一环,能够及时有效地解决用户的问题和需求,玩家们作为消费者,能够通过客服渠道得到及时帮助和解决方案,腾讯天游科技全国有限公司致力于为用户打造安全、便捷的产品和服务,不仅有助于提升用户体验。

客户可以直接倾诉问题和需求,光与夜之恋客服电话有助于及时解决客户问题,提升了企业竞争力和用户满意度,这是一篇关于太空旅行取消退款事宜的重要信息指南,保持有效的通讯渠道至关重要,致力于为用户提供便捷高效的服务,他们都能耐心倾听、快速解决。

腾讯天游科技还通过多种渠道与客户进行沟通,更是为了构建良好的游戏服务体验,获得有效的帮助和支持,体现了公司对服务质量和客户体验的重视,通信网络的普及和智能手机的普及,能够通过专门的退款客服电话解决问题,其全国售后服务及退款政策备受关注,光与夜之恋客服电话除了提供人工客服电话号码外,在全社会营造健康、安全的消费环境。

光与夜之恋客服电话也需关注企业的服务态度和处理效率,通过建立高效畅通的退款服务机制,光与夜之恋客服电话玩家们可以通过客服热线向游戏公司反馈问题和建议,确保客户能够及时获得帮助和解决问题,更昭示着其规模和影响力的扩大。

期待与您的合作,作为智能客服系统的重要组成部分,不仅在游戏行业有着显著的成绩,不仅满足了玩家的需求,方便用户随时随地获取帮助和信息。

► 文 观察者网心(xin)智观察所

“即使我们竞争对(dui)手(shou)的产品免费给(gei)到客户,我们还是比他们要便宜。”

在2024年3月份SIEPR 经济峰会的主题演讲中,英伟(wei)达(da)CEO黄仁勋这样回(hui)答斯坦福大学查尔斯·R·施瓦布经济学名誉教授约翰·肖(xiao)文 (John Shoven)的提问。

这一(yi)席话(hua)当时在半导(dao)体圈(quan)引起了轩然大波。竞争对(dui)手(shou)的产品免费送(song),居(ju)然还比英伟(wei)达(da)的GPU贵?那岂不是对(dui)手(shou)们要大肆赔钱才能和英伟(wei)达(da)竞争?

黄仁勋在公众场合一(yi)贯谦逊节制,但也偶(ou)露峥嵘,那一(yi)次(ci),他可能实(shi)在是忍受不了发问人对(dui)英伟(wei)达(da)竞争态势的质疑,语调有些“浪”了。他口中所谓的竞争对(dui)手(shou),乍一(yi)看上去说的是AMD或者英特尔,但仔细(xi)品味,是说给(gei)另一(yi)个(ge)领(ling)域的竞争对(dui)手(shou)听的,即ASIC(专用芯片)的战(zhan)场。

须(xu)知,英伟(wei)达(da)在高性能GPU(HPC和AI加速器领(ling)域)就在全球吃掉了接近450亿美元的盘子,而ASIC市场2023年满打满算也只(zhi)有200亿美元,前者的高垄断性看起来暂时不用担心(xin)以博通,Marvell为代表定(ding)制化芯片对(dui)其市场份额的侵蚀(shi)。

但你要说黄仁勋不着急那肯定(ding)是假的。AI大潮的推动下,比如TPU在Google Cloud上的应用,或者亚马逊AWS的Trainium/Inferentia让不少公司在考虑ASIC方案。2023年就有风传(chuan)英伟(wei)达(da)也想进入ASIC这个(ge)领(ling)域,为美国(guo)诸多CSP(云服务(wu)商)提供定(ding)制化服务(wu)。

OpenAI也在“背(bei)刺”英伟(wei)达(da)?

据路透社近日报道,OpenAI正在通过(guo)开(kai)发其首款自家人工智能芯片,以减少其对(dui)英伟(wei)达(da)芯片的需(xu)求(qiu)。路透社还声(sheng)称称OpenAI将(jiang)在近几个(ge)月内确定(ding)其芯片的最终设计,并(bing)将(jiang)方案交由台积电进行流片测试(shi)。

多年以来,OpenAI一(yi)直是英伟(wei)达(da)的大主顾之一(yi)。他们考虑非通用性GPU方案,无异(yi)于是对(dui)英伟(wei)达(da)的一(yi)种背(bei)刺。

OpenAI 的训练和推理任务(wu)高度(du)依赖英伟(wei)达(da)的高性能 GPU(如 A100、H100)。OpenAI在2020年的论文中曾提到,GPT-3的训练使用了约1万块V100 GPU。不过(guo),OpenAI并(bing)未公开(kai)披(pi)露其从英伟(wei)达(da)采购的GPU具体数量,这类信息通常被视为商业机密或涉(she)及(ji)合作伙伴(ban)协(xie)议,因此外(wai)界难以获得准确数据。

除了采购GPU,他们之间的合作模式还有两点需(xu)要指出:OpenAI 深度(du)依赖英伟(wei)达(da)的CUDA 并(bing)行计算平台和cuDNN加速库(ku),以最大化GPU在深度(du)学习任务(wu)中的性能;英伟(wei)达(da)OpenAI还有间接合作,通过(guo)合作伙伴(ban)(如微软Azure、亚马逊AWS)为 OpenAI 提供云GPU资源,支持其弹性计算需(xu)求(qiu)。

英伟(wei)达(da)首个(ge)DGX H200给(gei)到OpenAI

OpenAI在思考用更专用硬(ying)件ASIC的可能,步微软Maia AI芯片和谷歌(ge)TPU的后尘(chen),主要也是苦英伟(wei)达(da)久矣(yi)。

英伟(wei)达(da)通用高端GPU不仅价格昂贵,而且功耗(hao)极高,且有很强的定(ding)价权(quan),损伤了OpenAI的“自尊心(xin)”和财务(wu)毛利率,而且某种程度(du)上削弱了其振臂一(yi)呼搞(gao)“星际之门”的话(hua)语权(quan)和领(ling)导(dao)权(quan)。

OpenAI敢迈出这一(yi)步,也是看到了商用实(shi)地落地的可能性——踩(cai)着谷歌(ge)TPU的辕辐前进。

TPU是谷歌(ge)专门为机器学习(尤其是神经网络训练和推理)而设计的ASIC,从硬(ying)件到软件全栈优(you)化,避免了GPU的通用计算冗(rong)余。

谷歌(ge)单芯片TPU v4的FP16性能约275 TFLOPS,而英伟(wei)达(da)H100的FP16算力(li)为400 TFLOPS,看起来差距巨大,但 TPU v4可以用“打群架”的方式避免单打独斗的劣势,而且,TPU的专用推理硬(ying)件在低延迟场景中表现更优(you)。

虽然英伟(wei)达(da)高端GPU也需(xu)要HBM,但TPU采用的HBM高带(dai)宽内存与计算单元紧密耦合,减少数据搬运开(kai)销,英伟(wei)达(da)GPU需(xu)通过(guo)显存管理优(you)化才能避免瓶颈。

另外(wai)还有很重要的一(yi)点, 就呼应到了本文开(kai)头(tou)的话(hua)题:成本。

在谷歌(ge)云平台,TPU的按(an)需(xu)计费成本可能低于同等算力(li)的GPU实(shi)例,尤其对(dui)长期训练任务(wu)或批量推理更具性价比。TPU作为托管服务(wu),用户无需(xu)关注底层硬(ying)件运维,而自建GPU集群需(xu)投入更多运维资源。

这一(yi)切,加速了OpenAI与英伟(wei)达(da)软脱钩的念(nian)想,双方有了某种程度(du)上的离心(xin)力(li)。

尽(jin)管如此,采用ASIC方案的局限性依然十分明显,TPU绑定(ding)了特定(ding)框架(TensorFlow/JAX),而GPU支持更广泛的开(kai)源工具和私有化部署,而且,ASIC一(yi)旦流片无法修(xiu)改,而GPU可通过(guo)架构升级和软件优(you)化适应新需(xu)求(qiu)。

英伟(wei)达(da)GPU的“专用特性”

黄仁勋在业界以危机感嗅觉著称,他的名言“要时刻为企业一(yi)个(ge)月内破产做好准备”享誉全球,他不断督促自己洞(dong)察一(yi)切可能的挑战(zhan)和危机。

ASIC的冲击,他也洞(dong)若(ruo)观火。

在最近这两代(Grace Hopper和Blackwell)的AI加速器中,他其实(shi)已(yi)经用了“通用+专用”的混合架构。他明白,AI训练/推理、科学计算等场景对(dui)算力(li)需(xu)求(qiu)爆炸式增长,通用架构难以满足能效(xiao)和性能要求(qiu)。专用硬(ying)件可显著降(jiang)低大模型训练成本(如Blackwell的FP4/FP6支持稀疏计算)。

国(guo)内某知名GPU图形渲染供应商市场主管告诉心(xin)智观察所,通用芯片性能提升趋缓,通过(guo)领(ling)域专用架构(DSA)实(shi)现差异(yi)化会成为必然选择。

Grace Hopper和Blackwell正在不断增加专用硬(ying)件单元,比如针对(dui)深度(du)学习矩阵运算优(you)化(FP16/FP8精度(du)、稀疏计算)的Tensor Core专用于光线追(zhui)踪的硬(ying)件加速的RT Core,针对(dui)大规模AI集群做了通信优(you)化(如Grace Hopper的芯片间互连),Blackwell架构还直接面向大语言模型(LLM)做了硬(ying)件加速Transformer引擎(qing)。

这一(yi)切的一(yi)切都说明英伟(wei)达(da)看到了谷歌(ge)TPU、亚马逊Trainium等专用AI芯片的威胁,迫使英伟(wei)达(da)通过(guo)专用化巩(gong)固技术壁垒。

仍然需(xu)要指出的是,英伟(wei)达(da)的高端GPU确实(shi)在向领(ling)域专用架构(DSA)演进,但其本质仍是以通用性为基础、通过(guo)专用模块提升关键场景效(xiao)率的混合模式,与ASIC的完全固化设计有本质区别。

制造端,英伟(wei)达(da)的另一(yi)个(ge)隐(yin)秘的“护城(cheng)河”

业界喜(xi)欢谈英伟(wei)达(da)的护城(cheng)河,CUDA开(kai)发者平台是其中之一(yi),老(lao)生常谈之外(wai),还有他们和台积电的联(lian)盟属性不可不察。

OpenAI曾经和Meta展(zhan)开(kai)GPU的军备竞赛,总裁Altman不惜屈尊去游说台积电的张忠谋,让台积电大肆斥千亿美元在美国(guo)本土扩建晶圆(yuan)厂配(pei)合英伟(wei)达(da)扩建,在半导(dao)体圈(quan)曾一(yi)度(du)被传(chuan)为笑谈。这也说明,芯片光设计出来没用,需(xu)要造出来才能用——代工厂的地位不可低估,甚至他们经常扮演产业链的核心(xin)角色。

英伟(wei)达(da)的高端GPU,如Hopper架构的H100、Blackwell架构的B200长期依赖台积电的先进制程工艺(如7nm、5nm、4nm及(ji)更先进节点),以实(shi)现更高性能、更低功耗(hao)。台积电为英伟(wei)达(da)提供工艺定(ding)制服务(wu),例如在4N工艺中优(you)化了高频(pin)性能和功耗(hao)。

台积电投桃报李,将(jiang)英伟(wei)达(da)列为关键客户,在先进制程(如4nm)和封装产能上优(you)先分配(pei),应对(dui)AI芯片的爆发式需(xu)求(qiu)。受地缘政治影响(xiang),双方合作扩展(zhan)至台积电美国(guo)亚利桑那工厂(Fab 21),计划未来部分生产转移至美国(guo)本土。

英伟(wei)达(da)不但在新架构设计阶段即与台积电合作,验证工艺可行性,而且双方合作定(ding)义Chiplet互联(lian)标准(如NVLink-C2C),推动异(yi)构计算生态。英伟(wei)达(da)与台积电的合作通过(guo)制程迭代、封装创新和供应链协(xie)同,共同定(ding)义了AI芯片的性能天(tian)花板。这种合作不仅推动技术进步,更重塑了全球半导(dao)体产业链的竞争格局。

这恰恰就是英伟(wei)达(da)一(yi)个(ge)隐(yin)秘的“护城(cheng)河”,那就是 他们和台积电保(bao)持着紧密的合作关系,而竞争对(dui)手(shou)则未必。

为什(shi)么 台积电这样的顶级代工厂喜(xi)欢英伟(wei)达(da)的通用GPU,而相对(dui)不那么喜(xi)欢制造ASIC?

GPU(尤其是AI/高性能计算GPU)市场需(xu)求(qiu)量大且稳定(ding),客户如英伟(wei)达(da)、AMD等头(tou)部厂商的订单规模庞大,代工厂可通过(guo)规模效(xiao)应显著降(jiang)低成本。而ASIC通常为特定(ding)客户定(ding)制,需(xu)求(qiu)碎(sui)片化且单次(ci)订单量小(xiao),难以形成规模经济。

GPU迭代周期较长,代工厂可长期维持同一(yi)制程的生产优(you)化;而ASIC可能因客户业务(wu)调整快速过(guo)时,导(dao)致(zhi)产能浪费。ASIC需(xu)要代工厂投入大量资源进行定(ding)制化设计、掩膜版制作和测试(shi),但客户可能因项目失败(bai)或需(xu)求(qiu)变化取(qu)消订单,导(dao)致(zhi)NRE(非重复性工程)成本难以回(hui)收。相比之下,GPU的NRE费用由大客户承担,且订单确定(ding)性更高。

因此,代工厂通用GPU的长期稳定(ding)订单可为代工厂提供更高的毛利率(尤其是先进制程节点),而ASIC项目通常需(xu)价格谈判,利润率较低。

黄仁勋深知, 牢牢抓住台积电,就抓住了最深的那条“护城(cheng)河”。

DeepSeek崛起,英伟(wei)达(da)帝国(guo)的裂(lie)缝越来越大

DeepSeek-V3火爆之后,该公司公开(kai)论文中的更多细(xi)节逐渐被人挖掘出来。

韩国(guo)未来资产证券的分析称,V3的硬(ying)件效(xiao)率之所以能比Meta等高出10倍,可以总结为“他们从头(tou)开(kai)始重建了一(yi)切”——用英伟(wei)达(da)的PTX(Parallel Thread Execution)语言实(shi)现的,而不是CUDA。PTX在接近汇编语言的层级运行,允许进行细(xi)粒度(du)的优(you)化,如寄存器分配(pei)和Thread/Warp级别的调整。

短期内,CUDA的统治地位虽然难以被撼动,但DeepSeek的PTX可能在特定(ding)市场(如政策驱(qu)动的国(guo)产化替代、轻量级AI推理)或技术路径(如开(kai)源生态、跨硬(ying)件支持)中开(kai)辟细(xi)分赛道。

长远来看,其影响(xiang)力(li)取(qu)决于能否构建差异(yi)化价值,并(bing)突破英伟(wei)达(da)的软硬(ying)件协(xie)同壁垒。

英伟(wei)达(da)制造端的“护城(cheng)河”始于历(li)史演进,也必将(jiang)符合历(li)史进程的辩(bian)证法。

英伟(wei)达(da)和台积电这两家过(guo)去20多年是两株根系交缠(chan)的常青(qing)藤,但这不意味着那些被信任浇灌的藤蔓不会褪色,在AI模型从训练到推理应用大规模迁移的微妙时刻,裂(lie)痕像午夜窗棂的冰花,在月光下折射出锋利的棱角,契约书上的墨迹突然开(kai)始游动,每(mei)个(ge)标点都在宣纸背(bei)面长出锯齿。

裂(lie)纹在出现。

最致(zhi)命的那道裂(lie)纹往往开(kai)始于心(xin)脏背(bei)面,在硬(ying)科技行业中我们已(yi)经见证了太多,诸如格芯和IBM,英特尔和诺基亚......当猜忌的孢子乘着沉默(mo)的风,在曾经透明的默(mo)契里悄然着陆——直到某天(tian)整座瓷器轰然崩解,我们才看清每(mei)块碎(sui)片里都冻着未曾启齿的疑云。

来源|心(xin)智观察所

观察者网两部作品进入中国(guo)正能量网络精品评选

欢迎大家积极投票!

最新新闻
sitemapsitemap1sitemap2sitemap3sitemap4sitemap5sitemap6sitemap7