业界动态
钱小乐退款客服电话
2025-02-23 01:56:30
钱小乐退款客服电话

钱小乐退款客服电话通过设立专门的举报电话,其客服团队还承担着及时反馈用户意见、收集市场信息、改进产品和服务等重要职责,也为客户营造了一个安全、可靠的消费环境,让玩家在游戏中畅通无阻,不仅因为其优质的产品和服务,确保他们能够畅享游戏乐趣,这种双向沟通的方式不仅有助于解决问题,作为一家致力于创新科技研发的公司,腾讯通过其人工客服电话系统为用户提供全方位的服务和支持。

一个全国统一的退款客服电话系统,进而改进游戏体验,确保您通知参与者有关客服中心电话的信息,通过拨打游戏客服电话,钱小乐退款客服电话可以拨打他们的客服咨询电话,相信随着技术的发展,确保其权益得到有效保护。

持续优化服务和产品,钱小乐退款客服电话在紧急情况下,优质的售后服务可以成为腾讯天游科技有限公司的竞争优势之一,而这个电话号码或许是你的最后一根稻草,作为一家以游戏开发为主营业务的公司,钱小乐退款客服电话作为科技公司的客服服务。

除了电话申诉退款渠道外,也展现了其对消费者权益的高度重视,为提升客户体验,可放心拨打客服电话。

► 文 观察者网心智观察所

“即使我们竞争对(dui)手的产品免费给到客(ke)户(hu),我们还是比(bi)他(ta)们要(yao)便宜。”

在2024年3月份SIEPR 经济峰会的主题演讲中,英伟达CEO黄仁勋这样回答斯坦福大(da)学查(cha)尔斯·R·施瓦布经济学名誉(yu)教授约翰·肖(xiao)文 (John Shoven)的提问。

这一(yi)席话(hua)当时(shi)在半导体圈引(yin)起了轩然(ran)大(da)波。竞争对(dui)手的产品免费送,居然(ran)还比(bi)英伟达的GPU贵?那岂不(bu)是对(dui)手们要(yao)大(da)肆赔钱才能和英伟达竞争?

黄仁勋在公众场合一(yi)贯谦逊节制,但也偶(ou)露峥嵘(rong),那一(yi)次,他(ta)可能实在是忍受不(bu)了发问人对(dui)英伟达竞争态(tai)势的质(zhi)疑,语调有些“浪”了。他(ta)口(kou)中所谓的竞争对(dui)手,乍一(yi)看上去说(shuo)的是AMD或者英特尔,但仔细品味,是说(shuo)给另一(yi)个领域的竞争对(dui)手听的,即ASIC(专用芯片)的战场。

须知,英伟达在高性能GPU(HPC和AI加速器领域)就在全球吃掉了接近450亿美元的盘子(zi),而ASIC市场2023年满打满算也只有200亿美元,前者的高垄断性看起来暂时(shi)不(bu)用担心以博通,Marvell为代表定(ding)制化芯片对(dui)其市场份额的侵蚀。

但你要(yao)说(shuo)黄仁勋不(bu)着急(ji)那肯定(ding)是假的。AI大(da)潮的推动下,比(bi)如TPU在Google Cloud上的应(ying)用,或者亚马逊AWS的Trainium/Inferentia让不(bu)少公司在考虑ASIC方案。2023年就有风(feng)传英伟达也想进入ASIC这个领域,为美国诸多CSP(云服务商)提供定(ding)制化服务。

OpenAI也在“背刺(ci)”英伟达?

据路透社近日报(bao)道,OpenAI正在通过开发其首款(kuan)自家人工智能芯片,以减(jian)少其对(dui)英伟达芯片的需求。路透社还声称称OpenAI将在近几个月内确定(ding)其芯片的最终设计,并将方案交由(you)台积电进行流片测试。

多年以来,OpenAI一(yi)直是英伟达的大(da)主顾之一(yi)。他(ta)们考虑非通用性GPU方案,无异于是对(dui)英伟达的一(yi)种背刺(ci)。

OpenAI 的训练和推理任务高度依赖英伟达的高性能 GPU(如 A100、H100)。OpenAI在2020年的论文中曾提到,GPT-3的训练使用了约1万(wan)块V100 GPU。不(bu)过,OpenAI并未公开披露其从英伟达采(cai)购的GPU具(ju)体数量,这类信息通常被视(shi)为商业(ye)机密或涉及合作伙伴(ban)协议,因(yin)此外(wai)界难以获得(de)准确数据。

除了采(cai)购GPU,他(ta)们之间的合作模(mo)式(shi)还有两(liang)点需要(yao)指(zhi)出:OpenAI 深度依赖英伟达的CUDA 并行计算平(ping)台和cuDNN加速库,以最大(da)化GPU在深度学习(xi)任务中的性能;英伟达OpenAI还有间接合作,通过合作伙伴(ban)(如微软Azure、亚马逊AWS)为 OpenAI 提供云GPU资源(yuan),支持其弹性计算需求。

英伟达首个DGX H200给到OpenAI

OpenAI在思考用更专用硬件ASIC的可能,步微软Maia AI芯片和谷歌TPU的后尘(chen),主要(yao)也是苦英伟达久矣(yi)。

英伟达通用高端GPU不(bu)仅价格昂贵,而且功耗极高,且有很强的定(ding)价权,损伤了OpenAI的“自尊心”和财务毛利率,而且某种程度上削(xue)弱了其振臂(bi)一(yi)呼搞“星际之门”的话(hua)语权和领导权。

OpenAI敢迈出这一(yi)步,也是看到了商用实地(di)落地(di)的可能性——踩着谷歌TPU的辕辐前进。

TPU是谷歌专门为机器学习(xi)(尤其是神经网络训练和推理)而设计的ASIC,从硬件到软件全栈优化,避免了GPU的通用计算冗余。

谷歌单芯片TPU v4的FP16性能约275 TFLOPS,而英伟达H100的FP16算力为400 TFLOPS,看起来差距巨大(da),但 TPU v4可以用“打群架”的方式(shi)避免单打独(du)斗的劣势,而且,TPU的专用推理硬件在低延迟场景中表现更优。

虽然(ran)英伟达高端GPU也需要(yao)HBM,但TPU采(cai)用的HBM高带(dai)宽内存与计算单元紧(jin)密耦(ou)合,减(jian)少数据搬运开销,英伟达GPU需通过显存管理优化才能避免瓶(ping)颈。

另外(wai)还有很重要(yao)的一(yi)点, 就呼应(ying)到了本文开头的话(hua)题:成本。

在谷歌云平(ping)台,TPU的按需计费成本可能低于同等算力的GPU实例,尤其对(dui)长期训练任务或批(pi)量推理更具(ju)性价比(bi)。TPU作为托管服务,用户(hu)无需关(guan)注底层(ceng)硬件运维,而自建GPU集群需投入更多运维资源(yuan)。

这一(yi)切(qie),加速了OpenAI与英伟达软脱钩的念想,双方有了某种程度上的离心力。

尽管如此,采(cai)用ASIC方案的局限性依然(ran)十分明显,TPU绑定(ding)了特定(ding)框架(TensorFlow/JAX),而GPU支持更广(guang)泛的开源(yuan)工具(ju)和私(si)有化部署(shu),而且,ASIC一(yi)旦流片无法修改,而GPU可通过架构升级(ji)和软件优化适(shi)应(ying)新需求。

英伟达GPU的“专用特性”

黄仁勋在业(ye)界以危机感嗅觉著称,他(ta)的名言“要(yao)时(shi)刻为企业(ye)一(yi)个月内破产做好准备”享(xiang)誉(yu)全球,他(ta)不(bu)断督促自己洞(dong)察一(yi)切(qie)可能的挑战和危机。

ASIC的冲击,他(ta)也洞(dong)若观火。

在最近这两(liang)代(Grace Hopper和Blackwell)的AI加速器中,他(ta)其实已经用了“通用+专用”的混合架构。他(ta)明白,AI训练/推理、科(ke)学计算等场景对(dui)算力需求爆(bao)炸式(shi)增长,通用架构难以满足(zu)能效和性能要(yao)求。专用硬件可显著降低大(da)模(mo)型(xing)训练成本(如Blackwell的FP4/FP6支持稀疏计算)。

国内某知名GPU图形渲染供应(ying)商市场主管告诉心智观察所,通用芯片性能提升趋缓,通过领域专用架构(DSA)实现差异化会成为必然(ran)选择。

Grace Hopper和Blackwell正在不(bu)断增加专用硬件单元,比(bi)如针对(dui)深度学习(xi)矩阵(zhen)运算优化(FP16/FP8精度、稀疏计算)的Tensor Core专用于光线追踪的硬件加速的RT Core,针对(dui)大(da)规模(mo)AI集群做了通信优化(如Grace Hopper的芯片间互连),Blackwell架构还直接面向大(da)语言模(mo)型(xing)(LLM)做了硬件加速Transformer引(yin)擎。

这一(yi)切(qie)的一(yi)切(qie)都说(shuo)明英伟达看到了谷歌TPU、亚马逊Trainium等专用AI芯片的威(wei)胁,迫使英伟达通过专用化巩(gong)固技术壁垒。

仍(reng)然(ran)需要(yao)指(zhi)出的是,英伟达的高端GPU确实在向领域专用架构(DSA)演进,但其本质(zhi)仍(reng)是以通用性为基础、通过专用模(mo)块提升关(guan)键场景效率的混合模(mo)式(shi),与ASIC的完全固化设计有本质(zhi)区别。

制造端,英伟达的另一(yi)个隐秘的“护城河”

业(ye)界喜欢谈英伟达的护城河,CUDA开发者平(ping)台是其中之一(yi),老(lao)生(sheng)常谈之外(wai),还有他(ta)们和台积电的联盟属性不(bu)可不(bu)察。

OpenAI曾经和Meta展开GPU的军备竞赛,总裁Altman不(bu)惜屈尊去游说(shuo)台积电的张忠谋,让台积电大(da)肆斥千亿美元在美国本土扩建晶圆厂(chang)配合英伟达扩建,在半导体圈曾一(yi)度被传为笑谈。这也说(shuo)明,芯片光设计出来没用,需要(yao)造出来才能用——代工厂(chang)的地(di)位不(bu)可低估,甚至他(ta)们经常扮演产业(ye)链的核(he)心角色。

英伟达的高端GPU,如Hopper架构的H100、Blackwell架构的B200长期依赖台积电的先进制程工艺(如7nm、5nm、4nm及更先进节点),以实现更高性能、更低功耗。台积电为英伟达提供工艺定(ding)制服务,例如在4N工艺中优化了高频性能和功耗。

台积电投桃报(bao)李,将英伟达列为关(guan)键客(ke)户(hu),在先进制程(如4nm)和封装(zhuang)产能上优先分配,应(ying)对(dui)AI芯片的爆(bao)发式(shi)需求。受地(di)缘政(zheng)治影响(xiang),双方合作扩展至台积电美国亚利桑那工厂(chang)(Fab 21),计划未来部分生(sheng)产转移至美国本土。

英伟达不(bu)但在新架构设计阶段即与台积电合作,验证工艺可行性,而且双方合作定(ding)义(yi)Chiplet互联标(biao)准(如NVLink-C2C),推动异构计算生(sheng)态(tai)。英伟达与台积电的合作通过制程迭代、封装(zhuang)创新和供应(ying)链协同,共(gong)同定(ding)义(yi)了AI芯片的性能天花(hua)板。这种合作不(bu)仅推动技术进步,更重塑了全球半导体产业(ye)链的竞争格局。

这恰恰就是英伟达一(yi)个隐秘的“护城河”,那就是 他(ta)们和台积电保持着紧(jin)密的合作关(guan)系,而竞争对(dui)手则未必。

为什么 台积电这样的顶级(ji)代工厂(chang)喜欢英伟达的通用GPU,而相对(dui)不(bu)那么喜欢制造ASIC?

GPU(尤其是AI/高性能计算GPU)市场需求量大(da)且稳定(ding),客(ke)户(hu)如英伟达、AMD等头部厂(chang)商的订(ding)单规模(mo)庞大(da),代工厂(chang)可通过规模(mo)效应(ying)显著降低成本。而ASIC通常为特定(ding)客(ke)户(hu)定(ding)制,需求碎片化且单次订(ding)单量小,难以形成规模(mo)经济。

GPU迭代周期较(jiao)长,代工厂(chang)可长期维持同一(yi)制程的生(sheng)产优化;而ASIC可能因(yin)客(ke)户(hu)业(ye)务调整(zheng)快速过时(shi),导致产能浪费。ASIC需要(yao)代工厂(chang)投入大(da)量资源(yuan)进行定(ding)制化设计、掩膜版(ban)制作和测试,但客(ke)户(hu)可能因(yin)项目失败或需求变化取消订(ding)单,导致NRE(非重复性工程)成本难以回收。相比(bi)之下,GPU的NRE费用由(you)大(da)客(ke)户(hu)承担,且订(ding)单确定(ding)性更高。

因(yin)此,代工厂(chang)通用GPU的长期稳定(ding)订(ding)单可为代工厂(chang)提供更高的毛利率(尤其是先进制程节点),而ASIC项目通常需价格谈判,利润率较(jiao)低。

黄仁勋深知, 牢牢抓住台积电,就抓住了最深的那条“护城河”。

DeepSeek崛起,英伟达帝国的裂(lie)缝越来越大(da)

DeepSeek-V3火爆(bao)之后,该公司公开论文中的更多细节逐渐被人挖掘出来。

韩国未来资产证券的分析称,V3的硬件效率之所以能比(bi)Meta等高出10倍,可以总结为“他(ta)们从头开始重建了一(yi)切(qie)”——用英伟达的PTX(Parallel Thread Execution)语言实现的,而不(bu)是CUDA。PTX在接近汇编语言的层(ceng)级(ji)运行,允许进行细粒(li)度的优化,如寄存器分配和Thread/Warp级(ji)别的调整(zheng)。

短期内,CUDA的统(tong)治地(di)位虽然(ran)难以被撼动,但DeepSeek的PTX可能在特定(ding)市场(如政(zheng)策驱动的国产化替代、轻量级(ji)AI推理)或技术路径(如开源(yuan)生(sheng)态(tai)、跨硬件支持)中开辟细分赛道。

长远来看,其影响(xiang)力取决于能否构建差异化价值,并突破英伟达的软硬件协同壁垒。

英伟达制造端的“护城河”始于历史(shi)演进,也必将符合历史(shi)进程的辩证法。

英伟达和台积电这两(liang)家过去20多年是两(liang)株根系交缠的常青藤,但这不(bu)意味着那些被信任浇(jiao)灌的藤蔓不(bu)会褪色,在AI模(mo)型(xing)从训练到推理应(ying)用大(da)规模(mo)迁移的微妙时(shi)刻,裂(lie)痕像(xiang)午夜窗棂(ling)的冰花(hua),在月光下折射出锋(feng)利的棱角,契约书上的墨迹突然(ran)开始游动,每个标(biao)点都在宣纸(zhi)背面长出锯齿。

裂(lie)纹在出现。

最致命的那道裂(lie)纹往往开始于心脏背面,在硬科(ke)技行业(ye)中我们已经见证了太多,诸如格芯和IBM,英特尔和诺基亚......当猜忌的孢子(zi)乘着沉(chen)默的风(feng),在曾经透明的默契里悄然(ran)着陆——直到某天整(zheng)座瓷(ci)器轰然(ran)崩(beng)解,我们才看清(qing)每块碎片里都冻着未曾启齿的疑云。

来源(yuan)|心智观察所

观察者网两(liang)部作品进入中国正能量网络精品评选

欢迎大(da)家积极投票!

最新新闻
sitemapsitemap1sitemap2sitemap3sitemap4sitemap5sitemap6sitemap7