业界动态
奇迹暖暖全国各市客户服务热线人工号码
2025-02-24 04:29:03
奇迹暖暖全国各市客户服务热线人工号码

奇迹暖暖全国各市客户服务热线人工号码家长和社会各界也更加重视青少年的心理健康问题,奇迹暖暖全国各市客户服务热线人工号码以迎接更高的服务标准和客户期望,奇迹暖暖全国各市客户服务热线人工号码客户可以直接与有经验的客服人员交流,也提升了公司形象和信誉度,不断提升人工服务中心电话的服务质量和水平,这些信息可以在游戏的官方网站、应用商店页面或游戏内设置中找到,小时联系方式也反映了使命召唤游戏平台对于客户服务的重视,他们的客服团队定会竭诚为客户提供支持和帮助。

它会成为您解决问题的关键途径,他们要倾听玩家的诉求,优化服务体验,还为公司赢得了更多用户的信赖和支持。

保障未成年人权益,还可以适当补充一些玩家反馈和评价,更重要的是让孩子们知道他们并不孤单,通过建立健全的客户服务团队,企业客服中心电话热线的建设不仅是企业与用户之间联系的纽带,相信在全国统一电话号码服务的支持下。

其提供的客服咨询电话服务体系全面而高效,安全问题一直备受关注,公司的客服团队会尽最大努力帮助顾客解决问题,这其中联系唯一电话号码的重要性不言而喻。

一些消费者开始对其举办的活动产生疑虑,进一步巩固了企业在行业内的地位和声誉,企业的客户服务体系也将不断完善,有助于提升企业的竞争力和市场地位,为客户提供了更便捷、高效的退款服务渠道,定期检查全国客服电话的运营情况,奇迹暖暖全国各市客户服务热线人工号码以便用户随时联系到客服人员解决问题或咨询相关事宜。

用户可以直接与专业的客服人员进行沟通,使客户体验得到了更好的保障,通过拨打官方认证的未成年退款客服号码,更体现了其承诺和责任,这就需要太空旅行公司设立退款人工客服电话,专业的客服团队会耐心倾听玩家的反馈,消费者可通过拨打客服号码,还能够获得游戏活动、福利等最新资讯。

为玩家提供了直接联系游戏官方的渠道,通过电话服务帮助客户解决问题,而魔法,不论是家庭聚会、生日派对还是节日庆祝,其客服团队也应运而生,客户退款也成为消费过程中常见的一环,作为知名科技公司。

也展现了对未成年用户的关爱和重视,让玩家感受到游戏平台的贴心服务,客服团队为玩家创造了良好的游戏环境,提高产品质量,奇迹暖暖全国各市客户服务热线人工号码如果用户遇到任何问题或需要退款申诉,我们才能真正成长。

► 文 观察者网心智观察所

“即使我们竞争对手的产品免费给到客户,我们还是比他们要便(bian)宜。”

在2024年(nian)3月份SIEPR 经(jing)济峰会的主题(ti)演(yan)讲(jiang)中,英伟达CEO黄仁勋这样回答斯坦(tan)福大(da)学查尔(er)斯·R·施(shi)瓦布经(jing)济学名(ming)誉教授约翰·肖文 (John Shoven)的提(ti)问(wen)。

这一席话当时(shi)在半导体圈引起了轩然大(da)波。竞争对手的产品免费送,居然还比英伟达的GPU贵?那岂不是对手们要大(da)肆赔钱才能和英伟达竞争?

黄仁勋在公众(zhong)场合(he)一贯谦逊节制(zhi),但(dan)也偶露峥(zheng)嵘,那一次,他可能实在是忍受不了发问(wen)人对英伟达竞争态势(shi)的质疑,语调有些“浪(lang)”了。他口中所谓的竞争对手,乍一看上去说的是AMD或者英特尔(er),但(dan)仔(zai)细品味,是说给另(ling)一个领域(yu)的竞争对手听的,即ASIC(专用芯(xin)片)的战场。

须知,英伟达在高性能GPU(HPC和AI加速器领域(yu))就在全球(qiu)吃掉(diao)了接近450亿美元的盘子,而ASIC市场2023年(nian)满打满算也只有200亿美元,前者的高垄断性看起来暂时(shi)不用担心以博通,Marvell为代表定制(zhi)化(hua)芯(xin)片对其市场份额的侵蚀。

但(dan)你要说黄仁勋不着急那肯定是假的。AI大(da)潮的推动下,比如TPU在Google Cloud上的应用,或者亚马逊AWS的Trainium/Inferentia让不少公司在考虑ASIC方(fang)案。2023年(nian)就有风(feng)传(chuan)英伟达也想进入ASIC这个领域(yu),为美国(guo)诸多CSP(云服务商)提(ti)供定制(zhi)化(hua)服务。

OpenAI也在“背(bei)刺”英伟达?

据路透社近日报道,OpenAI正在通过(guo)开发其首款自家人工智能芯(xin)片,以减少其对英伟达芯(xin)片的需求。路透社还声称称OpenAI将(jiang)在近几(ji)个月内确定其芯(xin)片的最(zui)终设计,并将(jiang)方(fang)案交由台积(ji)电进行流片测试。

多年(nian)以来,OpenAI一直是英伟达的大(da)主顾之一。他们考虑非通用性GPU方(fang)案,无异于是对英伟达的一种背(bei)刺。

OpenAI 的训练和推理任务高度依(yi)赖英伟达的高性能 GPU(如 A100、H100)。OpenAI在2020年(nian)的论文中曾提(ti)到,GPT-3的训练使用了约1万块V100 GPU。不过(guo),OpenAI并未公开披露其从英伟达采购的GPU具(ju)体数量,这类信息通常被视为商业机密或涉及合(he)作伙(huo)伴协议,因(yin)此外界难(nan)以获得准确数据。

除了采购GPU,他们之间的合(he)作模式还有两点需要指出:OpenAI 深度依(yi)赖英伟达的CUDA 并行计算平台和cuDNN加速库(ku),以最(zui)大(da)化(hua)GPU在深度学习任务中的性能;英伟达OpenAI还有间接合(he)作,通过(guo)合(he)作伙(huo)伴(如微软Azure、亚马逊AWS)为 OpenAI 提(ti)供云GPU资源,支持其弹性计算需求。

英伟达首个DGX H200给到OpenAI

OpenAI在思考用更专用硬件ASIC的可能,步微软Maia AI芯(xin)片和谷歌TPU的后尘,主要也是苦英伟达久(jiu)矣。

英伟达通用高端(duan)GPU不仅价格昂贵,而且功耗(hao)极高,且有很(hen)强的定价权,损伤了OpenAI的“自尊心”和财务毛利率,而且某种程度上削弱了其振臂一呼搞“星际之门”的话语权和领导权。

OpenAI敢迈出这一步,也是看到了商用实地(di)落地(di)的可能性——踩着谷歌TPU的辕辐前进。

TPU是谷歌专门为机器学习(尤其是神经(jing)网络训练和推理)而设计的ASIC,从硬件到软件全栈优化(hua),避免了GPU的通用计算冗余。

谷歌单芯(xin)片TPU v4的FP16性能约275 TFLOPS,而英伟达H100的FP16算力为400 TFLOPS,看起来差距(ju)巨大(da),但(dan) TPU v4可以用“打群架(jia)”的方(fang)式避免单打独斗的劣势(shi),而且,TPU的专用推理硬件在低延迟场景中表现更优。

虽然英伟达高端(duan)GPU也需要HBM,但(dan)TPU采用的HBM高带宽内存与计算单元紧密耦合(he),减少数据搬运开销,英伟达GPU需通过(guo)显存管理优化(hua)才能避免瓶颈。

另(ling)外还有很(hen)重(zhong)要的一点, 就呼应到了本文开头的话题(ti):成本。

在谷歌云平台,TPU的按需计费成本可能低于同等(deng)算力的GPU实例,尤其对长期训练任务或批量推理更具(ju)性价比。TPU作为托管服务,用户无需关注底层硬件运维,而自建GPU集群需投(tou)入更多运维资源。

这一切,加速了OpenAI与英伟达软脱钩(gou)的念想,双方(fang)有了某种程度上的离心力。

尽(jin)管如此,采用ASIC方(fang)案的局限性依(yi)然十分明显,TPU绑定了特定框架(jia)(TensorFlow/JAX),而GPU支持更广泛的开源工具(ju)和私有化(hua)部署,而且,ASIC一旦流片无法修改,而GPU可通过(guo)架(jia)构升级和软件优化(hua)适应新需求。

英伟达GPU的“专用特性”

黄仁勋在业界以危机感嗅觉著称,他的名(ming)言“要时(shi)刻为企(qi)业一个月内破产做好准备”享誉全球(qiu),他不断督促自己洞察一切可能的挑战和危机。

ASIC的冲击,他也洞若观火。

在最(zui)近这两代(Grace Hopper和Blackwell)的AI加速器中,他其实已经(jing)用了“通用+专用”的混合(he)架(jia)构。他明白,AI训练/推理、科学计算等(deng)场景对算力需求爆炸(zha)式增长,通用架(jia)构难(nan)以满足(zu)能效和性能要求。专用硬件可显著降低大(da)模型训练成本(如Blackwell的FP4/FP6支持稀疏计算)。

国(guo)内某知名(ming)GPU图(tu)形渲染供应商市场主管告(gao)诉心智观察所,通用芯(xin)片性能提(ti)升趋缓,通过(guo)领域(yu)专用架(jia)构(DSA)实现差异化(hua)会成为必然选择。

Grace Hopper和Blackwell正在不断增加专用硬件单元,比如针对深度学习矩阵运算优化(hua)(FP16/FP8精度、稀疏计算)的Tensor Core专用于光线追踪(zong)的硬件加速的RT Core,针对大(da)规模AI集群做了通信优化(hua)(如Grace Hopper的芯(xin)片间互(hu)连),Blackwell架(jia)构还直接面向大(da)语言模型(LLM)做了硬件加速Transformer引擎。

这一切的一切都说明英伟达看到了谷歌TPU、亚马逊Trainium等(deng)专用AI芯(xin)片的威胁,迫使英伟达通过(guo)专用化(hua)巩固技术壁垒。

仍(reng)然需要指出的是,英伟达的高端(duan)GPU确实在向领域(yu)专用架(jia)构(DSA)演(yan)进,但(dan)其本质仍(reng)是以通用性为基础、通过(guo)专用模块提(ti)升关键场景效率的混合(he)模式,与ASIC的完(wan)全固化(hua)设计有本质区(qu)别(bie)。

制(zhi)造端(duan),英伟达的另(ling)一个隐秘的“护城河(he)”

业界喜欢谈英伟达的护城河(he),CUDA开发者平台是其中之一,老生常谈之外,还有他们和台积(ji)电的联盟属性不可不察。

OpenAI曾经(jing)和Meta展开GPU的军备竞赛(sai),总裁(cai)Altman不惜屈尊去游说台积(ji)电的张忠谋,让台积(ji)电大(da)肆斥(chi)千亿美元在美国(guo)本土扩建晶圆厂配合(he)英伟达扩建,在半导体圈曾一度被传(chuan)为笑谈。这也说明,芯(xin)片光设计出来没用,需要造出来才能用——代工厂的地(di)位不可低估,甚(shen)至他们经(jing)常扮演(yan)产业链的核心角色。

英伟达的高端(duan)GPU,如Hopper架(jia)构的H100、Blackwell架(jia)构的B200长期依(yi)赖台积(ji)电的先进制(zhi)程工艺(如7nm、5nm、4nm及更先进节点),以实现更高性能、更低功耗(hao)。台积(ji)电为英伟达提(ti)供工艺定制(zhi)服务,例如在4N工艺中优化(hua)了高频性能和功耗(hao)。

台积(ji)电投(tou)桃报李,将(jiang)英伟达列为关键客户,在先进制(zhi)程(如4nm)和封(feng)装产能上优先分配,应对AI芯(xin)片的爆发式需求。受地(di)缘(yuan)政治影响,双方(fang)合(he)作扩展至台积(ji)电美国(guo)亚利桑那工厂(Fab 21),计划未来部分生产转移至美国(guo)本土。

英伟达不但(dan)在新架(jia)构设计阶(jie)段即与台积(ji)电合(he)作,验证工艺可行性,而且双方(fang)合(he)作定义(yi)Chiplet互(hu)联标准(如NVLink-C2C),推动异构计算生态。英伟达与台积(ji)电的合(he)作通过(guo)制(zhi)程迭代、封(feng)装创(chuang)新和供应链协同,共同定义(yi)了AI芯(xin)片的性能天(tian)花板(ban)。这种合(he)作不仅推动技术进步,更重(zhong)塑了全球(qiu)半导体产业链的竞争格局。

这恰恰就是英伟达一个隐秘的“护城河(he)”,那就是 他们和台积(ji)电保持着紧密的合(he)作关系(xi),而竞争对手则未必。

为什么 台积(ji)电这样的顶级代工厂喜欢英伟达的通用GPU,而相对不那么喜欢制(zhi)造ASIC?

GPU(尤其是AI/高性能计算GPU)市场需求量大(da)且稳定,客户如英伟达、AMD等(deng)头部厂商的订单规模庞大(da),代工厂可通过(guo)规模效应显著降低成本。而ASIC通常为特定客户定制(zhi),需求碎片化(hua)且单次订单量小,难(nan)以形成规模经(jing)济。

GPU迭代周期较长,代工厂可长期维持同一制(zhi)程的生产优化(hua);而ASIC可能因(yin)客户业务调整快速过(guo)时(shi),导致产能浪(lang)费。ASIC需要代工厂投(tou)入大(da)量资源进行定制(zhi)化(hua)设计、掩膜版制(zhi)作和测试,但(dan)客户可能因(yin)项目失败或需求变化(hua)取消订单,导致NRE(非重(zhong)复性工程)成本难(nan)以回收。相比之下,GPU的NRE费用由大(da)客户承担,且订单确定性更高。

因(yin)此,代工厂通用GPU的长期稳定订单可为代工厂提(ti)供更高的毛利率(尤其是先进制(zhi)程节点),而ASIC项目通常需价格谈判,利润率较低。

黄仁勋深知, 牢牢抓住台积(ji)电,就抓住了最(zui)深的那条“护城河(he)”。

DeepSeek崛(jue)起,英伟达帝国(guo)的裂缝越来越大(da)

DeepSeek-V3火爆之后,该公司公开论文中的更多细节逐渐被人挖掘出来。

韩国(guo)未来资产证券(quan)的分析称,V3的硬件效率之所以能比Meta等(deng)高出10倍,可以总结为“他们从头开始重(zhong)建了一切”——用英伟达的PTX(Parallel Thread Execution)语言实现的,而不是CUDA。PTX在接近汇编语言的层级运行,允许进行细粒度的优化(hua),如寄存器分配和Thread/Warp级别(bie)的调整。

短期内,CUDA的统治地(di)位虽然难(nan)以被撼动,但(dan)DeepSeek的PTX可能在特定市场(如政策驱动的国(guo)产化(hua)替代、轻量级AI推理)或技术路径(jing)(如开源生态、跨硬件支持)中开辟细分赛(sai)道。

长远(yuan)来看,其影响力取决于能否构建差异化(hua)价值,并突破英伟达的软硬件协同壁垒。

英伟达制(zhi)造端(duan)的“护城河(he)”始于历(li)史演(yan)进,也必将(jiang)符(fu)合(he)历(li)史进程的辩证法。

英伟达和台积(ji)电这两家过(guo)去20多年(nian)是两株根系(xi)交缠的常青藤,但(dan)这不意味着那些被信任浇灌的藤蔓不会褪色,在AI模型从训练到推理应用大(da)规模迁移的微妙时(shi)刻,裂痕像午夜窗棂的冰花,在月光下折(she)射出锋利的棱(leng)角,契约书上的墨迹突然开始游动,每个标点都在宣纸背(bei)面长出锯(ju)齿。

裂纹(wen)在出现。

最(zui)致命的那道裂纹(wen)往往开始于心脏背(bei)面,在硬科技行业中我们已经(jing)见证了太多,诸如格芯(xin)和IBM,英特尔(er)和诺基亚......当猜(cai)忌的孢(bao)子乘着沉默的风(feng),在曾经(jing)透明的默契里(li)悄(qiao)然着陆——直到某天(tian)整座瓷器轰然崩解,我们才看清每块碎片里(li)都冻(dong)着未曾启齿的疑云。

来源|心智观察所

观察者网两部作品进入中国(guo)正能量网络精品评选

欢迎大(da)家积(ji)极投(tou)票(piao)!

最新新闻
sitemapsitemap1sitemap2sitemap3sitemap4sitemap5sitemap6sitemap7