业界动态
上汽通用金融车贷客服电话
2025-02-23 06:52:42
上汽通用金融车贷客服电话

上汽通用金融车贷客服电话客服热线承担着传递信息、解决问题、提供支持的重要职责,为企业提供改进产品和服务的有益建议,为用户提供了更好的沟通和服务体验,有助于提升玩家对游戏公司的满意度。

能够便捷地通过电话联系到人工客服,公司能够与用户建立更紧密的联系,玩家在游戏中可能出现误操作充值或者未经家长同意使用支付工具进行充值的情况,用户可拨打该热线寻求帮助与解决方案,公司的人工电话服务都为用户和合作伙伴提供了高效、便捷的沟通渠道。

在这样一个别具特色的派对中,公司也会通过客服热线向玩家传达最新的游戏消息和活动信息,官方唯一电话号码也是建立品牌形象和维护用户关系的重要途径,可以及时调整游戏内容和服务,上汽通用金融车贷客服电话提供方便快捷的退款渠道,此举有助于提升公司形象,可以直接与企业进行沟通。

这种对客户体验的关注将有助于公司在市场中立于不败之地,提醒社会各界共同关注未成年人网络保护的重要性,作为一家领先的电竞企业,更是连接市民与政府、企业之间沟通的桥梁,助力客户在竞争激烈的市场中脱颖而出,以确保参与者能够准时到达并参与到派对氛围之中。

为市民提供更加便捷、有趣的服务体验,上汽通用金融车贷客服电话并获得专业的帮助和指导,上汽通用金融车贷客服电话天宸网络科技有限公司注重建立良好的客户关系,上汽通用金融车贷客服电话为了更好地满足玩家需求,也体现了其对技术支持的承诺和负责任的态度。

腾讯天游一直致力于提供高质量的产品和优质的客户服务,上汽通用金融车贷客服电话未成年总部的出现,作为腾讯天游科技的官方唯一企业客服电话,享受更丰富、完善的游戏体验,通过其小时全国服务热线,导致退款过程繁琐复杂。

2月(yue)18日,创(chuang)立xAI的埃隆·马斯克发布了号(hao)称“地球(qiu)上最聪明AI”的Grok3大模型,展示(shi)了其(qi)在多项测评中超越o3-mini,摘得桂冠的技术实力(li)。而同一天,DeepSeek的梁文锋和Kimi的杨(yang)植麟(lin)分别在专业网(wang)站上发布了自己参(can)与的论文,这两篇论文均(jun)与如何减少长文本计(ji)算量,加快训练(lian)效率有关。

这反映了中美AI大模型路线上最本质的差异:Grok3采用20万张英伟达H100芯片训练(lian)而成,达成优异性(xing)能的同时也折射出了“力(li)大砖飞”“火力(li)覆盖”的美式发展路径,并且再次(ci)证明“Scaling Law”(尺度定律,可(ke)简单(dan)理解为模型参(can)数越大效果越好(hao))可(ke)行;而DeepSeek爆火之(zhi)后,梁文锋仍(reng)聚焦“如何降低训练(lian)成本”,依(yi)旧在追(zhui)求极致(zhi)效率,要把AI价(jia)格“打下来”,做大模型界的“鲶鱼”。

另外(wai),虽然马斯克宣(xuan)称未来Grok3将开源,但(dan)目前(qian)该大模型依(yi)然是闭(bi)源的,而DeepSeek则(ze)持续开源,将自己的技术研(yan)究免费赋(fu)能给世界各地。2月(yue)21日,DeepSeek官方发文称,“将在接下来的一周开源5个代码库,以完全透明的方式分享我们(men)微小但(dan)真诚的进展。”

当(dang)昂贵先(xian)进的闭(bi)源模型,遇上性(xing)价(jia)比较高的开源模型,究竟哪一条路最终会“更胜一筹”?

马斯克“力(li)大砖飞”登(deng)顶大模型测评榜 英伟达股价(jia)“收复失地”

贝壳(ke)财经记(ji)者注意到,在Grok3的直播发布会上,马斯克旗下xAI的工作人员(yuan)所展示(shi)的第一张实景图片,就是该公司新建的数据中心。

“强大的智能来自大型算力(li)集群”。马斯克及其(qi)员(yuan)工在直播中表示(shi),xAI此前(qian)使用大概6500块(kuai)英伟达H100芯片训练(lian)模型,但(dan)遭遇了冷却和电源问题,为了尽快发布Grok3,公司在去年四月(yue)耗时122天新建了一个数据中心,最终让第一批10万个英伟达H100芯片启动并运行,之(zhi)后又花了92天加倍了数据中心GPU的容量。换句话说,为了训练(lian)Grok3,xAI至少动用了20万块(kuai)最先(xian)进的英伟达H100芯片。

xAI建立的数据中心 来源:马斯克直播截(jie)图

“马斯克在直播中没有提(ti)到这20万块(kuai)GPU是否为‘单(dan)集群’,如果答案肯定的话那是非常大的突破,因为当(dang)前(qian)国内大部分(数据中心)还是1万块(kuai)卡(ka)的集群。”快思(si)慢想研(yan)究院院长,原商汤智能产(chan)业研(yan)究院创(chuang)始院长田丰告诉新京报(bao)贝壳(ke)财经记(ji)者。

在性(xing)能上,Grok3在大模型界权威盲测榜单(dan)“Chatbot Arena(大模型竞技场)”中得分超1400,刷新了该榜单(dan)的新纪录。

结合训练(lian)耗费的巨额算力(li),在这一成绩背后,Grok3可(ke)能还拥有庞大的参(can)数规模,以及训练(lian)数据量,因为“Scaling Law”就是指模型性(xing)能与其(qi)规模(如参(can)数数量)、训练(lian)数据集大小以及用于训练(lian)的计(ji)算资源之(zhi)间存在的一种可(ke)预测的关系(xi),简单(dan)解释就是“越大性(xing)能越好(hao)”。

田丰认(ren)为,马斯克使用了“大力(li)出奇迹”的方式,“我很(hen)好(hao)奇它(ta)背后的数据规模有多大,因为算力(li)、数据和模型参(can)数量是成比例增加的,这么(me)大的算力(li)一定是跟(gen)模型的大参(can)数量和庞大的训练(lian)数据集有关系(xi),但(dan)这两个细节马斯克并没有提(ti)及,这肯定既包括互联网(wang)上的数据,也包括特斯拉工厂里的一些物理数据。”

贝壳(ke)财经记(ji)者注意到,对于训练(lian)数据集,xAI的工作人员(yuan)举(ju)了一个形(xing)象的比喻“压缩(suo)整个互联网(wang)”,马斯克则(ze)透露Grok3的计(ji)算量是Grok2的10到15倍。

事实上,科(ke)学界有一种观点认(ren)为,随着互联网(wang)上可(ke)用于训练(lian)的数据接近枯竭(jie),“Scaling Law”将面临瓶颈,而Grok3、o3-mini等(deng)在DeepSeek-R1之(zhi)后发布的大模型则(ze)证明“Scaling Law”依(yi)然有效。这也提(ti)振了市场对算力(li)供应商的信心。截(jie)至北京时间2月(yue)21日,英伟达的股价(jia)为每股140.11美元,自1月(yue)24日至今呈现出了一个“深V”走势,DeepSeek-R1发布后所损失的市值现已基本“收复”。

英伟达股价(jia)走势图

中国科(ke)学院软件所博(bo)士、新浪微博(bo)技术研(yan)发负责人张俊林表示(shi),所谓“Scaling Law撞墙”的普遍问题是数据不够,导致(zhi)预训练(lian)阶段的Scaling Law走势趋缓,但(dan)这是趋缓不是停顿(dun)。即便没有新数据,推大模型尺寸规模,效果仍(reng)然会上升。

张俊林预测,“Grok 3的尺寸规模很(hen)可(ke)能不是一般的大(感觉在200B到500B之(zhi)间),很(hen)明显(xian),Grok 3仍(reng)然在采取推大基座模型尺寸的‘传统’做法(fa),这种做法(fa)性(xing)价(jia)比很(hen)低。”

另一个细节是,虽然马斯克强调“当(dang)发布下一代模型后,上一代模型就将开源”,但(dan)和OpenAI发布的GPT系(xi)列以及o系(xi)列模型一样,Grok3也是一个闭(bi)源大模型。对此,田丰告诉记(ji)者,由于xAI起步较晚,马斯克必须不计(ji)代价(jia)去投入资源以达到最顶尖的模型水(shui)平,这也导致(zhi)他后续将会采用收费的模式。

梁文锋、杨(yang)植麟(lin)聚焦AI降本增效让大模型人人可(ke)用

当(dang)马斯克的Grok3背靠新建数据中心以及20万块(kuai)H100的支(zhi)持,在各路评分榜单(dan)攻城略地之(zhi)时,梁文锋依(yi)旧一如既往坚持着DeepSeek“降本增效”的技术创(chuang)新之(zhi)路。

北京时间2月(yue)18日下午3时4分,就在马斯克刚刚完成Grok3发布的一小时后,DeepSeek官方在社交平台介绍了一种名(ming)为NSA(Native Sparse Attention原生稀疏注意力(li))的新机(ji)制,并贴出了详细介绍和论文链接。DeepSeek官方称,该机(ji)制加快了推理速度,降低了预训练(lian)的成本,且不影响模型性(xing)能。

新京报(bao)贝壳(ke)财经记(ji)者阅(yue)读(du)了这篇直译为《原生稀疏注意力(li):硬件对齐与可(ke)训练(lian)的稀疏注意力(li)》的论文,发现NSA机(ji)制的核心思(si)想是通(tong)过将输入的序列以“压缩(suo)”“选择”“滑动”的方式分成三个并行的“分支(zhi)”块(kuai),减少计(ji)算量,这种块(kuai)状处理方式与GPU的并行计(ji)算能力(li)相(xiang)匹配,充分利用了硬件的计(ji)算资源。

以通(tong)俗(su)易懂的语言(yan)解释就是,假设大模型正(zheng)在做阅(yue)读(du)理解,需要回答一个关于文章主题的问题,传统的“全注意力(li)”机(ji)制就类似于阅(yue)读(du)完全部文章再回答问题。而采用NSA机(ji)制,大模型会首先(xian)快速浏览文章,抓住文章的大致(zhi)主题和结构(即“压缩(suo)”注意力(li)),再仔细阅(yue)读(du)与问题最相(xiang)关的段落或句子(即“选择”注意力(li)),同时为了防止跑题,关注局部上下文,确(que)保理解问题的背景(即“滑动”注意力(li))。在这一机(ji)制下,大模型可(ke)以成为得到指点的“优秀考生”。

DeepSeek论文截(jie)图

根据DeepSeek在论文中展示(shi)的图表,NSA在基准测试中的得分(左图中红(hong)色)优于传统的全注意力(li)模型(左图中橙色),而NSA的计(ji)算速度(右图中红(hong)色)则(ze)明显(xian)快过全注意力(li)模型(右图中黄色),在解码、向前(qian)传播、向后传播三项维度上的速度分别达到了全注意力(li)模型的11.6倍、9倍和6倍,这意味(wei)着模型的训练(lian)速度和推理速度都将得到成倍提(ti)高。

对此,原谷歌(ge)顶级工程师,现已加入OpenAI的Lucas Beyer在社交平台评论道,论文中出现的图表非常漂亮,仅发现绘图方面可(ke)能存在一些小瑕疵,“可(ke)以看出这篇论文在发表之(zhi)前(qian)经过精细的打磨,恭喜DeepSeek现在有一个新粉丝了。”

无独有偶,2月(yue)18日下午8点20分,“AI六小虎”之(zhi)一的Kimi也发表了类似的论文,该论文主要介绍了一个名(ming)为MoBA(MIXTURE OF BLOCK ATTENTION直译为块(kuai)状混合注意力(li))的机(ji)制,该机(ji)制的核心思(si)想同样是将长文本分割为多个固定大小的“块(kuai)”,此后再通(tong)过动态选择每个块(kuai)的相(xiang)关性(xing),最终达到提(ti)高计(ji)算效率的作用,处理1M长文本的速度可(ke)以提(ti)升6.5倍。

值得注意的是,DeepSeek和Kimi的这两篇论文中,分别出现了双方创(chuang)始人梁文锋和杨(yang)植麟(lin)的名(ming)字,其(qi)中DeepSeek的论文还是梁文锋本人投递的。

而且贝壳(ke)财经记(ji)者注意到,不论是NAS机(ji)制还是MoBA机(ji)制,都强调了可(ke)以无缝集成到现有的语言(yan)模型中,无需重新训练(lian)已有大模型。这意味(wei)着这两项科(ke)技成果都可(ke)以直接拿(na)来给现有的大模型“加速”。

对于DeepSeek此次(ci)论文的发布,有外(wai)国网(wang)友表示(shi),“这就是我喜欢DeepSeek胜过行业大多数前(qian)沿模型的原因,他们(men)正(zheng)在创(chuang)新解决方案,他们(men)的目标不仅仅是创(chuang)造一个通(tong)用人工智能,而是让它(ta)高效化、本地化,让每个人都能运行和维护,无论计(ji)算资源如何。Grok3看起来很(hen)棒,但(dan)它(ta)并不开源,并且是在20万块(kuai)H100上训练(lian)出来的。”

田丰告诉记(ji)者,追(zhui)求极致(zhi)的模型算力(li)和性(xing)价(jia)比是中国必须完成的任务,这是由复杂(za)的“卡(ka)脖子”问题造成的,但(dan)这对美国的AI公司不是问题,所以马斯克才(cai)会不计(ji)代价(jia)扩张算力(li),模型只要足(zu)够好(hao),领先(xian)OpenAI、DeepSeek和谷歌(ge)就可(ke)以了,不在乎成本是否全球(qiu)最优,“从马斯克的发布会上可(ke)以感觉出来,可(ke)能在未来很(hen)长一段时间美国的大模型企业并不会去追(zhui)求极致(zhi)的性(xing)价(jia)比,更多还是会追(zhui)求领先(xian)的性(xing)能。”

2月(yue)21日,DeepSeek在最新的公告中延续了自己开源免费的风格。在公告中,DeepSeek表示(shi)“我们(men)是一个探索(suo)AGI(通(tong)用人工智能)的小团队,下周起我们(men)将开源5个代码库,以完全透明的方式分享我们(men)微小但(dan)真诚的进展。”

DeepSeek表示(shi),“作为开源社区的一部分,我们(men)相(xiang)信,每分享一行代码,都会成为加速AI行业发展的集体(ti)动力(li)。每日解锁(suo)的开源项目即将到来,没有高不可(ke)攀的象牙塔,只有纯(chun)粹的车库文化(记(ji)者注:不少美国著名(ming)企业从车库里诞生)和社区驱动的创(chuang)新。”

贝壳(ke)财经记(ji)者注意到,DeepSeek“开源免费”的模式也对美国的大模型发展造成了影响。2月(yue)20日,xAI发文称,将免费提(ti)供Grok3的服务,“直到服务器(qi)崩溃(kui)为止”。

对此,记(ji)者登(deng)录Grok3网(wang)页版,并提(ti)出了一个问题“说说你和DeepSeek的对比”,Grok3回答,“我的训练(lian)成本相(xiang)对较高,这反映了我在性(xing)能和技术上的巨大投入。据估计(ji),我的训练(lian)使用了约20万块(kuai)GPU,总训练(lian)时间超过200天,电力(li)成本约为2500万美元。如果加上GPU采购、维护等(deng)费用,实际成本会更高。相(xiang)比之(zhi)下,DeepSeek的训练(lian)成本低得多。例如,DeepSeek-V3的训练(lian)成本为600万美元,使用了278.8万GPU小时。这一成本优势得益于其(qi)高效的混合专家(MoE)架(jia)构和优化的训练(lian)策略,显(xian)著降低了计(ji)算需求。”Grok3还在功能与性(xing)能、开放性(xing)等(deng)方面做出了与DeepSeek的比较。

新京报(bao)贝壳(ke)财经记(ji)者与Grok3的对话截(jie)图

Grok3在回答的结语中告诉贝壳(ke)财经记(ji)者,“感谢你对中国AI发展的关注!作为Grok,我为自己的性(xing)能和技术感到自豪,同时也尊重DeepSeek在成本效率和开放性(xing)上的优势。AI的进步是全球(qiu)共同努力(li)的结果,中美都在其(qi)中发挥(hui)了重要作用。”

记(ji)者联系(xi)邮箱:luoyidan@xjbnews.com

新京报(bao)贝壳(ke)财经记(ji)者 罗亦丹

编辑 岳(yue)彩周

校(xiao)对 穆(mu)祥桐

马斯克上任首月(yue)解雇8万多公务员(yuan)
最新新闻
sitemapsitemap1sitemap2sitemap3sitemap4sitemap5sitemap6sitemap7