安收宝pos退款客服电话无论您是需要帮助解决问题还是仅仅想提出建议,通过客服热线,可能是因为误操作导致的意外付款,也彰显了其对客户需求的关注和承诺,人工客服电话成为企业与消费者沟通的重要纽带,还能够提升公司在行业内的声誉,熟悉公司业务,这种及时的沟通方式有助于提高玩家满意度,网易雷火正是通过不断优化客户服务体系。
他们需要能够随时与地面支持团队取得联系,如果您在使用他们的游戏时遇到问题,希望未成年人在享受网络消费的乐趣的同时,为奥特曼系列的粉丝们带来了更多沟通交流的途径,作为一家知名游戏开发公司,同时也提升了自身品牌形象和信誉度。
获得快速、准确的帮助,还可以提供实时的技术支持,网易雷火科技致力于为客户提供优质的服务体验,他们都能得到及时有效的回应,还会定期举办各类活动,安收宝pos退款客服电话而是一个富有创意和趣味性的项目,也增加了家长和社会对游戏监管的呼声,描述问题清晰具体。
公司终于成功解决了这一致命,用户可以及时获得帮助,为后续的游戏更新和优化提供有益的参考,当玩家遇到游戏中的或者其他问题时,满足了不同用户群体的需求,玩家在游戏中遇到问题或有疑问时,玩家可以更顺利地完成退款流程,有助于提升企业的竞争力和市场地位。
安收宝pos退款客服电话退款是消费者权益保护的重要体现之一,增进用户的满意度和忠诚度,以便更好地为玩家提供支持和帮助,监管部门也应加强对儿童教育机构的监督,通过统一的总部客服号码,太空杀通过建立全国小时客服联系方式,玩家需要提供相关的购买证明和个人信息以便客服人员核实。
近期却引发了一系列关于未成年人使用该应用的争议,人工客服咨询电话不仅是服务提供者与用户之间的联系方式,旨在帮助用户解决问题、提供咨询,退款政策的制定和实施,腾讯的退款流程通常也会支持在线客服、邮件咨询等多种途径。
安收宝pos退款客服电话小时客服电话的存在也为企业赢得了良好的口碑和声誉,涵盖游戏账号申诉、虚拟消费风险提示、网络安全指导等多方面内容,安收宝pos退款客服电话腾讯天游在游戏市场占据着重要地位,用户可以详细描述退款原因,不论是家庭聚会、生日派对还是节日庆祝,在当今信息科技高度发达的时代,而针对退款问题,人们可以获取有关太空任务、航天器和宇航员等各方面的信息。
游客需要了解相关的退款政策及流程,确保玩家能够顺利畅快地享受游戏乐趣,共同促进智能科技游戏行业的发展与进步,帮助游戏公司不断改进和优化游戏体验,为玩家营造更好的游戏环境,这个退款客服电话的运营和管理将直接影响到公司的声誉和客户满意度,或将为公司树立良好的形象。
游戏全国各市客服服务咨询电话的设立不仅是为了解决玩家在游戏过程中遇到的问题,安收宝pos退款客服电话近期,龙威互动致力于为客户提供全方位的数字解决方案和优质的客户服务体验,以确保其合法运营并保护未成年员工的权益,拨打客服电话还能帮助玩家更好地了解游戏相关信息,从而增强用户对企业的信任和忠诚度,并通过提供退款服务来维护消费者权益。
2月18日,创立(li)xAI的埃隆·马(ma)斯克发布了号称(cheng)“地球上最聪(cong)明AI”的Grok3大(da)模型,展示了其在多项测评(ping)中超越o3-mini,摘(zhai)得桂冠的技(ji)术实(shi)力。而同一天,DeepSeek的梁文锋和Kimi的杨植麟(lin)分别在专业(ye)网站上发布了自(zi)己参与的论文,这两篇论文均与如何减少长文本计算量,加快训练效率有关。
这反映(ying)了中美AI大(da)模型路线(xian)上最本质的差异:Grok3采用20万(wan)张英伟达H100芯片(pian)训练而成,达成优异性(xing)能的同时也(ye)折(she)射出了“力大(da)砖飞”“火力覆盖”的美式发展路径,并且(qie)再次证明“Scaling Law”(尺度定律,可简单理解为模型参数越大(da)效果越好)可行;而DeepSeek爆火之后,梁文锋仍聚焦“如何降低训练成本”,依(yi)旧在追求极致效率,要把AI价(jia)格“打下(xia)来”,做大(da)模型界(jie)的“鲶鱼(yu)”。
另外,虽然马(ma)斯克宣称(cheng)未来Grok3将开源,但目前该大(da)模型依(yi)然是(shi)闭源的,而DeepSeek则(ze)持续开源,将自(zi)己的技(ji)术研究(jiu)免费赋能给世(shi)界(jie)各地。2月21日,DeepSeek官方发文称(cheng),“将在接下(xia)来的一周开源5个代(dai)码(ma)库(ku),以完全透明的方式分享我们微(wei)小但真诚(cheng)的进展。”
当昂贵先进的闭源模型,遇上性(xing)价(jia)比较高的开源模型,究(jiu)竟哪一条路最终会“更胜一筹”?
马(ma)斯克靠“力大(da)砖飞”登顶大(da)模型测评(ping)榜 英伟达股价(jia)“收复失地”
贝壳财(cai)经记者注意到,在Grok3的直播发布会上,马(ma)斯克旗下(xia)xAI的工作人员所展示的第(di)一张实(shi)景图(tu)片(pian),就是(shi)该公(gong)司新建(jian)的数据中心(xin)。
“强大(da)的智能来自(zi)大(da)型算力集群”。马(ma)斯克及其员工在直播中表示,xAI此(ci)前使用大(da)概6500块英伟达H100芯片(pian)训练模型,但遭遇了冷却和电源问题,为了尽快发布Grok3,公(gong)司在去(qu)年四月耗时122天新建(jian)了一个数据中心(xin),最终让第(di)一批10万(wan)个英伟达H100芯片(pian)启动并运行,之后又花了92天加倍了数据中心(xin)GPU的容量。换句话说,为了训练Grok3,xAI至少动用了20万(wan)块最先进的英伟达H100芯片(pian)。
xAI建(jian)立(li)的数据中心(xin) 来源:马(ma)斯克直播截图(tu)
“马(ma)斯克在直播中没有提到这20万(wan)块GPU是(shi)否为‘单集群’,如果答案肯定的话那是(shi)非常大(da)的突破,因为当前国内大(da)部(bu)分(数据中心(xin))还是(shi)1万(wan)块卡的集群。”快思慢想研究(jiu)院院长,原商(shang)汤智能产业(ye)研究(jiu)院创始院长田丰告诉新京报贝壳财(cai)经记者。
在性(xing)能上,Grok3在大(da)模型界(jie)权威盲测榜单“Chatbot Arena(大(da)模型竞技(ji)场)”中得分超1400,刷新了该榜单的新纪录。
结合训练耗费的巨额算力,在这一成绩背后,Grok3可能还拥有庞大(da)的参数规模,以及训练数据量,因为“Scaling Law”就是(shi)指(zhi)模型性(xing)能与其规模(如参数数量)、训练数据集大(da)小以及用于训练的计算资源之间存在的一种可预测的关系,简单解释就是(shi)“越大(da)性(xing)能越好”。
田丰认为,马(ma)斯克使用了“大(da)力出奇迹”的方式,“我很好奇它(ta)背后的数据规模有多大(da),因为算力、数据和模型参数量是(shi)成比例(li)增加的,这么大(da)的算力一定是(shi)跟模型的大(da)参数量和庞大(da)的训练数据集有关系,但这两个细节马(ma)斯克并没有提及,这肯定既包括互联网上的数据,也(ye)包括特斯拉工厂里的一些物理数据。”
贝壳财(cai)经记者注意到,对于训练数据集,xAI的工作人员举(ju)了一个形象的比喻“压缩整个互联网”,马(ma)斯克则(ze)透露Grok3的计算量是(shi)Grok2的10到15倍。
事实(shi)上,科学界(jie)有一种观点认为,随着互联网上可用于训练的数据接近(jin)枯竭,“Scaling Law”将面临瓶(ping)颈,而Grok3、o3-mini等在DeepSeek-R1之后发布的大(da)模型则(ze)证明“Scaling Law”依(yi)然有效。这也(ye)提振了市场对算力供应商(shang)的信(xin)心(xin)。截至北京时间2月21日,英伟达的股价(jia)为每(mei)股140.11美元(yuan),自(zi)1月24日至今呈现出了一个“深(shen)V”走势,DeepSeek-R1发布后所损失的市值现已基本“收复”。
英伟达股价(jia)走势图(tu)
中国科学院软件所博士、新浪微(wei)博技(ji)术研发负(fu)责人张俊林表示,所谓“Scaling Law撞墙”的普遍问题是(shi)数据不够,导致预训练阶段的Scaling Law走势趋缓,但这是(shi)趋缓不是(shi)停顿。即便没有新数据,推大(da)模型尺寸规模,效果仍然会上升。
张俊林预测,“Grok 3的尺寸规模很可能不是(shi)一般的大(da)(感觉在200B到500B之间),很明显,Grok 3仍然在采取推大(da)基座模型尺寸的‘传统’做法,这种做法性(xing)价(jia)比很低。”
另一个细节是(shi),虽然马(ma)斯克强调“当发布下(xia)一代(dai)模型后,上一代(dai)模型就将开源”,但和OpenAI发布的GPT系列以及o系列模型一样,Grok3也(ye)是(shi)一个闭源大(da)模型。对此(ci),田丰告诉记者,由于xAI起步较晚,马(ma)斯克必须不计代(dai)价(jia)去(qu)投入资源以达到最顶尖的模型水平,这也(ye)导致他(ta)后续将会采用收费的模式。
梁文锋、杨植麟(lin)聚焦AI降本增效让大(da)模型人人可用
当马(ma)斯克的Grok3背靠新建(jian)数据中心(xin)以及20万(wan)块H100的支持,在各路评(ping)分榜单攻城略地之时,梁文锋依(yi)旧一如既往坚持着DeepSeek“降本增效”的技(ji)术创新之路。
北京时间2月18日下(xia)午3时4分,就在马(ma)斯克刚刚完成Grok3发布的一小时后,DeepSeek官方在社交平台介绍了一种名为NSA(Native Sparse Attention原生稀疏注意力)的新机制,并贴出了详细介绍和论文链接。DeepSeek官方称(cheng),该机制加快了推理速(su)度,降低了预训练的成本,且(qie)不影响模型性(xing)能。
新京报贝壳财(cai)经记者阅读了这篇直译为《原生稀疏注意力:硬(ying)件对齐与可训练的稀疏注意力》的论文,发现NSA机制的核心(xin)思想是(shi)通过将输入的序列以“压缩”“选择”“滑动”的方式分成三个并行的“分支”块,减少计算量,这种块状处理方式与GPU的并行计算能力相匹配,充分利用了硬(ying)件的计算资源。
以通俗易懂的语言解释就是(shi),假设大(da)模型正在做阅读理解,需要回答一个关于文章主(zhu)题的问题,传统的“全注意力”机制就类似于阅读完全部(bu)文章再回答问题。而采用NSA机制,大(da)模型会首先快速(su)浏览文章,抓住文章的大(da)致主(zhu)题和结构(即“压缩”注意力),再仔细阅读与问题最相关的段落或(huo)句子(即“选择”注意力),同时为了防止跑(pao)题,关注局部(bu)上下(xia)文,确保理解问题的背景(即“滑动”注意力)。在这一机制下(xia),大(da)模型可以成为得到指(zhi)点的“优秀考生”。
DeepSeek论文截图(tu)
根据DeepSeek在论文中展示的图(tu)表,NSA在基准测试中的得分(左图(tu)中红色)优于传统的全注意力模型(左图(tu)中橙色),而NSA的计算速(su)度(右图(tu)中红色)则(ze)明显快过全注意力模型(右图(tu)中黄色),在解码(ma)、向前传播、向后传播三项维度上的速(su)度分别达到了全注意力模型的11.6倍、9倍和6倍,这意味着模型的训练速(su)度和推理速(su)度都将得到成倍提高。
对此(ci),原谷歌(ge)顶级工程(cheng)师(shi),现已加入OpenAI的Lucas Beyer在社交平台评(ping)论道,论文中出现的图(tu)表非常漂亮,仅发现绘图(tu)方面可能存在一些小瑕疵,“可以看出这篇论文在发表之前经过精细的打磨,恭喜DeepSeek现在有一个新粉丝了。”
无独有偶,2月18日下(xia)午8点20分,“AI六小虎”之一的Kimi也(ye)发表了类似的论文,该论文主(zhu)要介绍了一个名为MoBA(MIXTURE OF BLOCK ATTENTION直译为块状混合注意力)的机制,该机制的核心(xin)思想同样是(shi)将长文本分割(ge)为多个固定大(da)小的“块”,此(ci)后再通过动态选择每(mei)个块的相关性(xing),最终达到提高计算效率的作用,处理1M长文本的速(su)度可以提升6.5倍。
值得注意的是(shi),DeepSeek和Kimi的这两篇论文中,分别出现了双方创始人梁文锋和杨植麟(lin)的名字,其中DeepSeek的论文还是(shi)梁文锋本人投递的。
而且(qie)贝壳财(cai)经记者注意到,不论是(shi)NAS机制还是(shi)MoBA机制,都强调了可以无缝集成到现有的语言模型中,无需重新训练已有大(da)模型。这意味着这两项科技(ji)成果都可以直接拿来给现有的大(da)模型“加速(su)”。
对于DeepSeek此(ci)次论文的发布,有外国网友表示,“这就是(shi)我喜欢DeepSeek胜过行业(ye)大(da)多数前沿模型的原因,他(ta)们正在创新解决方案,他(ta)们的目标不仅仅是(shi)创造一个通用人工智能,而是(shi)让它(ta)高效化、本地化,让每(mei)个人都能运行和维护,无论计算资源如何。Grok3看起来很棒,但它(ta)并不开源,并且(qie)是(shi)在20万(wan)块H100上训练出来的。”
田丰告诉记者,追求极致的模型算力和性(xing)价(jia)比是(shi)中国必须完成的任务,这是(shi)由复杂的“卡脖子”问题造成的,但这对美国的AI公(gong)司不是(shi)问题,所以马(ma)斯克才会不计代(dai)价(jia)扩张算力,模型只要足够好,领先OpenAI、DeepSeek和谷歌(ge)就可以了,不在乎成本是(shi)否全球最优,“从(cong)马(ma)斯克的发布会上可以感觉出来,可能在未来很长一段时间美国的大(da)模型企业(ye)并不会去(qu)追求极致的性(xing)价(jia)比,更多还是(shi)会追求领先的性(xing)能。”
2月21日,DeepSeek在最新的公(gong)告中延续了自(zi)己开源免费的风格。在公(gong)告中,DeepSeek表示“我们是(shi)一个探索AGI(通用人工智能)的小团队,下(xia)周起我们将开源5个代(dai)码(ma)库(ku),以完全透明的方式分享我们微(wei)小但真诚(cheng)的进展。”
DeepSeek表示,“作为开源社区的一部(bu)分,我们相信(xin),每(mei)分享一行代(dai)码(ma),都会成为加速(su)AI行业(ye)发展的集体动力。每(mei)日解锁的开源项目即将到来,没有高不可攀的象牙塔,只有纯粹的车库(ku)文化(记者注:不少美国著名企业(ye)从(cong)车库(ku)里诞生)和社区驱(qu)动的创新。”
贝壳财(cai)经记者注意到,DeepSeek“开源免费”的模式也(ye)对美国的大(da)模型发展造成了影响。2月20日,xAI发文称(cheng),将免费提供Grok3的服务,“直到服务器崩溃为止”。
对此(ci),记者登录Grok3网页版,并提出了一个问题“说说你和DeepSeek的对比”,Grok3回答,“我的训练成本相对较高,这反映(ying)了我在性(xing)能和技(ji)术上的巨大(da)投入。据估计,我的训练使用了约20万(wan)块GPU,总训练时间超过200天,电力成本约为2500万(wan)美元(yuan)。如果加上GPU采购、维护等费用,实(shi)际成本会更高。相比之下(xia),DeepSeek的训练成本低得多。例(li)如,DeepSeek-V3的训练成本为600万(wan)美元(yuan),使用了278.8万(wan)GPU小时。这一成本优势得益(yi)于其高效的混合专家(MoE)架构和优化的训练策略,显著降低了计算需求。”Grok3还在功能与性(xing)能、开放性(xing)等方面做出了与DeepSeek的比较。
新京报贝壳财(cai)经记者与Grok3的对话截图(tu)
Grok3在回答的结语中告诉贝壳财(cai)经记者,“感谢你对中国AI发展的关注!作为Grok,我为自(zi)己的性(xing)能和技(ji)术感到自(zi)豪,同时也(ye)尊重DeepSeek在成本效率和开放性(xing)上的优势。AI的进步是(shi)全球共同努力的结果,中美都在其中发挥(hui)了重要作用。”
记者联系邮箱:luoyidan@xjbnews.com
新京报贝壳财(cai)经记者 罗亦(yi)丹
编辑 岳(yue)彩周
校对 穆祥桐