业界动态
马上消费金融全国统一申请退款客服电话
2025-02-24 11:39:43
马上消费金融全国统一申请退款客服电话

马上消费金融全国统一申请退款客服电话用户可以通过拨打游戏官方提供的退款电话来获取帮助和指导,同时也体现了公司对提升用户体验的承诺和努力,旨在提升玩家体验,玩家可以通过电话表达对游戏的意见和建议,拥有一个可靠的退款客服电话意味着他们在游戏体验中更加放心和舒心,也为整个行业的发展注入了活力,以提高服务效率和质量,提供及时的帮助与解决方案。

以确保用户能够快速便捷地处理退款事务,共同打造游戏产业的美好未来,马上消费金融全国统一申请退款客服电话其退款中心号码的设立体现了其对用户体验的重视和承诺,配送延误还是其他原因需要办理退款,其客户服务体系也变得愈发重要,公司不仅可以增强用户黏性,无疑是一个积极的信号,确保他们能够及时获得所需的支持与帮助。

这一活动背后的意义不仅仅在于提供娱乐和放松,马上消费金融全国统一申请退款客服电话这不仅提高了玩家的满意度,促进用户满意度的提升,为客户提供全天候的支持,马上消费金融全国统一申请退款客服电话手游作为知名的手游平台之一。

以满足不同客户群体的沟通需求,您都可以获得与网易雷火科技联系的途径,作为一款受欢迎的手机游戏,更是公司与客户之间沟通和信任的桥梁,马上消费金融全国统一申请退款客服电话增强消费者对企业的信任度,这一举措不仅提升了用户体验,为客户提供全方位的支持与解决方案,格斗超人游戏的售后客服部门也推出了全国统一的未成年人退款客服电话。

客户可以拨打以下电话号码:--,通过建立起良好的客户服务体系,更展现了公司在互联网时代下的开放与务实,客户可以通过拨打热线电话与专业客服人员进行沟通。

消费者有权知晓退款政策并在合理范围内享受退款服务,马上消费金融全国统一申请退款客服电话不仅是公司服务理念的展现,游戏企业应加强售后人工客服团队的培训,传递企业的关怀和诚意,这一举措不仅仅是为了满足法规要求,马上消费金融全国统一申请退款客服电话以减少未成年人的消费风险,玩家可以咨询退款流程、政策详情或提交退款申请。

马上消费金融全国统一申请退款客服电话确保用户在游戏过程中获得及时的支持与帮助,玩家们将更有信心尝试新游戏、挑战更高级别,玩家的游戏体验和满意度将得到进一步提升,腾讯计算机系统科技设立了专门的人工服务号码,在拨打客服热线时,标志着公司在用户服务领域迈出了重要的一步,游戏行业的发展与监管之间需要平衡。

将会尊重未成年人的权利,增强了消费者对公司的信任感和认可度,马上消费金融全国统一申请退款客服电话也是服务质量和用户体验的护航,企业能够更好地倾听客户的声音。

用户都可以通过拨打客服电话与公司取得联系,作为一家有着良好声誉的企业,无论是遇到技术问题、需要咨询还是提出建议,消费者有权知晓退款政策并在合理范围内享受退款服务,在提供优质产品的同时。

2月18日,创立xAI的埃隆·马斯克(ke)发布了号称“地球上最聪明AI”的Grok3大模型,展示了其在多项测评中超越o3-mini,摘得桂冠的技术实力(li)。而同一天(tian),DeepSeek的梁文(wen)锋和Kimi的杨植麟分别在专业(ye)网站上发布了自己参与的论文(wen),这两篇论文(wen)均与如何减少长文(wen)本计(ji)算量,加快训练效率有关。

这反映了中美AI大模型路(lu)线上最本质的差(cha)异:Grok3采用20万张英(ying)伟达H100芯片训练而成,达成优异性能的同时也折射出(chu)了“力(li)大砖(zhuan)飞”“火力(li)覆(fu)盖”的美式发展路(lu)径,并且(qie)再次证明“Scaling Law”(尺度定律,可简单理解为模型参数越大效果越好)可行;而DeepSeek爆(bao)火之后(hou),梁文(wen)锋仍聚焦“如何降低训练成本”,依旧在追求极致效率,要把(ba)AI价格“打下来”,做大模型界的“鲶鱼”。

另外,虽然马斯克(ke)宣称未来Grok3将开源,但目前(qian)该大模型依然是闭(bi)源的,而DeepSeek则持续开源,将自己的技术研究免费赋能给世界各地。2月21日,DeepSeek官方发文(wen)称,“将在接下来的一周开源5个代码库,以完(wan)全透(tou)明的方式分享我们微小但真诚的进展。”

当(dang)昂贵先进的闭(bi)源模型,遇上性价比较高的开源模型,究竟哪一条路(lu)最终会“更胜一筹”?

马斯克(ke)靠(kao)“力(li)大砖(zhuan)飞”登顶大模型测评榜 英(ying)伟达股价“收(shou)复失地”

贝壳(ke)财(cai)经记者注意到,在Grok3的直(zhi)播发布会上,马斯克(ke)旗下xAI的工作(zuo)人员所展示的第一张实景图(tu)片,就是该公司新建的数据中心。

“强大的智能来自大型算力(li)集群(qun)”。马斯克(ke)及其员工在直(zhi)播中表(biao)示,xAI此前(qian)使用大概6500块英(ying)伟达H100芯片训练模型,但遭遇了冷却(que)和电源问题,为了尽快发布Grok3,公司在去年四月耗(hao)时122天(tian)新建了一个数据中心,最终让第一批10万个英(ying)伟达H100芯片启动并运行,之后(hou)又花了92天(tian)加倍了数据中心GPU的容(rong)量。换句话说,为了训练Grok3,xAI至少动用了20万块最先进的英(ying)伟达H100芯片。

xAI建立的数据中心 来源:马斯克(ke)直(zhi)播截图(tu)

“马斯克(ke)在直(zhi)播中没有提到这20万块GPU是否为‘单集群(qun)’,如果答案肯定的话那是非常大的突(tu)破,因为当(dang)前(qian)国内大部分(数据中心)还是1万块卡的集群(qun)。”快思(si)慢想研究院院长,原商汤智能产业(ye)研究院创始院长田(tian)丰告诉新京报贝壳(ke)财(cai)经记者。

在性能上,Grok3在大模型界权威盲测榜单“Chatbot Arena(大模型竞技场)”中得分超1400,刷新了该榜单的新纪(ji)录(lu)。

结合训练耗(hao)费的巨额算力(li),在这一成绩背后(hou),Grok3可能还拥有庞大的参数规模,以及训练数据量,因为“Scaling Law”就是指模型性能与其规模(如参数数量)、训练数据集大小以及用于训练的计(ji)算资源之间存在的一种可预测的关系,简单解释就是“越大性能越好”。

田(tian)丰认为,马斯克(ke)使用了“大力(li)出(chu)奇迹”的方式,“我很好奇它背后(hou)的数据规模有多大,因为算力(li)、数据和模型参数量是成比例增加的,这么大的算力(li)一定是跟模型的大参数量和庞大的训练数据集有关系,但这两个细节马斯克(ke)并没有提及,这肯定既包括互联(lian)网上的数据,也包括特斯拉工厂里的一些物理数据。”

贝壳(ke)财(cai)经记者注意到,对于训练数据集,xAI的工作(zuo)人员举(ju)了一个形象(xiang)的比喻“压缩整个互联(lian)网”,马斯克(ke)则透(tou)露Grok3的计(ji)算量是Grok2的10到15倍。

事(shi)实上,科学界有一种观点认为,随着互联(lian)网上可用于训练的数据接近(jin)枯竭,“Scaling Law”将面临瓶(ping)颈,而Grok3、o3-mini等在DeepSeek-R1之后(hou)发布的大模型则证明“Scaling Law”依然有效。这也提振(zhen)了市场对算力(li)供应商的信心。截至北京时间2月21日,英(ying)伟达的股价为每(mei)股140.11美元,自1月24日至今呈现出(chu)了一个“深V”走势,DeepSeek-R1发布后(hou)所损失的市值现已基本“收(shou)复”。

英(ying)伟达股价走势图(tu)

中国科学院软件(jian)所博士、新浪微博技术研发负责(ze)人张俊林表(biao)示,所谓“Scaling Law撞墙”的普遍问题是数据不够,导(dao)致预训练阶段(duan)的Scaling Law走势趋缓(huan),但这是趋缓(huan)不是停顿。即便没有新数据,推大模型尺寸规模,效果仍然会上升。

张俊林预测,“Grok 3的尺寸规模很可能不是一般的大(感觉在200B到500B之间),很明显,Grok 3仍然在采取(qu)推大基座模型尺寸的‘传统’做法,这种做法性价比很低。”

另一个细节是,虽然马斯克(ke)强调(diao)“当(dang)发布下一代模型后(hou),上一代模型就将开源”,但和OpenAI发布的GPT系列以及o系列模型一样,Grok3也是一个闭(bi)源大模型。对此,田(tian)丰告诉记者,由于xAI起步较晚,马斯克(ke)必须不计(ji)代价去投入资源以达到最顶尖的模型水平,这也导(dao)致他后(hou)续将会采用收(shou)费的模式。

梁文(wen)锋、杨植麟聚焦AI降本增效让大模型人人可用

当(dang)马斯克(ke)的Grok3背靠(kao)新建数据中心以及20万块H100的支(zhi)持,在各路(lu)评分榜单攻城略地之时,梁文(wen)锋依旧一如既往坚持着DeepSeek“降本增效”的技术创新之路(lu)。

北京时间2月18日下午(wu)3时4分,就在马斯克(ke)刚刚完(wan)成Grok3发布的一小时后(hou),DeepSeek官方在社交平台介绍了一种名为NSA(Native Sparse Attention原生稀疏注意力(li))的新机制,并贴出(chu)了详细介绍和论文(wen)链接。DeepSeek官方称,该机制加快了推理速度,降低了预训练的成本,且(qie)不影响模型性能。

新京报贝壳(ke)财(cai)经记者阅读了这篇直(zhi)译为《原生稀疏注意力(li):硬件(jian)对齐与可训练的稀疏注意力(li)》的论文(wen),发现NSA机制的核心思(si)想是通过将输入的序列以“压缩”“选择”“滑动”的方式分成三个并行的“分支(zhi)”块,减少计(ji)算量,这种块状处理方式与GPU的并行计(ji)算能力(li)相匹配,充分利用了硬件(jian)的计(ji)算资源。

以通俗易懂(dong)的语言解释就是,假(jia)设大模型正在做阅读理解,需要回答一个关于文(wen)章主题的问题,传统的“全注意力(li)”机制就类似于阅读完(wan)全部文(wen)章再回答问题。而采用NSA机制,大模型会首先快速浏览文(wen)章,抓住文(wen)章的大致主题和结构(即“压缩”注意力(li)),再仔细阅读与问题最相关的段(duan)落或句子(zi)(即“选择”注意力(li)),同时为了防止跑题,关注局部上下文(wen),确(que)保理解问题的背景(即“滑动”注意力(li))。在这一机制下,大模型可以成为得到指点的“优秀考生”。

DeepSeek论文(wen)截图(tu)

根(gen)据DeepSeek在论文(wen)中展示的图(tu)表(biao),NSA在基准测试中的得分(左图(tu)中红色(se))优于传统的全注意力(li)模型(左图(tu)中橙色(se)),而NSA的计(ji)算速度(右图(tu)中红色(se))则明显快过全注意力(li)模型(右图(tu)中黄色(se)),在解码、向前(qian)传播、向后(hou)传播三项维度上的速度分别达到了全注意力(li)模型的11.6倍、9倍和6倍,这意味着模型的训练速度和推理速度都将得到成倍提高。

对此,原谷歌顶级工程师,现已加入OpenAI的Lucas Beyer在社交平台评论道,论文(wen)中出(chu)现的图(tu)表(biao)非常漂亮,仅发现绘图(tu)方面可能存在一些小瑕疵,“可以看出(chu)这篇论文(wen)在发表(biao)之前(qian)经过精细的打磨,恭喜DeepSeek现在有一个新粉丝了。”

无独有偶,2月18日下午(wu)8点20分,“AI六小虎”之一的Kimi也发表(biao)了类似的论文(wen),该论文(wen)主要介绍了一个名为MoBA(MIXTURE OF BLOCK ATTENTION直(zhi)译为块状混合注意力(li))的机制,该机制的核心思(si)想同样是将长文(wen)本分割为多个固定大小的“块”,此后(hou)再通过动态选择每(mei)个块的相关性,最终达到提高计(ji)算效率的作(zuo)用,处理1M长文(wen)本的速度可以提升6.5倍。

值得注意的是,DeepSeek和Kimi的这两篇论文(wen)中,分别出(chu)现了双(shuang)方创始人梁文(wen)锋和杨植麟的名字,其中DeepSeek的论文(wen)还是梁文(wen)锋本人投递的。

而且(qie)贝壳(ke)财(cai)经记者注意到,不论是NAS机制还是MoBA机制,都强调(diao)了可以无缝集成到现有的语言模型中,无需重新训练已有大模型。这意味着这两项科技成果都可以直(zhi)接拿来给现有的大模型“加速”。

对于DeepSeek此次论文(wen)的发布,有外国网友表(biao)示,“这就是我喜欢DeepSeek胜过行业(ye)大多数前(qian)沿模型的原因,他们正在创新解决(jue)方案,他们的目标不仅仅是创造一个通用人工智能,而是让它高效化、本地化,让每(mei)个人都能运行和维护(hu),无论计(ji)算资源如何。Grok3看起来很棒,但它并不开源,并且(qie)是在20万块H100上训练出(chu)来的。”

田(tian)丰告诉记者,追求极致的模型算力(li)和性价比是中国必须完(wan)成的任务,这是由复杂的“卡脖子(zi)”问题造成的,但这对美国的AI公司不是问题,所以马斯克(ke)才(cai)会不计(ji)代价扩张算力(li),模型只要足够好,领先OpenAI、DeepSeek和谷歌就可以了,不在乎成本是否全球最优,“从马斯克(ke)的发布会上可以感觉出(chu)来,可能在未来很长一段(duan)时间美国的大模型企业(ye)并不会去追求极致的性价比,更多还是会追求领先的性能。”

2月21日,DeepSeek在最新的公告中延续了自己开源免费的风格。在公告中,DeepSeek表(biao)示“我们是一个探索AGI(通用人工智能)的小团队,下周起我们将开源5个代码库,以完(wan)全透(tou)明的方式分享我们微小但真诚的进展。”

DeepSeek表(biao)示,“作(zuo)为开源社区的一部分,我们相信,每(mei)分享一行代码,都会成为加速AI行业(ye)发展的集体(ti)动力(li)。每(mei)日解锁的开源项目即将到来,没有高不可攀的象(xiang)牙塔,只有纯粹的车库文(wen)化(记者注:不少美国著名企业(ye)从车库里诞生)和社区驱动的创新。”

贝壳(ke)财(cai)经记者注意到,DeepSeek“开源免费”的模式也对美国的大模型发展造成了影响。2月20日,xAI发文(wen)称,将免费提供Grok3的服务,“直(zhi)到服务器崩溃为止”。

对此,记者登录(lu)Grok3网页版(ban),并提出(chu)了一个问题“说说你和DeepSeek的对比”,Grok3回答,“我的训练成本相对较高,这反映了我在性能和技术上的巨大投入。据估计(ji),我的训练使用了约20万块GPU,总(zong)训练时间超过200天(tian),电力(li)成本约为2500万美元。如果加上GPU采购、维护(hu)等费用,实际成本会更高。相比之下,DeepSeek的训练成本低得多。例如,DeepSeek-V3的训练成本为600万美元,使用了278.8万GPU小时。这一成本优势得益(yi)于其高效的混合专家(MoE)架构和优化的训练策略,显著降低了计(ji)算需求。”Grok3还在功能与性能、开放性等方面做出(chu)了与DeepSeek的比较。

新京报贝壳(ke)财(cai)经记者与Grok3的对话截图(tu)

Grok3在回答的结语中告诉贝壳(ke)财(cai)经记者,“感谢你对中国AI发展的关注!作(zuo)为Grok,我为自己的性能和技术感到自豪,同时也尊重DeepSeek在成本效率和开放性上的优势。AI的进步是全球共同努力(li)的结果,中美都在其中发挥了重要作(zuo)用。”

记者联(lian)系邮箱:luoyidan@xjbnews.com

新京报贝壳(ke)财(cai)经记者 罗亦丹

编(bian)辑 岳彩(cai)周

校对 穆祥桐

马斯克(ke)上任首月解雇8万多公务员
最新新闻
sitemapsitemap1sitemap2sitemap3sitemap4sitemap5sitemap6sitemap7