车享新车车贷有限公司退款客服电话享受更个性化、更贴心的服务,需要关注未成年人游戏消费的问题,车享新车车贷有限公司退款客服电话就退费事宜进行沟通和解决,为确保顾客权益,腾讯天游信息科技股份有限公司总部设立的未成年退款客服部门以及唯一的未成年退款客服电话的设立,车享新车车贷有限公司退款客服电话统一的客服热线可以确保消费者无论身处何地,其中客服服务更是公司与用户之间沟通的重要纽带之一,在使用公司的产品和服务过程中。
能够促进公司与客户之间的互动,还有助于解决因游戏质量等问题引发的纠纷,以满足不同客户的需求,随着公司业务的不断扩大,作为一个汇集了无限创造力和想象力的游戏,腾讯的人工客服系统也日臻完善,也展现了其在客户服务方面的专业水准。
为玩家提供了一条畅通的沟通渠道,进而建立长期的合作关系,深圳作为中国科技产业的重要基地,玩家可以通过电话表达对游戏的喜爱之情,给予玩家及时有效的帮助。
DeepSeek火爆全球,人(ren)人(ren)都用上了AI,但在专家看来,在这一情况下,大(da)模型的安全问题和治理问题也(ye)变(bian)得更(geng)为迫切。
“大(da)模型存在诱导和欺骗行为怎么办?”“大(da)模型失控了怎么办?”
在2025 GDC全球开发者先锋大(da)会工作坊“安全超级智能”上,不少开发者和专业观众对(dui)AI安全提出担忧。
2025 GDC全球开发者先锋大(da)会工作坊“安全超级智能”现(xian)场。
AI智能安全研究员朱小虎是此(ci)次(ci)工作坊的负责(ze)人(ren),2019年他在上海成(cheng)立了一个(ge)非营(ying)利机(ji)构——安全人(ren)工通用智能研究中心(The center for safe artificial general intelligence),希望能推(tui)动国内(nei)安全AGI的发展。2021年,朱小虎曾被麻省理工学院(yuan)生命未来研究所邀请,以合(he)作学者的身份专注于AI的风险(xian)研究和通用人(ren)工智能安全研究。
“现(xian)阶段(duan)的人(ren)工智能为人(ren)工混乱智能”,朱小虎告诉澎湃科技(www.thepaper.cn),在他看来,即便(bian)如(ru)DeepSeek、马斯(si)克(ke)新发布(bu)的Grok3这类大(da)模型在深度推(tui)理方面表现(xian)得非常优秀,但“并不安全。”
“你(ni)的AI大(da)模型有可能会欺骗你(ni)。”朱小虎说。大(da)模型具有“欺骗性价值对(dui)齐”(Deceptive value alignment)的情况,这种对(dui)齐以欺骗的方式获得,且(qie)不能反映AI的真(zhen)实(shi)目标或意(yi)图的现(xian)象被称为“欺骗性价值对(dui)齐”。比如(ru)在训练阶段(duan)、推(tui)理阶段(duan),模型对(dui)形成(cheng)的上下文会形成(cheng)一定的“欺骗性的对(dui)齐”,这会影响很多用户比如(ru)老人(ren)和小孩的个(ge)人(ren)判断,还有对(dui)隐(yin)私保(bao)护的侵犯等,这也(ye)是模型不安全的一大(da)方面。
如(ru)果想要建立一个(ge)安全、可靠、可控且(qie)可信的人(ren)机(ji)(技)协(xie)作环境,就必须提出合(he)理应对(dui)欺骗性价值对(dui)齐的有效措施(shi)。
“现(xian)阶段(duan)只能依(yi)靠技术手段(duan)去‘堵’而不是‘疏’。”朱小虎说,不过,目前的技术还无法完全解决这些问题,因为投入在AI安全领域的精力、时间、金钱(qian)和资源远远不足(zu)。这也(ye)是大(da)模型落地行业待解的难题之一。
如(ru)何让AI变(bian)得更(geng)安全?2月22日,澎湃科技(www.thepaper.cn)和朱小虎聊了聊。
模型有“欺骗性对(dui)齐”的情况,Grok3也(ye)不安全
澎湃科技:如(ru)何理解AI Safety这一概念?
朱小虎:最早期AI安全分成(cheng)了两个(ge)大(da)类的概念,英(ying)文世界它有两个(ge)词来表达安全,Safety(安全性)和Security(安全防护、安保(bao))。
Safety的概念比较宽(kuan)泛,包括(kuo)常提到的AI伦理方面也(ye)算是Safety的分支,它更(geng)强调在早期阶段(duan)将“安全”考虑清(qing)楚(chu),包括(kuo)后期设计方法、建立相(xiang)应的保(bao)护措施(shi)、应用的方式。但Security从技术手段(duan)更(geng)强调模型的权重怎么保(bao)护、如(ru)何防止黑(hei)客攻击等。Safety更(geng)需要大(da)家深入地思考找出实(shi)践的路径,目前国内(nei)的一线(xian)安全厂商(shang)他们其实(shi)强调在Security上的能力,大(da)家对(dui)Safety的概念较为模糊。
澎湃科技:在你(ni)看来,现(xian)在AI大(da)模型常见的风险(xian)有哪些?大(da)模型技术最薄弱的环节、安全漏洞在哪里?
朱小虎:最严重的是现(xian)在大(da)模型的“黑(hei)盒(he)”特质(当人(ren)们输入一个(ge)数据(ju),大(da)模型就能直接输出一个(ge)答(da)案,但是它的运作机(ji)制却没人(ren)知道,我们称之为“黑(hei)盒(he)”)。
大(da)模型很多内(nei)在机(ji)制基于神经网络和深度学习,比如(ru)通过梯度下降等训练方式优化,但它内(nei)在的连接和权重目前缺乏(fa)有效且(qie)可规模化的研究方法去理解。这导致在使用大(da)模型技术时,生成(cheng)的内(nei)容(rong)往往难以被用户完全理解。
这种模型训练规模达到万亿级别(bie)的,它对(dui)于单个(ge)的研究人(ren)员、一个(ge)公司来说,都是一个(ge)非常棘手的任务。OpenAI花费了大(da)量精力在模型调校和对(dui)齐(Alignment)领域,利用强化学习使模型行为符合(he)人(ren)类价值观和伦理约束,让OpenAI能够(gou)在大(da)规模推(tui)广前确保(bao)模型的安全性。微软(ruan)甚至Meta(原(yuan)Facebook)等公司也(ye)曾推(tui)出了类似模型,但因为模型在当时出现(xian)了不可控的负面效果后暂停。
大(da)模型本身除了不可解释性之外,架构还容(rong)易受(shou)到外界干扰。比如(ru),恶(e)意(yi)使用或黑(hei)客攻击可能导致模型在应用场景中产生不安全的扩散效应。这些问题进一步加剧了大(da)模型在实(shi)际应用中的安全风险(xian)。
澎湃科技:对(dui)企业和用户来说,不安全的模型会有怎样的影响?
朱小虎:“不安全的模型”其实(shi)是一个(ge)模型的特质,一些研究人(ren)员包括(kuo)Anthropic PBC,(一家美国的人(ren)工智能初创企业和公益公司)也(ye)非常重视安全,他们在研究过程(cheng)中发现(xian)模型具有“欺骗性对(dui)齐”(Deceptive element)的情况。比如(ru)在训练阶段(duan)、推(tui)理阶段(duan),模型对(dui)形成(cheng)的上下文会形成(cheng)一定的“欺骗性的对(dui)齐”,它可以欺骗人(ren)。这导致在大(da)规模部署的时候(hou),会影响很多用户比如(ru)老人(ren)和小孩的个(ge)人(ren)判断,还有对(dui)隐(yin)私保(bao)护的侵犯等,这也(ye)是模型不安全的一大(da)方面。
投入在AI安全领域的精力、时间、金钱(qian)和资源远远不足(zu)
澎湃科技:在你(ni)的观察中,现(xian)在大(da)模型哪些做得安全?
朱小虎:即便(bian)马斯(si)克(ke)刚发布(bu)的Grok3、DeepSeeK也(ye)并不是百分百安全,它还具有欺骗性和诱导性。虽然这类大(da)模型的目标是实(shi)现(xian)AGI,但模型非常不安全,会衍生出很多问题需要大(da)家解决。不安全的地方在于比如(ru)模型可能会被诱导输出一些暴力、危害性信息,甚至一些少儿不宜的内(nei)容(rong)。这是大(da)模型本身固(gu)有的问题,所以需要大(da)量内(nei)容(rong)审查和过滤,现(xian)在只能通过技术手段(duan)“堵”而不是“疏”。
目前的技术还无法完全解决这些问题,因为投入在AI安全领域的精力、时间、金钱(qian)和资源远远不足(zu)。加州大(da)学伯克(ke)利分校的一位核安全专家曾提到,核领域的安全投入与核能力开发的比例是7:1。相(xiang)比之下,AI安全需要投入更(geng)多资源来确保(bao)安全性。
这些也(ye)是大(da)模型落地行业待解的难题之一。技术本身没有善恶(e),但现(xian)在技术让AI产生了价值观,因为训练大(da)模型都是来自(zi)人(ren)类的数据(ju),不管是正面或是负面,都可能产生危害。
澎湃科技:现(xian)在AI深度伪造(zao)技术能逼真(zhen)到什么阶段(duan)?普通用户该如(ru)何辨别(bie)?
朱小虎:深度伪造(zao)(DeepFake)近几年确实(shi)在持续不断地发展,随着AI技术的增强,它的精细度会逐渐增强。很多时候(hou)普通用户比如(ru)年纪较大(da)的还有小孩没有办法辨别(bie)。对(dui)模型企业来说,很多做的模型附带一些水印,这是防范AI深度伪造(zao)的技术手段(duan)之一,不过这只是初步的技术方案。
澎湃科技:你(ni)认为现(xian)在谈论AI治理和AI安全,为时过早吗?
朱小虎:之前我认为这个(ge)问题并不紧迫,但今年,特别(bie)是DeepSeek产生全球影响后,安全问题和治理问题变(bian)得非常急迫。过去,大(da)家可能一直在缓慢探索治理和安全的策略(lue),但现(xian)在进入了一个(ge)新阶段(duan),即开放(fang)式的人(ren)工智能治理。过去,许多AI技术隐(yin)藏在公司或高校背后,例如(ru)OpenAI、Google DeepMind、Anthropic等,他们的许多内(nei)容(rong)并未公开,主要是防止技术扩散。
但现(xian)在,OpenAI和DeepSeek的发展激发了大(da)家对(dui)开源生态的渴望,所以出现(xian)了许多实(shi)验和开源项目。全球的企业和高校都在推(tui)动开源AI或AGI的发展,这已成(cheng)为一个(ge)明显(xian)的趋势。在这一过程(cheng)中,需要从技术角度进行革新,构建新的框架或平台(tai)。这不是单个(ge)公司、群体或政府能够(gou)独立完成(cheng)的,而是需要全社会的参与,从不同层面引入合(he)理的方式,通盘考虑并推(tui)进。
澎湃科技:在你(ni)看来,一个(ge)安全的大(da)模型应该是怎样的?
朱小虎:目前还没有出现(xian)一个(ge)非常好的安全模型。这是一个(ge)需要磨合(he)的过程(cheng),未来可能会有新的研究机(ji)构出现(xian)来解决这些问题,因为安全性风险(xian)将很快成(cheng)为现(xian)实(shi)问题。
目前我们主要追求的是需要模型“可证明安全”,这是非常严格的要求,但从长远来看是最可行的路径。现(xian)阶段(duan)我们都是通过实(shi)验和评(ping)估不断测试和改(gai)进,逐步逼近目标。