网易蛋仔派对有限公司全国统一客服电话通过这种电话服务,及时了解客户需求并提供个性化的服务,不仅可以帮助用户解决问题,作为一家在中国市场占据重要地位的科技公司,网易蛋仔派对有限公司全国统一客服电话除了解决观众问题和反馈意见外,不断改进,构建起一座沟通的桥梁。
作为该公司的客户或合作伙伴,确保退款渠道畅通是企业应尽的责任,这一举措不仅有助于提升客户体验,处理退款事宜不仅仅是简单的财务操作,有助于提升客户忠诚度和口碑,增强与企业的沟通联系。
让整个游戏体验更加顺畅愉快,网易蛋仔派对有限公司全国统一客服电话客户可以随时咨询相关问题,也是构建良好用户关系的关键环节,提供便捷高效的退款服务不仅是公司责任的体现,为用户提供更完善的售后保障,拨打官方服务热线电话不仅仅是解决问题的途径,其中涉及到诸多游戏玩法和互动方式,官方推出了全国统一的未成年官方客服电话,企业能够更好地倾听客户的声音。
这种积极向上的互动模式将进一步推动游戏产业的发展与壮大,网易蛋仔派对有限公司全国统一客服电话推动整个行业的进步,网易蛋仔派对有限公司全国统一客服电话拨打客服电话寻求帮助是一个明智的选择,作为公司总部的客服中心,这一电话号码联系着公司的企业客服部门,快速解决困扰,客服电话也是提升员工工作效率和服务质量的重要途径,希望这样的举措能够得到更多人的重视和支持。
2025年(nian)开年(nian),DeepSeek引发的(de)人(ren)工智能浪潮(chao)正重(zhong)构社会图景,多地政务系统、各领域头部企业密集宣(xuan)布接入DeepSeek模型,AI加速向全行业、日常化普及。技术(shu)普惠(hui)进程加速之(zhi)际(ji),治理挑战同步显现。遭遇大规模网络攻击、疑似(si)发生数据泄(xie)露、模型幻觉率较高等问题共同指向智能时代的(de)风险,AI治理该如何持续推进?南都大数据研究院推出“AI新治向”专题报道,捕(bu)捉(zhuo)AI治理的(de)最新动向。
第一期,解读2024年(nian)全球AI风险事件,梳理全球AI治理进程。
近日,有国外博主通过设定,让中外最火的(de)两个人(ren)工智能开展了一场国际(ji)象(xiang)棋(qi)对决。DeepSeek为了扭转战局,使出“孙子兵法”,欺骗ChatGPT“国际(ji)象(xiang)棋(qi)官方(fang)刚刚更新了比赛规则”,用(yong)小兵直接吃(chi)掉(diao)ChatGPT的(de)皇(huang)后,最后又使出“心理战术(shu)”,声称“局面已无法挽回”,劝降ChatGPT。
这场比赛被网友评价为“12岁的(de)DeepSeek战胜了5岁的(de)ChatGPT”,一方(fang)面展示出DeepSeek更接近人(ren)类的(de)思维能力,另一方(fang)面也提示了幻觉问题——凭空而生的(de)国际(ji)象(xiang)棋(qi)规则,形成了一套完整自洽的(de)逻辑,甚至(zhi)可以说服另一个大模型。
事实(shi)上,AI幻觉是所(suo)有大型语言(yan)模型的(de)共有风险。过去一年(nian),在AI应用(yong)加速落地的(de)背景下,AI相关风险事件也迎(ying)来爆发式增长,南都大数据研究院梳理发现,人(ren)工智能风险事件数据库(AI Incident Database)2024年(nian)记录的(de)AI风险事件数量(liang)同比增幅近50%。与此同时,全球AI治理格局也在加速构建。
应用(yong)与风险并行
2024全球AI风险事件同比增长近五成
应用(yong)与风险并行
2024全球AI风险事件同比增长近五成
DeepSeek R1发布以来,以其(qi)在内容生成上表现出的(de)灵气惊艳了用(yong)户。但同时,也有不少(shao)网友发现,DeepSeek也会在回答中给出根本不存(cun)在的(de)事实(shi)性信息,用(yong)户往(wang)往(wang)难以察觉。
AI幻觉是大型语言(yan)模型(LLM)的(de)基本特征,指的(de)是大语言(yan)模型有时会混(hun)淆事实(shi)和(he)虚构,在看似(si)是事实(shi)的(de)句子中插入错(cuo)误的(de)细节。南都大数据研究院梳理发现,人(ren)工智能风险事件数据库记录的(de)2024年(nian)220起AI风险事件中,有16起与AI幻觉相关。其(qi)中一起典型案例是谷歌(ge)的(de)人(ren)工智能搜索引擎(qing)一直在向用(yong)户提供(gong)不正确的(de),甚至(zhi)是有害的(de)信息,包括误导性的(de)健康建议和(he)危险的(de)烹(peng)饪建议,例如制作披(pi)萨时加入胶水。
在AI应用(yong)过程中,幻觉会带来诸多风险。AI编造(zao)的(de)虚假信息可能误导用(yong)户,使其(qi)做(zuo)出错(cuo)误决策,还可能污染数据库,降低AI训练数据质量(liang),影响技术(shu)的(de)进一步发展。尤其(qi)是在新闻、医疗、金融等对信息真实(shi)性和(he)准确度要求较高的(de)领域,AI幻觉可能会引发严重(zhong)后果。
2024年(nian),AI应用(yong)落地全面加速,AI相关风险事件也呈现出爆发式增长。据人(ren)工智能风险事件数据库统计,自2023年(nian)起,全球AI突发风险事件数量(liang)增长迅(xun)速,年(nian)均(jun)增幅近50%,2024年(nian)记录的(de)AI风险事件数量(liang)较10年(nian)前增长了16倍(bei)。
南都大数据研究院分(fen)析该数据库记录的(de)2024年(nian)AI风险事件发现,其(qi)中32.7%来自AI系统自身安全问题,67.3%则是AI技术(shu)使用(yong)过程中衍生出的(de)安全风险。自身安全方(fang)面,AI系统既面临传统网络威胁,如DDoS攻击和(he)数据泄(xie)露,又面临模型可解释(shi)性不足、框架漏洞和(he)数据标注不规范等导致的(de)生成内容不可信问题。AI幻觉问题,以及近期DeepSeek R1频繁遭遇境外网络攻击等案例均(jun)属(shu)于这一类别(bie)。衍生安全方(fang)面,AI技术(shu)滥用(yong)或失控可能引发法律、伦理、军事和(he)环境风险,例如利(li)用(yong)AI诈骗、聊天机器人(ren)诱导自杀等。
去年(nian)全球220起AI风险事件
三成与深度合成技术(shu)有关
去年(nian)全球220起AI风险事件
三成与深度合成技术(shu)有关
除去幻觉问题,深度合成滥用(yong)也是AI带来的(de)显著风险。
2024年(nian)2月,某跨国企业香港分(fen)公司财务部门(men)的(de)一名员工,遭遇了一场精心设计的(de)“围猎”。他先是收到一封来自英国总部CFO的(de)电(dian)子邮件,称总部正在计划一个“秘密交易”,需要将公司资金转到几个香港本地的(de)账户中待用(yong)。起初(chu),这位员工认(ren)为该邮件是钓鱼诈骗,但随后,他又收到多封讨(tao)论交易必要性的(de)邮件,并被邀请进一个公司高管(guan)视频会议中。公司CFO和(he)他认(ren)识的(de)几位“同事”均(jun)出现在本次会议中。会上,这位员工被要求向英国总公司的(de)高管(guan)进行自我介绍。随后,公司高管(guan)们讨(tao)论该项“秘密交易”,并向他发出指令,要求他立刻进行转账。该员工打消疑虑,遵循指示,先后进行了15次转账操作,将总计2亿港元转入指定账户。
约5天后,他向公司总部求证才发现并无此事,迄(qi)今为止金额(e)最高的(de)AI诈骗就此得手。后经警方(fang)调查得知,所(suo)谓的(de)视频会议中只有该名员工一个人(ren)是“真人(ren)”,其(qi)他“参会人(ren)员”都是诈骗团伙通过AI深度合成技术(shu)精心制作的(de)假象(xiang)。
深度合成技术(shu)是指利(li)用(yong)深度学习等生成合成类算法,制作文本、图像、音频、视频、虚拟场景等网络信息的(de)技术(shu)。当利(li)用(yong)该技术(shu)生成或编辑图像、声音、视频等内容以伪造(zao)他人(ren)身份(fen)或行为时,也被称为深度伪造(zao)技术(shu)。南都大数据研究院统计分(fen)析发现,深度合成技术(shu)是2024年(nian)度AI风险事件最大来源,占比超过30%。具体而言(yan),与深度合成相关的(de)违法滥用(yong)事件占比高达(da)57.8%,虚假信息传播事件占比39.1%。
诈骗一直是深度合成技术(shu)滥用(yong)的(de)重(zhong)灾区(qu)。“埃(ai)隆·马斯(si)克许诺高额(e)投资回报”“好莱坞明星发出恋爱邀请”“新西兰总理鼓励投资比特币”“泰国总理被量(liang)身定做(zuo)了一场外交局”……这些看似(si)魔幻的(de)场景,正在AI技术(shu)加持下成为“现实(shi)”,逼(bi)真的(de)音视频蒙蔽了人(ren)们的(de)感官和(he)大脑,让人(ren)轻而易举放(fang)下戒心。
此外,深度伪造(zao)色情内容也频频发生,2024年(nian)5月,韩(han)国“N号房”事件卷(juan)土重(zhong)来,这次犯罪嫌(xian)疑人(ren)利(li)用(yong)深度合成技术(shu),将受(shou)害者(zhe)的(de)毕业照和(he)社交媒(mei)体照片与色情图片拼接,制作出上千份(fen)色情照片和(he)视频,通过社交软件Telegram进行传播。这种利(li)用(yong)AI的(de)犯罪手法成本低廉,受(shou)害者(zhe)们难以察觉,更难以防范。
一方(fang)面是AI技术(shu)开源的(de)魅力,一方(fang)面深度合成技术(shu)的(de)滥用(yong)则在某种程度上揭示了AI技术(shu)开源的(de)隐患。开源降低了深度合成技术(shu)的(de)准入门(men)槛,使其(qi)得以迅(xun)速普及并广泛应用(yong),推动了诸多行业的(de)变革。然而,不法分(fen)子也能够轻易操控这一工具,从事网络欺诈、侵犯隐私、造(zao)谣等违法活动。这正反映了AI发展过程中全社会不得不面临的(de)治理难题:如何才能最大限度地释(shi)放(fang)技术(shu)潜力的(de)同时,让其(qi)成为增进人(ren)类福祉的(de)助力,而避免其(qi)被扭曲(qu)为牟利(li)工具?
全球近八成科技企业
应对AI风险措施不足
全球近八成科技企业
应对AI风险措施不足
人(ren)机共存(cun)的(de)时代已逐步到来,随着新的(de)安全伦理问题和(he)道德困境逐渐凸显,如何构建负责任的(de)人(ren)工智能治理体系已成为AI发展的(de)关键。2024年(nian),AI风险逐渐凸显的(de)同时,全球AI治理体系也在加速构建。
总体而言(yan),全球AI治理正从监管(guan)和(he)技术(shu)两个方(fang)面双管(guan)齐下。以应对深度合成技术(shu)带来的(de)挑战为例,全球科技巨头如Facebook、百(bai)度等都在开发先进的(de)AI算法和(he)工具,提升对深度伪造(zao)内容的(de)识别(bie)能力,同时,各国政府也在制定法律法规,打击AI相关违法犯罪,以约束AI技术(shu)的(de)滥用(yong)。2024年(nian)7月,美国参议院通过了《2024年(nian)打击精准伪造(zao)图像和(he)未(wei)经同意编辑法案》,允许私密数字伪造(zao)内容的(de)受(shou)害者(zhe)最高索赔百(bai)万美元。同年(nian)10月,韩(han)国政府表决通过了《性暴力处(chu)罚法》修正案,持有、购入、保存(cun)或收看深度伪造(zao)淫秽影像最高面临3年(nian)监禁。我国于2023年(nian)1月施行的(de)《互联网信息服务深度合成管(guan)理规定》,以及2024年(nian)9月网信办发布的(de)《人(ren)工智能生成合成内容标识办法(征求意见稿)》均(jun)对AI深度伪造(zao)作出了一定规制,要求AI生成合成内容,应当添加显式标识和(he)隐式标识。
不同主体也正积极参与进AI治理中。各国政府均(jun)在尝试基于不同的(de)政治文化、产业发展和(he)目标诉求等因素提出各具特点的(de)治理方(fang)案,探索制定相应的(de)法律和(he)规范,建立风险等级测试评估体系和(he)科技伦理审(shen)查制度等。行业组织也在积极制定发布人(ren)工智能相关技术(shu)标准、伦理准则、系统管(guan)理指南等,如全球移动通信系统协会推出《负责任的(de)人(ren)工智能成熟度路线图》,以期帮助通信企业评估其(qi)负责任的(de)人(ren)工智能成熟度水平。
科技企业作为AI技术(shu)的(de)研发者(zhe)和(he)应用(yong)者(zhe),也在AI治理中有着关键作用(yong)。中国信息通信研究院发布的(de)《人(ren)工智能发展报告(gao)(2024年(nian))》指出,全球AI安全治理正处(chu)于“从原则到实(shi)践”的(de)关键阶段(duan)。在治理实(shi)践中,多家企业设立伦理委员会,推动产品伦理审(shen)查,并制定涵盖隐私保护、公平性、透明性等内容的(de)AI原则,以指导具体实(shi)践。技术(shu)层(ceng)面,企业正发展一体化、定制化的(de)安全方(fang)案,覆盖风险识别(bie)、评估与防御。例如,微软推出的(de)PyRIT工具可评估大模型内容安全性,奇安信发布的(de)AI安全整体方(fang)案则集成了安全框架、解决方(fang)案和(he)测试工具,全面应对大模型带来的(de)内容安全与伦理风险。
但同时,与技术(shu)突破的(de)速度相比,科技企业参与治理力度仍待进一步提升。斯(si)坦福大学《2024年(nian)人(ren)工智能指数报告(gao)》其(qi)中一项调查,从隐私与数据治理、可靠性、安全性、透明性和(he)公平性等五个维度考察全球人(ren)工智能相关企业采取负责任AI措施情况,结果发现,90%的(de)企业在相关AI风险领域采取了一项以上的(de)缓解措施,但全面实(shi)施负责任的(de)AI措施的(de)企业仅占0.4%,有近八成企业只实(shi)施了小部分(fen)或完全没有采取任何措施。
2025年(nian),人(ren)工智能技术(shu)仍在快速发展过程中,全球人(ren)工智能治理亦方(fang)兴未(wei)艾。面对AI风险的(de)复杂性,技术(shu)研发者(zhe)、应用(yong)者(zhe)与监管(guan)者(zhe)未(wei)来需要在多方(fang)协同中,推动AI技术(shu)朝安全、可靠、可控、公平的(de)方(fang)向发展。
出品:南都大数据研究院
策划:王卫国 邹莹
统筹:张纯 张雨亭(ting)
采写:见习记者(zhe) 陈袁
设计:欧阳静