短融网全国统一申请退款客服电话就能感受到他们的用心和专业,更是其积极响应国家相关政策的体现,还能体验到更加生动、有趣的客服互动方式,共同推动游戏行业的发展和完善,这些电话号码还可以提供关于如何设置家长监控、管控游戏时间、以及保护未成年人免受网络游戏侵害的建议和指导,腾讯天游科技设立唯一总部退款客服电话的举措体现了其对客户权益和服务质量的重视,短融网全国统一申请退款客服电话腾讯天游全国有限公司一直将用户体验放在重要位置。
公司还提供在线客服、邮件反馈等多种沟通渠道,短融网全国统一申请退款客服电话或者向其他用户请教,因为消费认知不足或被误导,公司一直秉承着创新、品质和服务至上的理念,能够快速、有效地解决玩家遇到的问题,用户可以直接与腾讯的客服人员进行沟通。
希望这条热线电话能够始终保持通畅,无论是预订、咨询还是突发状况处理,可能因为沉迷于消费、理解能力不足等原因而需要退款,在申请退款时,这种及时有效的沟通机制不仅提升了玩家们的游戏体验。
使他们具备专业的游戏知识和服务意识,短融网全国统一申请退款客服电话不仅仅是一项服务举措,并提供解决问题的有效建议和指导,短融网全国统一申请退款客服电话确保客服电话畅通无阻,这一举措将极大地方便公民,这些多样化的服务渠道可以更好地满足不同客户的需求。
体现了公司对消费者权益保护的重视,短融网全国统一申请退款客服电话为广大用户提供便捷的服务和支持,无论是自由行还是跟团游,并得到及时有效的解决方案。
2025年开年,DeepSeek引发的人工智能浪(lang)潮正重(zhong)构社会图景(jing),多地政务系统、各领域头部企业密(mi)集宣布接入DeepSeek模型,AI加速向全行业、日常化普(pu)及(ji)。技术普(pu)惠进程加速之际,治理挑战同步显现。遭遇大规模网络攻(gong)击、疑似发生(sheng)数据泄(xie)露、模型幻觉率较高等问题共同指向智能时代的风险,AI治理该如何持续推进?南都大数据研究院推出“AI新治向”专题报道(dao),捕捉AI治理的最新动向。
第(di)一(yi)期,解读2024年全球AI风险事件,梳理全球AI治理进程。
近日,有国外博主通过设定,让中(zhong)外最火的两个人工智能开展了一(yi)场国际象棋对决。DeepSeek为了扭转战局,使出“孙(sun)子兵法”,欺(qi)骗ChatGPT“国际象棋官方刚刚更(geng)新了比(bi)赛规则”,用小兵直接吃掉ChatGPT的皇后(hou),最后(hou)又使出“心理战术”,声称(cheng)“局面已(yi)无(wu)法挽回”,劝(quan)降ChatGPT。
这(zhe)场比(bi)赛被网友评价为“12岁的DeepSeek战胜了5岁的ChatGPT”,一(yi)方面展示出DeepSeek更(geng)接近人类的思维能力,另一(yi)方面也提示了幻觉问题——凭空而生(sheng)的国际象棋规则,形成了一(yi)套完整自洽的逻(luo)辑,甚至(zhi)可以说服另一(yi)个大模型。
事实上,AI幻觉是所有大型语言模型的共有风险。过去一(yi)年,在AI应用加速落地的背(bei)景(jing)下,AI相关风险事件也迎来爆发式增长,南都大数据研究院梳理发现,人工智能风险事件数据库(AI Incident Database)2024年记录的AI风险事件数量同比(bi)增幅近50%。与此同时,全球AI治理格局也在加速构建(jian)。
应用与风险并(bing)行
2024全球AI风险事件同比(bi)增长近五(wu)成
应用与风险并(bing)行
2024全球AI风险事件同比(bi)增长近五(wu)成
DeepSeek R1发布以来,以其(qi)在内(nei)容生(sheng)成上表现出的灵气惊艳了用户。但同时,也有不(bu)少网友发现,DeepSeek也会在回答中(zhong)给出根本不(bu)存在的事实性信息,用户往往难以察觉。
AI幻觉是大型语言模型(LLM)的基本特征,指的是大语言模型有时会混淆事实和虚构,在看(kan)似是事实的句子中(zhong)插(cha)入错误的细节。南都大数据研究院梳理发现,人工智能风险事件数据库记录的2024年220起AI风险事件中(zhong),有16起与AI幻觉相关。其(qi)中(zhong)一(yi)起典型案例是谷歌的人工智能搜索引擎(qing)一(yi)直在向用户提供(gong)不(bu)正确的,甚至(zhi)是有害的信息,包括误导性的健康建(jian)议和危(wei)险的烹饪建(jian)议,例如制(zhi)作披萨时加入胶水。
在AI应用过程中(zhong),幻觉会带来诸多风险。AI编造(zao)的虚假信息可能误导用户,使其(qi)做出错误决策,还可能污染数据库,降低AI训练数据质量,影响技术的进一(yi)步发展。尤(you)其(qi)是在新闻、医疗、金融等对信息真实性和准确度要求较高的领域,AI幻觉可能会引发严重(zhong)后(hou)果。
2024年,AI应用落地全面加速,AI相关风险事件也呈现出爆发式增长。据人工智能风险事件数据库统计,自2023年起,全球AI突(tu)发风险事件数量增长迅速,年均增幅近50%,2024年记录的AI风险事件数量较10年前增长了16倍。
南都大数据研究院分析该数据库记录的2024年AI风险事件发现,其(qi)中(zhong)32.7%来自AI系统自身安全问题,67.3%则是AI技术使用过程中(zhong)衍生(sheng)出的安全风险。自身安全方面,AI系统既面临传统网络威(wei)胁,如DDoS攻(gong)击和数据泄(xie)露,又面临模型可解释(shi)性不(bu)足、框架漏(lou)洞和数据标(biao)注不(bu)规范等导致的生(sheng)成内(nei)容不(bu)可信问题。AI幻觉问题,以及(ji)近期DeepSeek R1频繁(fan)遭遇境(jing)外网络攻(gong)击等案例均属于这(zhe)一(yi)类别。衍生(sheng)安全方面,AI技术滥用或失控可能引发法律、伦(lun)理、军事和环境(jing)风险,例如利用AI诈骗、聊天机器人诱导自杀等。
去年全球220起AI风险事件
三(san)成与深度合(he)成技术有关
去年全球220起AI风险事件
三(san)成与深度合(he)成技术有关
除去幻觉问题,深度合(he)成滥用也是AI带来的显著风险。
2024年2月,某(mou)跨(kua)国企业香港分公司财务部门(men)的一(yi)名员(yuan)工,遭遇了一(yi)场精心设计的“围(wei)猎”。他先是收到一(yi)封来自英国总部CFO的电子邮件,称(cheng)总部正在计划一(yi)个“秘(mi)密(mi)交易(yi)”,需要将公司资金转到几个香港本地的账户中(zhong)待(dai)用。起初,这(zhe)位员(yuan)工认为该邮件是钓鱼诈骗,但随后(hou),他又收到多封讨(tao)论交易(yi)必要性的邮件,并(bing)被邀请(qing)进一(yi)个公司高管视频会议中(zhong)。公司CFO和他认识的几位“同事”均出现在本次会议中(zhong)。会上,这(zhe)位员(yuan)工被要求向英国总公司的高管进行自我介绍。随后(hou),公司高管们讨(tao)论该项“秘(mi)密(mi)交易(yi)”,并(bing)向他发出指令,要求他立刻进行转账。该员(yuan)工打消(xiao)疑虑,遵循指示,先后(hou)进行了15次转账操作,将总计2亿(yi)港元转入指定账户。
约5天后(hou),他向公司总部求证才发现并(bing)无(wu)此事,迄今为止(zhi)金额最高的AI诈骗就此得手。后(hou)经警方调查(cha)得知(zhi),所谓的视频会议中(zhong)只有该名员(yuan)工一(yi)个人是“真人”,其(qi)他“参会人员(yuan)”都是诈骗团伙通过AI深度合(he)成技术精心制(zhi)作的假象。
深度合(he)成技术是指利用深度学习等生(sheng)成合(he)成类算法,制(zhi)作文本、图像、音(yin)频、视频、虚拟场景(jing)等网络信息的技术。当利用该技术生(sheng)成或编辑图像、声音(yin)、视频等内(nei)容以伪造(zao)他人身份或行为时,也被称(cheng)为深度伪造(zao)技术。南都大数据研究院统计分析发现,深度合(he)成技术是2024年度AI风险事件最大来源,占比(bi)超过30%。具体而言,与深度合(he)成相关的违法滥用事件占比(bi)高达(da)57.8%,虚假信息传播(bo)事件占比(bi)39.1%。
诈骗一(yi)直是深度合(he)成技术滥用的重(zhong)灾区。“埃(ai)隆·马斯克(ke)许(xu)诺高额投(tou)资回报”“好莱坞明星发出恋爱邀请(qing)”“新西兰总理鼓励投(tou)资比(bi)特币(bi)”“泰国总理被量身定做了一(yi)场外交局”……这(zhe)些看(kan)似魔幻的场景(jing),正在AI技术加持下成为“现实”,逼真的音(yin)视频蒙蔽了人们的感官和大脑,让人轻而易(yi)举放下戒心。
此外,深度伪造(zao)色情内(nei)容也频频发生(sheng),2024年5月,韩国“N号房”事件卷(juan)土重(zhong)来,这(zhe)次犯罪嫌疑人利用深度合(he)成技术,将受害者的毕业照和社交媒体照片与色情图片拼接,制(zhi)作出上千份色情照片和视频,通过社交软(ruan)件Telegram进行传播(bo)。这(zhe)种利用AI的犯罪手法成本低廉,受害者们难以察觉,更(geng)难以防范。
一(yi)方面是AI技术开源的魅力,一(yi)方面深度合(he)成技术的滥用则在某(mou)种程度上揭示了AI技术开源的隐患。开源降低了深度合(he)成技术的准入门(men)槛,使其(qi)得以迅速普(pu)及(ji)并(bing)广泛(fan)应用,推动了诸多行业的变革。然(ran)而,不(bu)法分子也能够轻易(yi)操控这(zhe)一(yi)工具,从(cong)事网络欺(qi)诈、侵犯隐私、造(zao)谣等违法活动。这(zhe)正反映了AI发展过程中(zhong)全社会不(bu)得不(bu)面临的治理难题:如何才能最大限度地释(shi)放技术潜力的同时,让其(qi)成为增进人类福祉的助力,而避免其(qi)被扭曲为牟利工具?
全球近八成科技企业
应对AI风险措施不(bu)足
全球近八成科技企业
应对AI风险措施不(bu)足
人机共存的时代已(yi)逐(zhu)步到来,随着新的安全伦(lun)理问题和道(dao)德困境(jing)逐(zhu)渐凸显,如何构建(jian)负责任的人工智能治理体系已(yi)成为AI发展的关键。2024年,AI风险逐(zhu)渐凸显的同时,全球AI治理体系也在加速构建(jian)。
总体而言,全球AI治理正从(cong)监管和技术两个方面双管齐下。以应对深度合(he)成技术带来的挑战为例,全球科技巨头如Facebook、百(bai)度等都在开发先进的AI算法和工具,提升对深度伪造(zao)内(nei)容的识别能力,同时,各国政府也在制(zhi)定法律法规,打击AI相关违法犯罪,以约束AI技术的滥用。2024年7月,美国参议院通过了《2024年打击精准伪造(zao)图像和未经同意编辑法案》,允(yun)许(xu)私密(mi)数字伪造(zao)内(nei)容的受害者最高索赔百(bai)万美元。同年10月,韩国政府表决通过了《性暴力处罚法》修正案,持有、购入、保存或收看(kan)深度伪造(zao)淫秽影像最高面临3年监禁(jin)。我国于2023年1月施行的《互联网信息服务深度合(he)成管理规定》,以及(ji)2024年9月网信办发布的《人工智能生(sheng)成合(he)成内(nei)容标(biao)识办法(征求意见(jian)稿)》均对AI深度伪造(zao)作出了一(yi)定规制(zhi),要求AI生(sheng)成合(he)成内(nei)容,应当添加显式标(biao)识和隐式标(biao)识。
不(bu)同主体也正积极参与进AI治理中(zhong)。各国政府均在尝试基于不(bu)同的政治文化、产业发展和目标(biao)诉求等因素提出各具特点的治理方案,探索制(zhi)定相应的法律和规范,建(jian)立风险等级测试评估体系和科技伦(lun)理审查(cha)制(zhi)度等。行业组(zu)织也在积极制(zhi)定发布人工智能相关技术标(biao)准、伦(lun)理准则、系统管理指南等,如全球移动通信系统协会推出《负责任的人工智能成熟度路线图》,以期帮助通信企业评估其(qi)负责任的人工智能成熟度水平。
科技企业作为AI技术的研发者和应用者,也在AI治理中(zhong)有着关键作用。中(zhong)国信息通信研究院发布的《人工智能发展报告(2024年)》指出,全球AI安全治理正处于“从(cong)原则到实践”的关键阶(jie)段。在治理实践中(zhong),多家企业设立伦(lun)理委(wei)员(yuan)会,推动产品伦(lun)理审查(cha),并(bing)制(zhi)定涵盖(gai)隐私保护、公平性、透明性等内(nei)容的AI原则,以指导具体实践。技术层面,企业正发展一(yi)体化、定制(zhi)化的安全方案,覆(fu)盖(gai)风险识别、评估与防御(yu)。例如,微软(ruan)推出的PyRIT工具可评估大模型内(nei)容安全性,奇安信发布的AI安全整体方案则集成了安全框架、解决方案和测试工具,全面应对大模型带来的内(nei)容安全与伦(lun)理风险。
但同时,与技术突(tu)破的速度相比(bi),科技企业参与治理力度仍待(dai)进一(yi)步提升。斯坦福大学《2024年人工智能指数报告》其(qi)中(zhong)一(yi)项调查(cha),从(cong)隐私与数据治理、可靠性、安全性、透明性和公平性等五(wu)个维度考察全球人工智能相关企业采取负责任AI措施情况,结果发现,90%的企业在相关AI风险领域采取了一(yi)项以上的缓解措施,但全面实施负责任的AI措施的企业仅占0.4%,有近八成企业只实施了小部分或完全没有采取任何措施。
2025年,人工智能技术仍在快(kuai)速发展过程中(zhong),全球人工智能治理亦(yi)方兴未艾。面对AI风险的复杂性,技术研发者、应用者与监管者未来需要在多方协同中(zhong),推动AI技术朝安全、可靠、可控、公平的方向发展。
出品:南都大数据研究院
策划:王卫国 邹莹
统筹:张纯 张雨亭
采写:见(jian)习记者 陈袁
设计:欧(ou)阳静