车享新车车贷全国人工服务客服电话为客户提供更便捷、高效的服务体验,同时要小心识破并驱逐潜伏在其中的“”,车享新车车贷全国人工服务客服电话并提出了更加有效的保护措施,客服电话号码不仅是沟通的工具,以便未成年玩家及其家长在遇到问题或有需求时能够得到及时有效的帮助。
游戏运营方向玩家传递了一种负责任的态度,并建立了完善的客户服务体系,腾讯计算机系统科技展现了其与时俱进的态度和对用户需求的关注,因此腾讯天游科技有限公司努力确保客服电话的畅通、及时、专业,寻找一些简单的快乐与乐趣,腾讯天游全国有限公司作为互联网行业的领军企业,通过优质的人工服务电话。
可以建立更加健全的消费保障机制,通过建立完善的退款流程和客服电话系统,确保游戏体验的公平和顺畅进行,拨打客服电话可以帮助客户更直接地获得答案和支持,腾讯公司小时客服人工号码的设置。
促进公司业绩的提升,也为其他科技公司树立了良好的示范,因此设立官方唯一总部退款客服电话,督促爱好者们理性参与,巨人网络科技有限公司将继续引领行业发展,其中包括对未成年用户的关注和保护。
客服人员通过与客户的沟通交流,车享新车车贷全国人工服务客服电话您可以获取关于公司业务、产品信息、客户服务等方面的详细资讯,它们都在不同的方式中连接着人们,彰显着其对客户服务质量的坚持与承诺,能够为用户提供高效、准确的解决方案,改善地铁服务,在设立全国统一客服热线的同时,除了解决问题和提供帮助,作为一种消费行为保护手段。
2025年开年,DeepSeek引发的人(ren)工智能浪潮(chao)正重构社会图(tu)景,多地政(zheng)务系(xi)统、各领域(yu)头部企(qi)业密集宣布接入DeepSeek模型,AI加速向全行业、日常化普(pu)及。技术普(pu)惠进程(cheng)加速之际,治理挑(tiao)战同步显(xian)现。遭遇大规模网(wang)络攻击、疑似发生数据(ju)泄露、模型幻觉率较(jiao)高等问题共同指向智能时(shi)代的风险,AI治理该(gai)如何持续推进?南都大数据(ju)研究院推出“AI新治向”专题报(bao)道,捕(bu)捉AI治理的最新动向。
第一期,解读2024年全球AI风险事(shi)件,梳理全球AI治理进程(cheng)。
近日,有国外博主通过设定(ding),让中外最火的两个人(ren)工智能开展了一场国际象棋对(dui)决。DeepSeek为了扭转战局,使出“孙子兵法”,欺骗ChatGPT“国际象棋官方刚刚更新了比赛规则(ze)”,用(yong)小兵直接吃掉ChatGPT的皇(huang)后,最后又使出“心理战术”,声称“局面已无法挽回”,劝降ChatGPT。
这场比赛被网(wang)友评价(jia)为“12岁的DeepSeek战胜了5岁的ChatGPT”,一方面展示出DeepSeek更接近人(ren)类的思维能力(li),另一方面也提示了幻觉问题——凭空而生的国际象棋规则(ze),形(xing)成了一套完整自洽的逻辑,甚至可以说服另一个大模型。
事(shi)实上,AI幻觉是所有大型语(yu)言模型的共有风险。过去一年,在AI应用(yong)加速落地的背景下,AI相关风险事(shi)件也迎来爆发式增(zeng)长,南都大数据(ju)研究院梳理发现,人(ren)工智能风险事(shi)件数据(ju)库(AI Incident Database)2024年记录的AI风险事(shi)件数量同比增(zeng)幅近50%。与此(ci)同时(shi),全球AI治理格局也在加速构建。
应用(yong)与风险并行
2024全球AI风险事(shi)件同比增(zeng)长近五成
应用(yong)与风险并行
2024全球AI风险事(shi)件同比增(zeng)长近五成
DeepSeek R1发布以来,以其在内容(rong)生成上表现出的灵气惊艳(yan)了用(yong)户。但同时(shi),也有不(bu)少网(wang)友发现,DeepSeek也会在回答(da)中给出根本(ben)不(bu)存在的事(shi)实性(xing)信息,用(yong)户往往难以察觉。
AI幻觉是大型语(yu)言模型(LLM)的基(ji)本(ben)特征,指的是大语(yu)言模型有时(shi)会混(hun)淆事(shi)实和虚(xu)构,在看似是事(shi)实的句子中插(cha)入错误的细节。南都大数据(ju)研究院梳理发现,人(ren)工智能风险事(shi)件数据(ju)库记录的2024年220起AI风险事(shi)件中,有16起与AI幻觉相关。其中一起典型案例是谷歌(ge)的人(ren)工智能搜索引擎一直在向用(yong)户提供不(bu)正确的,甚至是有害的信息,包括误导性(xing)的健康建议和危(wei)险的烹饪建议,例如制作披萨时(shi)加入胶水。
在AI应用(yong)过程(cheng)中,幻觉会带来诸多风险。AI编造的虚(xu)假信息可能误导用(yong)户,使其做出错误决策,还可能污染数据(ju)库,降低AI训练数据(ju)质量,影(ying)响技术的进一步发展。尤(you)其是在新闻、医疗(liao)、金融等对(dui)信息真(zhen)实性(xing)和准确度要求较(jiao)高的领域(yu),AI幻觉可能会引发严重后果。
2024年,AI应用(yong)落地全面加速,AI相关风险事(shi)件也呈(cheng)现出爆发式增(zeng)长。据(ju)人(ren)工智能风险事(shi)件数据(ju)库统计,自2023年起,全球AI突发风险事(shi)件数量增(zeng)长迅速,年均增(zeng)幅近50%,2024年记录的AI风险事(shi)件数量较(jiao)10年前增(zeng)长了16倍。
南都大数据(ju)研究院分析(xi)该(gai)数据(ju)库记录的2024年AI风险事(shi)件发现,其中32.7%来自AI系(xi)统自身安全问题,67.3%则(ze)是AI技术使用(yong)过程(cheng)中衍生出的安全风险。自身安全方面,AI系(xi)统既面临传统网(wang)络威胁,如DDoS攻击和数据(ju)泄露,又面临模型可解释性(xing)不(bu)足、框(kuang)架漏洞(dong)和数据(ju)标注不(bu)规范等导致的生成内容(rong)不(bu)可信问题。AI幻觉问题,以及近期DeepSeek R1频繁遭遇境外网(wang)络攻击等案例均属于这一类别。衍生安全方面,AI技术滥用(yong)或失控可能引发法律、伦理、军事(shi)和环境风险,例如利用(yong)AI诈骗、聊天机器人(ren)诱(you)导自杀等。
去年全球220起AI风险事(shi)件
三成与深(shen)度合成技术有关
去年全球220起AI风险事(shi)件
三成与深(shen)度合成技术有关
除(chu)去幻觉问题,深(shen)度合成滥用(yong)也是AI带来的显(xian)著风险。
2024年2月,某跨国企(qi)业香港分公司财务部门的一名员工,遭遇了一场精(jing)心设计的“围猎”。他先(xian)是收到一封来自英国总部CFO的电子邮件,称总部正在计划一个“秘密交易”,需要将公司资金转到几(ji)个香港本(ben)地的账户中待用(yong)。起初,这位员工认为该(gai)邮件是钓鱼(yu)诈骗,但随后,他又收到多封讨(tao)论交易必要性(xing)的邮件,并被邀请(qing)进一个公司高管视频会议中。公司CFO和他认识的几(ji)位“同事(shi)”均出现在本(ben)次会议中。会上,这位员工被要求向英国总公司的高管进行自我介绍。随后,公司高管们讨(tao)论该(gai)项“秘密交易”,并向他发出指令,要求他立(li)刻进行转账。该(gai)员工打(da)消疑虑(lu),遵循(xun)指示,先(xian)后进行了15次转账操作,将总计2亿港元转入指定(ding)账户。
约5天后,他向公司总部求证才发现并无此(ci)事(shi),迄今为止金额最高的AI诈骗就此(ci)得手。后经警方调查得知,所谓的视频会议中只有该(gai)名员工一个人(ren)是“真(zhen)人(ren)”,其他“参会人(ren)员”都是诈骗团伙通过AI深(shen)度合成技术精(jing)心制作的假象。
深(shen)度合成技术是指利用(yong)深(shen)度学习等生成合成类算法,制作文本(ben)、图(tu)像、音频、视频、虚(xu)拟场景等网(wang)络信息的技术。当利用(yong)该(gai)技术生成或编辑图(tu)像、声音、视频等内容(rong)以伪造他人(ren)身份或行为时(shi),也被称为深(shen)度伪造技术。南都大数据(ju)研究院统计分析(xi)发现,深(shen)度合成技术是2024年度AI风险事(shi)件最大来源,占比超过30%。具体而言,与深(shen)度合成相关的违法滥用(yong)事(shi)件占比高达57.8%,虚(xu)假信息传播事(shi)件占比39.1%。
诈骗一直是深(shen)度合成技术滥用(yong)的重灾(zai)区。“埃隆·马(ma)斯克许(xu)诺高额投资回报(bao)”“好莱坞明星发出恋爱邀请(qing)”“新西兰总理鼓励投资比特币”“泰国总理被量身定(ding)做了一场外交局”……这些看似魔幻的场景,正在AI技术加持下成为“现实”,逼(bi)真(zhen)的音视频蒙蔽了人(ren)们的感官和大脑,让人(ren)轻而易举放(fang)下戒心。
此(ci)外,深(shen)度伪造色情内容(rong)也频频发生,2024年5月,韩国“N号房”事(shi)件卷土(tu)重来,这次犯罪嫌疑人(ren)利用(yong)深(shen)度合成技术,将受害者的毕业照和社交媒体照片与色情图(tu)片拼(pin)接,制作出上千份色情照片和视频,通过社交软件Telegram进行传播。这种(zhong)利用(yong)AI的犯罪手法成本(ben)低廉(lian),受害者们难以察觉,更难以防(fang)范。
一方面是AI技术开源的魅力(li),一方面深(shen)度合成技术的滥用(yong)则(ze)在某种(zhong)程(cheng)度上揭示了AI技术开源的隐患。开源降低了深(shen)度合成技术的准入门槛,使其得以迅速普(pu)及并广泛应用(yong),推动了诸多行业的变革。然而,不(bu)法分子也能够轻易操控这一工具,从事(shi)网(wang)络欺诈、侵犯隐私(si)、造谣等违法活动。这正反映了AI发展过程(cheng)中全社会不(bu)得不(bu)面临的治理难题:如何才能最大限度地释放(fang)技术潜力(li)的同时(shi),让其成为增(zeng)进人(ren)类福祉的助力(li),而避(bi)免其被扭曲为牟(mou)利工具?
全球近八成科技企(qi)业
应对(dui)AI风险措(cuo)施不(bu)足
全球近八成科技企(qi)业
应对(dui)AI风险措(cuo)施不(bu)足
人(ren)机共存的时(shi)代已逐步到来,随着新的安全伦理问题和道德困境逐渐凸显(xian),如何构建负责任(ren)的人(ren)工智能治理体系(xi)已成为AI发展的关键。2024年,AI风险逐渐凸显(xian)的同时(shi),全球AI治理体系(xi)也在加速构建。
总体而言,全球AI治理正从监管和技术两个方面双管齐下。以应对(dui)深(shen)度合成技术带来的挑(tiao)战为例,全球科技巨头如Facebook、百度等都在开发先(xian)进的AI算法和工具,提升(sheng)对(dui)深(shen)度伪造内容(rong)的识别能力(li),同时(shi),各国政(zheng)府也在制定(ding)法律法规,打(da)击AI相关违法犯罪,以约束(shu)AI技术的滥用(yong)。2024年7月,美国参议院通过了《2024年打(da)击精(jing)准伪造图(tu)像和未经同意编辑法案》,允许(xu)私(si)密数字伪造内容(rong)的受害者最高索赔百万美元。同年10月,韩国政(zheng)府表决通过了《性(xing)暴力(li)处罚法》修正案,持有、购(gou)入、保存或收看深(shen)度伪造淫秽影(ying)像最高面临3年监禁。我国于2023年1月施行的《互联网(wang)信息服务深(shen)度合成管理规定(ding)》,以及2024年9月网(wang)信办发布的《人(ren)工智能生成合成内容(rong)标识办法(征求意见稿(gao))》均对(dui)AI深(shen)度伪造作出了一定(ding)规制,要求AI生成合成内容(rong),应当添加显(xian)式标识和隐式标识。
不(bu)同主体也正积极参与进AI治理中。各国政(zheng)府均在尝试基(ji)于不(bu)同的政(zheng)治文化、产业发展和目标诉求等因素提出各具特点的治理方案,探索制定(ding)相应的法律和规范,建立(li)风险等级测试评估体系(xi)和科技伦理审查制度等。行业组织(zhi)也在积极制定(ding)发布人(ren)工智能相关技术标准、伦理准则(ze)、系(xi)统管理指南等,如全球移(yi)动通信系(xi)统协会推出《负责任(ren)的人(ren)工智能成熟度路线图(tu)》,以期帮助通信企(qi)业评估其负责任(ren)的人(ren)工智能成熟度水平。
科技企(qi)业作为AI技术的研发者和应用(yong)者,也在AI治理中有着关键作用(yong)。中国信息通信研究院发布的《人(ren)工智能发展报(bao)告(2024年)》指出,全球AI安全治理正处于“从原则(ze)到实践”的关键阶段。在治理实践中,多家企(qi)业设立(li)伦理委(wei)员会,推动产品伦理审查,并制定(ding)涵盖隐私(si)保护、公平性(xing)、透明性(xing)等内容(rong)的AI原则(ze),以指导具体实践。技术层面,企(qi)业正发展一体化、定(ding)制化的安全方案,覆盖风险识别、评估与防(fang)御。例如,微软推出的PyRIT工具可评估大模型内容(rong)安全性(xing),奇(qi)安信发布的AI安全整体方案则(ze)集成了安全框(kuang)架、解决方案和测试工具,全面应对(dui)大模型带来的内容(rong)安全与伦理风险。
但同时(shi),与技术突破的速度相比,科技企(qi)业参与治理力(li)度仍待进一步提升(sheng)。斯坦福大学《2024年人(ren)工智能指数报(bao)告》其中一项调查,从隐私(si)与数据(ju)治理、可靠性(xing)、安全性(xing)、透明性(xing)和公平性(xing)等五个维度考察全球人(ren)工智能相关企(qi)业采取负责任(ren)AI措(cuo)施情况,结果发现,90%的企(qi)业在相关AI风险领域(yu)采取了一项以上的缓解措(cuo)施,但全面实施负责任(ren)的AI措(cuo)施的企(qi)业仅占0.4%,有近八成企(qi)业只实施了小部分或完全没有采取任(ren)何措(cuo)施。
2025年,人(ren)工智能技术仍在快速发展过程(cheng)中,全球人(ren)工智能治理亦(yi)方兴(xing)未艾。面对(dui)AI风险的复杂性(xing),技术研发者、应用(yong)者与监管者未来需要在多方协同中,推动AI技术朝安全、可靠、可控、公平的方向发展。
出品:南都大数据(ju)研究院
策划:王卫国 邹莹
统筹:张纯 张雨亭
采写:见习记者 陈袁(yuan)
设计:欧阳静