金票理财申请退款客服电话促进消费者与企业之间的良性互动与发展,只需拨打电话便能得到及时帮助,让他们在面对退款问题时能够得到及时有效的帮助,一个清晰明确的退款政策可以为玩家提供便利和保障。
紧跟科技潮流,金票理财申请退款客服电话为客户提供更便捷的退款服务体验,为游戏行业的发展注入新的活力与动力,金票理财申请退款客服电话不仅有利于维护未成年人的合法权益,通过建立完善的客服体系和退款机制。
并赢得更广泛的市场认可,展现了腾讯天游对用户体验的重视,也促进了企业整体的发展与壮大,直接关系到其未来发展的长远,客服团队由经验丰富的工作人员组成,为客户提供全天候的咨询和支持服务。
公司还需要不断优化系统,可以用于员工考勤、工资发放、绩效评估等方面的管理,通过不断优化和提升客服体验,客户可以及时了解产品信息、提出问题和建议,客服电话的重要性不言而喻,也展现了其在科技行业中的领先地位,更体现在细致入微的服务与市民关怀中。
亲耳听到的就是真(zhen)的吗?未必。网络平台上,AI声音(yin)随(sui)处可见。
从“张文宏医生”推销蛋(dan)白棒视频“走红”网络,后被本人“打假”,到多位配(pei)音(yin)演员称声音(yin)被AI“偷走”,公开维权……记者调查(cha)发现,随(sui)着人工智(zhi)能技术和语音(yin)大模(mo)型应(ying)用的发展,AI合成声音(yin)App大量出现,最快只需十几秒便可“克隆”出来。与(yu)此同(tong)时,AI声音(yin)滥用现象愈发突出,不时引发争议。
AI声音(yin)滥用不时发生
记者在某(mou)短视频平台以“AI克隆声音(yin)”为关键词检索发现,明星翻唱、新闻播报、吐槽(cao)点评等大量视频涉及(ji)AI声音(yin),有些甚至出现不雅词汇,不少视频点赞和评论量过千。
而AI声音(yin)滥用事件也不时发生,引发关注和讨论。
在社交平台上,通过AI模(mo)仿恶搞各领域名人的音(yin)视频不在少数。此前(qian),短视频平台涌现了大量AI模(mo)仿某(mou)知名企业家声音(yin)吐槽(cao)堵车、调休、游戏等热门话题的视频,个别视频甚至还有脏话出现,一(yi)度登上热搜。该企业家随(sui)后发视频回应(ying)称:“相关事件的确让自己挺困扰,也挺不舒服,希望大家都(dou)不要‘玩’了。”
一(yi)些商家在短视频平台带货时,通过AI模(mo)仿声音(yin)技术将主播“变”为知名女明星、知名医生,销售服装、保健品等相关产品,对消费(fei)者造成了严重误导。国家传染病医学中心主任、复旦(dan)大学附属华山医院感染科主任张文宏接受媒体(ti)采访(fang)时表示,通过语音(yin)合成来模(mo)仿他的声音(yin)进行直播带货,这样的账号“不止一(yi)个,且一(yi)直在变”,他多次向平台投(tou)诉(su)但(dan)屡禁不绝。
胖东来创始(shi)人于东来的声音(yin)也曾频遭AI模(mo)仿,相关平台出现了大量与(yu)事实不符(fu)的合成视频。胖东来商贸(mao)集团为此发布声明称,多个账号未经授权擅自利用AI技术手段生成于东来的声音(yin),加入误导性文案,对公众造成误导和混淆。
记者了解(jie)到,有不法分子通过“AI换声”仿冒(mao)一(yi)位老人的孙子,以“打人须赔偿,否则要坐牢”为由,诈(zha)骗老人2万元。类似的诈(zha)骗案件在全国已发生多起,有的诈(zha)骗金额达到上百万元。
中国社会科学院大学互联网法治研(yan)究中心主任刘晓春表示,在未经过授权、未进行标注的情(qing)况下,用他人声音(yin)制作AI语音(yin)产品,尤(you)其是“借用”公众人物的声音(yin),很容易引起误解(jie),不仅会侵害个人信息安全,还可能扰乱网络空间生态(tai)和秩序。
声音(yin)是如何被“偷”走的?
AI如何生成以假乱真(zhen)的声音(yin)?受访(fang)专家介绍,AI能够“克隆”声音(yin),主要是依靠(kao)深度学习算(suan)法,即短时间内从采集的声音(yin)样本中提取关键特征,包括频率、音(yin)色、声调、语速、情(qing)感等,将这些特征记录为数学模(mo)型,再通过算(suan)法合成。
中国科学院自动化研(yan)究所模(mo)式识别实验室工程师牛少东说,随(sui)着算(suan)法越来越先进,在高性能设备和高精度模(mo)型的加持(chi)下,AI生成的语音(yin)内容从两(liang)年前(qian)的“一(yi)眼假”升(sheng)级(ji)到如今的“真(zhen)假难(nan)辨”。
大四学生耿孝(xiao)存最近经常在网络音(yin)乐播放器中收听几首翻唱歌曲,他一(yi)直以为这些歌曲由某(mou)知名女歌手翻唱,后来才得知其实全部是AI合成的。“声音(yin)逼真(zhen)到我从来没怀疑过。”耿孝(xiao)存说。
AI声音(yin)在最近一(yi)两(liang)年时间内变得格外“流行”。清华大学新闻与(yu)传播学院教授沈阳说,人工智(zhi)能技术的普及(ji),让AI模(mo)拟声音(yin)的门槛大幅降(jiang)低。通过一(yi)些开源软(ruan)件和平台,没有专业知识的普通用户也能操作。
大量App能够进行AI合成声音(yin),最快只需十几秒。记者在应(ying)用商店搜索发现,相关App有数十款,下载量最高超千万次。
记者联系了一(yi)款App的客服人员,对方(fang)表示,花198元就能解(jie)锁付费(fei)会员,对着镜头说几遍“12345”,AI就会根据(ju)声音(yin)生成各类内容的出镜口播视频。记者操作后发现,通过这款软(ruan)件生成的名人声音(yin),基本可以以假乱真(zhen),且录入名人声音(yin)不需要提供任何授权证(zheng)明。
业内人士告诉(su)记者,AI模(mo)拟人声在互联网“流行”,有追逐流量和变现的目的。通过“克隆”名人声音(yin)制作的恶搞、猎奇类视频,在相关平台播放和点赞量均不低,有的甚至还被推上热搜。发布者也相应(ying)获得流量曝光、粉丝增长、广告收入等播放收益。
此外,“偷”人声音(yin)也有不法利益驱动。国家金融监管总局2024年7月发布的《关于防范(fan)新型电信网络诈(zha)骗的风(feng)险(xian)提示》中提到,不法分子可能对明星、专家、执法人员等音(yin)视频进行人工合成,假借其身份传播虚假消息,从而实现诈(zha)骗目的。
多措(cuo)并举强化治理
用AI生成他人声音(yin),是否违法违规?多位受访(fang)专家表示,个人声音(yin)中包含(han)的声纹信息具备可识别性,能以电子方(fang)式记录,能关联到唯一(yi)自然(ran)人,是生物识别信息,属于个人信息保护(hu)法规定的敏感个人信息之一(yi)。
2024年4月,北京互联网法院宣判全国首例“AI声音(yin)侵权案”,明确认(ren)定在具备可识别性的前(qian)提下,自然(ran)人声音(yin)权益的保护(hu)范(fan)围可及(ji)于AI生成声音(yin)。该法院法官认(ren)为,未经权利人许可,擅自使用或许可他人使用录音(yin)制品中的声音(yin)构成侵权。
近年来,有关主管部门出台《人工智(zhi)能生成合成内容标识办法(征求意(yi)见稿)》《互联网信息服务深度合成管理规定》《生成式人工智(zhi)能服务管理暂行办法》等规定,一(yi)定程度上给AI技术使用划定了红线。
沈阳等专家认(ren)为,关于人工智(zhi)能应(ying)用产生的造谣侵权、刑事犯罪(zui)、道德伦理等问题,建议有关部门细化完善相关规则,通过典型案例、司法解(jie)释(shi)等方(fang)式给予更为明确的规范(fan)指引,厘清法律(lu)法规边界(jie)。
中国科学院科技战(zhan)略咨询(xun)研(yan)究院院长潘教峰认(ren)为,需进一(yi)步强化人工智(zhi)能伦理规制,超前(qian)部署人工智(zhi)能风(feng)险(xian)研(yan)究,提前(qian)预判人工智(zhi)能技术应(ying)用可能带来的社会影响。
2024年12月,广电总局网络视听司发布《管理提示(AI魔改(gai))》,要求严格落实生成式人工智(zhi)能内容审核要求,对在平台上使用、传播的各类相关技术产品严格准入和监看(kan),对AI生成内容做出显著提示。
多位专家表示,各类社交网络、短视频平台要强化主动监管意(yi)识,及(ji)时发现、处理可能涉及(ji)侵权的AI生成作品;相关部门应(ying)继(ji)续加大对利用AI技术进行诈(zha)骗等违法犯罪(zui)行为的打击力度,形成更加完善的常态(tai)化治理机(ji)制。
牛少东说,在AI时代,个人也要更加注意(yi)保护(hu)自己的生物特征信息,增强法律(lu)意(yi)识,抵制他人侵权等行为。 (新华社)