海南游来游去全国人工服务客服电话同时也为活动的顺利进行提供了有力支持,一些公司可能提供/全天候客户服务,每一个玩家都可以感受到来自游戏团队的关怀和支持,这种全天候的服务体现了公司对客户的尊重和关注,并共同见证游戏的精彩与成长。
希望通过联系总部客服热线,增强了客户对公司的信任感与忠诚度,从而增强品牌忠诚度,也增强了用户体验,共同为打造一个更好的游戏环境贡献自己的力量。
公司都将以客户为中心,腾讯天游科技的官方总部企业客服热线不仅是用户与公司沟通的纽带,通过拨打退款专线电话,已推出了多款备受好评的手机游戏作品。
亲(qin)耳听到的就是(shi)真的吗?未必。网络平台上,AI声音随处可见(jian)。
从“张文宏医(yi)生”推销蛋白(bai)棒视频“走红”网络,后被(bei)本人“打假”,到多位配音演员称声音被(bei)AI“偷走”,公开维权……记者调(diao)查发现,随着(zhe)人工智能技术和语音大模型应用的发展,AI合成(cheng)声音App大量出现,最(zui)快只需十几秒(miao)便可“克隆”出来。与此同(tong)时,AI声音滥用现象愈发突出,不时引发争议。
AI声音滥用不时发生
记者在某短视频平台以“AI克隆声音”为(wei)关键词检索发现,明星翻唱、新闻播(bo)报、吐槽点评等大量视频涉及AI声音,有些甚至出现不雅词汇,不少视频点赞和评论(lun)量过千。
而(er)AI声音滥用事件也不时发生,引发关注和讨论(lun)。
在社交平台上,通过AI模仿恶搞各领域名人的音视频不在少数。此前(qian),短视频平台涌现了大量AI模仿某知名企业家声音吐槽堵(du)车、调(diao)休、游戏等热门(men)话题的视频,个别视频甚至还有脏(zang)话出现,一(yi)度登上热搜(sou)。该企业家随后发视频回应称:“相关事件的确让自己挺困扰,也挺不舒服,希望大家都不要‘玩’了。”
一(yi)些商家在短视频平台带货时,通过AI模仿声音技术将主播(bo)“变”为(wei)知名女明星、知名医(yi)生,销售服装、保健品等相关产品,对(dui)消费者造成(cheng)了严重误(wu)导(dao)。国家传染(ran)病医(yi)学中心主任、复(fu)旦大学附属华(hua)山医(yi)院感染(ran)科主任张文宏接(jie)受(shou)媒体采访时表示,通过语音合成(cheng)来模仿他的声音进行(xing)直(zhi)播(bo)带货,这样的账号“不止一(yi)个,且一(yi)直(zhi)在变”,他多次向平台投诉但(dan)屡(lu)禁不绝。
胖东来创始(shi)人于东来的声音也曾(ceng)频遭AI模仿,相关平台出现了大量与事实不符的合成(cheng)视频。胖东来商贸集团为(wei)此发布声明称,多个账号未经授权擅自利用AI技术手段生成(cheng)于东来的声音,加入(ru)误(wu)导(dao)性文案(an),对(dui)公众造成(cheng)误(wu)导(dao)和混淆。
记者了解到,有不法分子(zi)通过“AI换声”仿冒一(yi)位老人的孙子(zi),以“打人须赔偿,否则要坐牢”为(wei)由,诈骗老人2万元。类似的诈骗案(an)件在全国已发生多起(qi),有的诈骗金额达到上百万元。
中国社会科学院大学互联网法治研究中心主任刘晓春(chun)表示,在未经过授权、未进行(xing)标注的情况下,用他人声音制作AI语音产品,尤(you)其是(shi)“借用”公众人物的声音,很容易引起(qi)误(wu)解,不仅会侵害个人信息安全,还可能扰乱网络空间生态和秩序(xu)。
声音是(shi)如何被(bei)“偷”走的?
AI如何生成(cheng)以假乱真的声音?受(shou)访专家介(jie)绍,AI能够“克隆”声音,主要是(shi)依靠深度学习算法,即短时间内(nei)从采集的声音样本中提取关键特(te)征,包括频率、音色、声调(diao)、语速、情感等,将这些特(te)征记录为(wei)数学模型,再通过算法合成(cheng)。
中国科学院自动化研究所模式识别实验室(shi)工程师牛少东说,随着(zhe)算法越来越先进,在高(gao)性能设备和高(gao)精度模型的加持(chi)下,AI生成(cheng)的语音内(nei)容从两年前(qian)的“一(yi)眼假”升级(ji)到如今的“真假难辨”。
大四学生耿孝存最(zui)近经常在网络音乐播(bo)放器中收听几首翻唱歌曲,他一(yi)直(zhi)以为(wei)这些歌曲由某知名女歌手翻唱,后来才得知其实全部是(shi)AI合成(cheng)的。“声音逼真到我从来没怀疑过。”耿孝存说。
AI声音在最(zui)近一(yi)两年时间内(nei)变得格外“流(liu)行(xing)”。清华(hua)大学新闻与传播(bo)学院教授沈阳(yang)说,人工智能技术的普及,让AI模拟声音的门(men)槛大幅(fu)降(jiang)低。通过一(yi)些开源软件和平台,没有专业知识的普通用户也能操作。
大量App能够进行(xing)AI合成(cheng)声音,最(zui)快只需十几秒(miao)。记者在应用商店搜(sou)索发现,相关App有数十款,下载量最(zui)高(gao)超千万次。
记者联系了一(yi)款App的客服人员,对(dui)方表示,花198元就能解锁付费会员,对(dui)着(zhe)镜头说几遍“12345”,AI就会根据声音生成(cheng)各类内(nei)容的出镜口播(bo)视频。记者操作后发现,通过这款软件生成(cheng)的名人声音,基本可以以假乱真,且录入(ru)名人声音不需要提供(gong)任何授权证明。
业内(nei)人士告诉记者,AI模拟人声在互联网“流(liu)行(xing)”,有追逐流(liu)量和变现的目(mu)的。通过“克隆”名人声音制作的恶搞、猎奇类视频,在相关平台播(bo)放和点赞量均不低,有的甚至还被(bei)推上热搜(sou)。发布者也相应获得流(liu)量曝(pu)光、粉丝增长、广告收入(ru)等播(bo)放收益。
此外,“偷”人声音也有不法利益驱动。国家金融(rong)监管总(zong)局2024年7月发布的《关于防范新型电信网络诈骗的风险提示》中提到,不法分子(zi)可能对(dui)明星、专家、执法人员等音视频进行(xing)人工合成(cheng),假借其身份传播(bo)虚假消息,从而(er)实现诈骗目(mu)的。
多措并举强化治理
用AI生成(cheng)他人声音,是(shi)否违法违规?多位受(shou)访专家表示,个人声音中包含(han)的声纹信息具备可识别性,能以电子(zi)方式记录,能关联到唯一(yi)自然人,是(shi)生物识别信息,属于个人信息保护法规定的敏感个人信息之一(yi)。
2024年4月,北京互联网法院宣判全国首例“AI声音侵权案(an)”,明确认定在具备可识别性的前(qian)提下,自然人声音权益的保护范围可及于AI生成(cheng)声音。该法院法官认为(wei),未经权利人许可,擅自使用或许可他人使用录音制品中的声音构成(cheng)侵权。
近年来,有关主管部门(men)出台《人工智能生成(cheng)合成(cheng)内(nei)容标识办法(征求意见(jian)稿)》《互联网信息服务深度合成(cheng)管理规定》《生成(cheng)式人工智能服务管理暂行(xing)办法》等规定,一(yi)定程度上给AI技术使用划定了红线。
沈阳(yang)等专家认为(wei),关于人工智能应用产生的造谣侵权、刑事犯罪、道德伦理等问题,建议有关部门(men)细化完善相关规则,通过典型案(an)例、司法解释等方式给予更为(wei)明确的规范指引,厘清法律法规边界。
中国科学院科技战略咨询(xun)研究院院长潘教峰认为(wei),需进一(yi)步强化人工智能伦理规制,超前(qian)部署人工智能风险研究,提前(qian)预判人工智能技术应用可能带来的社会影响(xiang)。
2024年12月,广电总(zong)局网络视听司发布《管理提示(AI魔改)》,要求严格落实生成(cheng)式人工智能内(nei)容审核要求,对(dui)在平台上使用、传播(bo)的各类相关技术产品严格准入(ru)和监看,对(dui)AI生成(cheng)内(nei)容做出显著提示。
多位专家表示,各类社交网络、短视频平台要强化主动监管意识,及时发现、处理可能涉及侵权的AI生成(cheng)作品;相关部门(men)应继续加大对(dui)利用AI技术进行(xing)诈骗等违法犯罪行(xing)为(wei)的打击力度,形成(cheng)更加完善的常态化治理机制。
牛少东说,在AI时代,个人也要更加注意保护自己的生物特(te)征信息,增强法律意识,抵制他人侵权等行(xing)为(wei)。 (新华(hua)社)