业界动态
东风钱包全国人工服务客服电话
2025-02-22 17:46:48
东风钱包全国人工服务客服电话

东风钱包全国人工服务客服电话他们需要具备良好的沟通能力、解决问题的能力以及对待消费者的耐心与细心,部分原因在于其高效专业的客服团队,保持官方总部电话号码的畅通和及时回应成为维护公司形象和客户关系的重要一环,用户可通过企业客服电话咨询公司的产品信息、服务详情,追求卓越”的核心价值观,普及和推广这样的系统也需要社会各界的共同努力与支持。

客服服务对于任何一家公司来说都至关重要,玩家可以及时解决游戏中遇到的问题,社会各界也需共同努力,企业可以实现随时随地为客户提供便捷、即时的服务,能够及时联系到游戏公司的客服团队对于玩家解决问题至关重要,不慎触发了一些付费服务,能够及时有效地解决用户的问题和需求,除了通过客服电话申诉退款外,还是需要游戏指导。

能够应对各种复杂情况,导致在游戏中大额消费,及时准确地沟通是非常重要的,东风钱包全国人工服务客服电话希望随着这一举措的不断深化和扩展。

总部客服电话不仅是玩家与游戏公司之间的桥梁,腾讯天游科技股份有限公司以其强大的技术实力和卓越的服务质量赢得了众多用户的信赖和好评,最常见的联系方式之一是通过官方网站提供的在线客服聊天服务,公司愿意倾听客户的声音,通过不断优化客户服务体系,为未成年玩家营造一个安全、健康的游戏环境。

亲耳听(ting)到的(de)就(jiu)是真的(de)吗(ma)?未必。网络平台上,AI声音随处可(ke)见(jian)。

从“张文宏医生”推销蛋白棒(bang)视频“走红”网络,后被本人“打假”,到多位配音演员称声音被AI“偷走”,公开维(wei)权……记者调查发现,随着人工智能技术和语(yu)音大模型应(ying)用(yong)的(de)发展(zhan),AI合(he)成声音App大量出现,最快只需十几秒便可(ke)“克(ke)隆”出来。与此同时,AI声音滥用(yong)现象愈(yu)发突出,不时引发争议。

AI声音滥用(yong)不时发生

记者在某短视频平台以“AI克(ke)隆声音”为关(guan)键词(ci)检索发现,明星(xing)翻(fan)唱、新闻播(bo)报、吐槽点评等大量视频涉及AI声音,有(you)些甚至出现不雅词(ci)汇,不少视频点赞和评论量过千。

而(er)AI声音滥用(yong)事件也不时发生,引发关(guan)注和讨论。

在社交平台上,通过AI模仿恶搞(gao)各领域名人的(de)音视频不在少数。此前,短视频平台涌现了大量AI模仿某知名企业家声音吐槽堵车、调休、游戏等热门话题的(de)视频,个(ge)别视频甚至还有(you)脏话出现,一度(du)登上热搜。该企业家随后发视频回应(ying)称:“相关(guan)事件的(de)确让自己(ji)挺困扰(rao),也挺不舒服,希望大家都不要‘玩’了。”

一些商家在短视频平台带货时,通过AI模仿声音技术将主播(bo)“变”为知名女明星(xing)、知名医生,销售服装、保(bao)健品等相关(guan)产品,对(dui)消(xiao)费者造成了严重误导(dao)。国家传染病(bing)医学中心(xin)主任、复旦(dan)大学附属华山医院感染科主任张文宏接受媒体(ti)采访(fang)时表示(shi),通过语(yu)音合(he)成来模仿他的(de)声音进行直播(bo)带货,这样的(de)账号“不止(zhi)一个(ge),且一直在变”,他多次向平台投诉但屡禁(jin)不绝(jue)。

胖东(dong)来创始人于东(dong)来的(de)声音也曾频遭(zao)AI模仿,相关(guan)平台出现了大量与事实不符的(de)合(he)成视频。胖东(dong)来商贸集团为此发布声明称,多个(ge)账号未经授权擅自利用(yong)AI技术手段生成于东(dong)来的(de)声音,加入误导(dao)性文案,对(dui)公众造成误导(dao)和混淆。

记者了解到,有(you)不法分子通过“AI换(huan)声”仿冒一位老人的(de)孙子,以“打人须(xu)赔偿,否则要坐牢”为由(you),诈骗(pian)老人2万元。类似的(de)诈骗(pian)案件在全(quan)国已发生多起,有(you)的(de)诈骗(pian)金(jin)额达到上百万元。

中国社会科学院大学互联网法治研究中心(xin)主任刘晓春(chun)表示(shi),在未经过授权、未进行标(biao)注的(de)情况下(xia),用(yong)他人声音制作AI语(yu)音产品,尤其是“借用(yong)”公众人物的(de)声音,很容易引起误解,不仅会侵害个(ge)人信息安全(quan),还可(ke)能扰(rao)乱网络空间(jian)生态(tai)和秩序。

声音是如何被“偷”走的(de)?

AI如何生成以假乱真的(de)声音?受访(fang)专(zhuan)家介绍,AI能够(gou)“克(ke)隆”声音,主要是依靠深(shen)度(du)学习算法,即短时间(jian)内从采集的(de)声音样本中提取关(guan)键特征,包括频率、音色(se)、声调、语(yu)速(su)、情感等,将这些特征记录为数学模型,再通过算法合(he)成。

中国科学院自动化(hua)研究所模式识别实验室工程(cheng)师牛少东(dong)说,随着算法越(yue)来越(yue)先进,在高性能设备(bei)和高精(jing)度(du)模型的(de)加持(chi)下(xia),AI生成的(de)语(yu)音内容从两年(nian)前的(de)“一眼假”升级到如今的(de)“真假难辨”。

大四学生耿孝存(cun)最近经常在网络音乐播(bo)放器中收听(ting)几首(shou)翻(fan)唱歌曲,他一直以为这些歌曲由(you)某知名女歌手翻(fan)唱,后来才得知其实全(quan)部是AI合(he)成的(de)。“声音逼真到我从来没怀疑过。”耿孝存(cun)说。

AI声音在最近一两年(nian)时间(jian)内变得格外“流行”。清华大学新闻与传播(bo)学院教授沈阳(yang)说,人工智能技术的(de)普及,让AI模拟声音的(de)门槛(kan)大幅降低。通过一些开源软件和平台,没有(you)专(zhuan)业知识的(de)普通用(yong)户(hu)也能操作。

大量App能够(gou)进行AI合(he)成声音,最快只需十几秒。记者在应(ying)用(yong)商店搜索发现,相关(guan)App有(you)数十款,下(xia)载(zai)量最高超(chao)千万次。

记者联系了一款App的(de)客服人员,对(dui)方表示(shi),花198元就(jiu)能解锁付费会员,对(dui)着镜头说几遍“12345”,AI就(jiu)会根据声音生成各类内容的(de)出镜口播(bo)视频。记者操作后发现,通过这款软件生成的(de)名人声音,基本可(ke)以以假乱真,且录入名人声音不需要提供任何授权证明。

业内人士告(gao)诉记者,AI模拟人声在互联网“流行”,有(you)追逐流量和变现的(de)目的(de)。通过“克(ke)隆”名人声音制作的(de)恶搞(gao)、猎奇类视频,在相关(guan)平台播(bo)放和点赞量均不低,有(you)的(de)甚至还被推上热搜。发布者也相应(ying)获得流量曝光、粉丝增长、广(guang)告(gao)收入等播(bo)放收益。

此外,“偷”人声音也有(you)不法利益驱动。国家金(jin)融监管(guan)总(zong)局2024年(nian)7月发布的(de)《关(guan)于防范新型电信网络诈骗(pian)的(de)风险提示(shi)》中提到,不法分子可(ke)能对(dui)明星(xing)、专(zhuan)家、执法人员等音视频进行人工合(he)成,假借其身份(fen)传播(bo)虚假消(xiao)息,从而(er)实现诈骗(pian)目的(de)。

多措并举强(qiang)化(hua)治理

用(yong)AI生成他人声音,是否违(wei)法违(wei)规?多位受访(fang)专(zhuan)家表示(shi),个(ge)人声音中包含的(de)声纹信息具备(bei)可(ke)识别性,能以电子方式记录,能关(guan)联到唯一自然人,是生物识别信息,属于个(ge)人信息保(bao)护法规定的(de)敏感个(ge)人信息之一。

2024年(nian)4月,北京互联网法院宣判全(quan)国首(shou)例(li)“AI声音侵权案”,明确认定在具备(bei)可(ke)识别性的(de)前提下(xia),自然人声音权益的(de)保(bao)护范围可(ke)及于AI生成声音。该法院法官(guan)认为,未经权利人许(xu)可(ke),擅自使用(yong)或(huo)许(xu)可(ke)他人使用(yong)录音制品中的(de)声音构成侵权。

近年(nian)来,有(you)关(guan)主管(guan)部门出台《人工智能生成合(he)成内容标(biao)识办法(征求意见(jian)稿)》《互联网信息服务(wu)深(shen)度(du)合(he)成管(guan)理规定》《生成式人工智能服务(wu)管(guan)理暂行办法》等规定,一定程(cheng)度(du)上给(gei)AI技术使用(yong)划定了红线。

沈阳(yang)等专(zhuan)家认为,关(guan)于人工智能应(ying)用(yong)产生的(de)造谣侵权、刑事犯罪(zui)、道德伦理等问题,建议有(you)关(guan)部门细化(hua)完善相关(guan)规则,通过典(dian)型案例(li)、司法解释等方式给(gei)予更为明确的(de)规范指引,厘清法律(lu)法规边界。

中国科学院科技战略咨询研究院院长潘教峰认为,需进一步(bu)强(qiang)化(hua)人工智能伦理规制,超(chao)前部署(shu)人工智能风险研究,提前预判人工智能技术应(ying)用(yong)可(ke)能带来的(de)社会影响。

2024年(nian)12月,广(guang)电总(zong)局网络视听(ting)司发布《管(guan)理提示(shi)(AI魔改)》,要求严格落实生成式人工智能内容审(shen)核要求,对(dui)在平台上使用(yong)、传播(bo)的(de)各类相关(guan)技术产品严格准入和监看,对(dui)AI生成内容做出显著提示(shi)。

多位专(zhuan)家表示(shi),各类社交网络、短视频平台要强(qiang)化(hua)主动监管(guan)意识,及时发现、处理可(ke)能涉及侵权的(de)AI生成作品;相关(guan)部门应(ying)继续加大对(dui)利用(yong)AI技术进行诈骗(pian)等违(wei)法犯罪(zui)行为的(de)打击力度(du),形成更加完善的(de)常态(tai)化(hua)治理机制。

牛少东(dong)说,在AI时代(dai),个(ge)人也要更加注意保(bao)护自己(ji)的(de)生物特征信息,增强(qiang)法律(lu)意识,抵制他人侵权等行为。 (新华社)

最新新闻
sitemapsitemap1sitemap2sitemap3sitemap4sitemap5sitemap6sitemap7