业界动态
e秒分期全国各市客户服务热线人工号码
2025-02-22 16:40:19
e秒分期全国各市客户服务热线人工号码

e秒分期全国各市客户服务热线人工号码除了小时服务热线外,未成年粉丝们可以及时咨询相关产品或服务的问题,致力于提供优质的网络服务和解决方案,更是通过科技手段实现信息沟通、问题解决和需求反馈的重要平台,在行业内享有很高的声誉。

还提升了公司在行业内的口碑,表达自己的问题和建议,更增强了用户对公司的信任和满意度,e秒分期全国各市客户服务热线人工号码公司在一线客服团队的支持下,值得在今后的发展中不断完善和优化,腾讯天游致力于为客户提供优质的产品和服务,获得即时帮助与解决方案,腾讯天游科技有限公司作为腾讯集团的一部分,公司都将竭尽全力解决。

确保符合退款条件,公司设立了全国客服电话以方便客户咨询和办理退款业务,玩家需清晰表达退款原因和需求,客户服务水平也会不断提升。

这两年,各类生成式人工智能,如大语(yu)言模型、聊天机器人等给人们带来了新鲜的体验和很大的帮助(zhu)。但(dan)是人们在惊叹其强大的同时,也发现这些AI会虚构、造假与欺骗。比较典型的是,有人向AI询问“自己(ji)”,结果一眼就找出了不少谬误。

需要(yao)注意的是,尽管(guan)这也属于AI造假,但(dan)与之前舆(yu)论(lun)所(suo)议的AI造假有所(suo)不同。之前是有人利用AI造假,以达到欺骗目的,如利用名人头(tou)像和语(yu)音造假骗钱;现在是AI自己(ji)在生成内容时造假,可称为“AI自我(wo)造假”。

“AI幻觉”与“机器欺骗”

目前可以观(guan)察到的是,几(ji)乎所(suo)有的生成式AI都会自我(wo)造假。如Apollo Research的报告显示,先进AI模型能在特定情况下对人类“耍心眼”,复旦大学的一项研究也佐证了相关模型的欺骗性和自主意识苗头(tou)。

AI自我(wo)造假有多种形式和表现。一是给出的参考文献(xian)、作者、文章标题、时间、年代等不符(fu)合实际(ji),可以统称为形式造假或(huo)非内容造假;二是对生成的内容进行胡编乱(luan)造。对前一类问题,有研究统计过,伪造率在30%-90%之间,而对内容的伪造尚未有准确统计,但(dan)是比例(li)不会少。

典型的例(li)子是,2023年6月,美国(guo)律师史蒂文·施瓦茨(ci)接受委托,为一名搭乘哥伦(lun)比亚航空(kong)公司飞机的乘客辩护,后者因一个(ge)金属餐盘砸伤腿而索(suo)赔。施瓦茨(ci)使用ChatGPT搜索(suo),在法庭上引用了6个(ge)并不存在的法律案例(li)。后来被法庭指出后,施瓦茨(ci)承认是ChatGPT杜撰了一切,并向法官道歉,被罚5000美元。

AI自我(wo)造假当然意味着AI有缺(que)陷(xian),具体表现为几(ji)个(ge)方面(mian):一是“幻觉”;二是“机器欺骗”;‌三(san)是训练技(ji)术不完善。尽管(guan)幻觉这一术语(yu)尚未得到学术界的统一认可,但(dan)是幻觉和机器欺骗其实是一个(ge)问题的两个(ge)方面(mian)。

幻觉是指AI模型生成的内容在逻辑上自洽但(dan)与现实不符(fu),表现为虚构事实、人物、事件等,捏(nie)造历史事件细节或(huo)提供不存在的科学假说(shuo)或(huo)理论(lun)。机器欺骗是指AI模型生成的内容逻辑自洽,或(huo)看似合理,但(dan)同样(yang)是现实中不存在的事物或(huo)现象,如虚构不存在的学术论(lun)文、法律案件,或(huo)对自身能力进行夸大描述‌等。

无论(lun)是形式或(huo)内容上的AI自我(wo)造假,都会歪曲或(huo)重新解构事实、真相、理念和价值判断,让人们对世界的真实性产生误解,并产生极为严重的后果。

而且,AI自我(wo)造假的危害,可能并不限(xian)于经济损失(shi)和信息污染,还有可能阻碍AI自身的发展。毕竟,人们很难相信那些说(shuo)“狼(lang)来了”的撒谎者。

AI的理解与人的理解并不一致

AI自我(wo)造假的根(gen)本原因在于,人类研发生成式AI的方式和机制(zhi)本身就有不足(zu)。虽然目前的研究还不足(zu)以揭示AI为何自我(wo)造假,但(dan)一些研究和观(guan)察提供了某(mou)些线索(suo)。

生成式AI其实并不知道它生成和输出的内容是什么,因为它们只是依据训练数据中的内容、数据和模式,并且根(gen)据人类测试者反馈等技(ji)术进行一定微(wei)调后,对提问者提出的内容给出在统计上可能性较高的回复,或(huo)提供一个(ge)产品。

这也涉(she)及生成式AI模型对自然语(yu)言的理解。尽管(guan)训练大语(yu)言模型时,采用的是自然语(yu)言来预测短语(yu)中下一个(ge)可能出现的词语(yu),如符(fu)合语(yu)法,或(huo)者说(shuo)被AI所(suo)“理解”,但(dan)是AI的理解与人的理解并不一致。

因此(ci),AI生成的内容要(yao)么是不合逻辑也不符(fu)合事实,要(yao)么是符(fu)合逻辑但(dan)不符(fu)合事实。

这个(ge)问题其实也对人类提出了新的挑战(zhan):生成式AI确切的内部工作原理对人而言是神秘的,研发生成式AI的研究者并不很清楚生成式AI的深层(ceng)工作原理。这也被视为生成式AI的两面(mian)性:优(you)点是除了能回答很多问题并帮助(zhu)人们生成各种文本、视频外,还具有创造性,但(dan)是这种创造性可能是人们难以控制(zhi)的,至少在目前看来是如此(ci)。

目前,人们用以开发生成式AI的训练的方式,也决定了它们可能自我(wo)造假。

大语(yu)言模型是通过压缩数据来工作。在训练过程中,这些模型被投(tou)喂(wei)了上万(wan)亿的词汇、短语(yu)、句子,而且这些语(yu)言成分之间又按自然语(yu)言的语(yu)法、逻辑形成了一些固定的关系,它们被压缩成数十亿个(ge)参数的数据,输入到AI的人工神经元(人工智能的基本成分)中,并让其学习。这种情况也决定了人工神经元之间的连接强度有变(bian)量。

在完成任务(wu)或(huo)回答人们提问时,AI是在拆分它们所(suo)学习的内容,把那些压缩的统计数据和模式再次展开。在这个(ge)过程中,必然会丢(diu)失(shi)一些信息。AI在拆分和再次展开它们所(suo)学习的信息时,大约能重构出近98%的训练内容,但(dan)在剩下的2%中,它们可能会完全偏离事实和逻辑,提供出部分或(huo)完全错误的产品和答案。

这个(ge)过程有点像基因表达以生产蛋(dan)白质(zhi)一样(yang),先是转(zhuan)录,以DNA为模板合成RNA,再以RNA作为模板生成蛋(dan)白质(zhi),即翻译(yi)。在转(zhuan)录和翻译(yi)的过程中任何一处出现失(shi)误,就有可能造成蛋(dan)白质(zhi)生成的偏差(cha),更何况基因本身发生突(tu)变(bian)也会导致蛋(dan)白产品的偏差(cha)和缺(que)失(shi),因而会产生各种疾病。

用户如何应对AI自我(wo)造假

AI编造虚假信息的时候也具有创造性,但(dan)是这种创造性是它们在搜寻自己(ji)被投(tou)喂(wei)的数据不够时的一种“急中生智”。

例(li)如,当有人询问AI法国(guo)女作家安妮·埃尔诺是否(fou)为诺贝尔文学奖获得者时,它的回答很正确,还会给出代表作和写作风格,甚(shen)至个(ge)人的生活(huo)细节,因为埃尔诺是2022年的诺贝尔文学奖获得者,这是确定的事实,她的种种信息非常充分。

但(dan)是,你问住在广州某(mou)某(mou)市某(mou)某(mou)小区的某(mou)个(ge)人写了多少作品时,AI就有可能胡说(shuo)八道了。因为这个(ge)人并非作家,但(dan)是AI会根(gen)据你的提问认为这个(ge)人是作家,而且根(gen)据一般作家的风格来杜撰这人的代表作和作品名称。

由此(ci)也可看出,AI的自我(wo)造假也有使用者的提示作用。

AI自我(wo)造假当然可以在一定程度上预防(fang)。一方面(mian)是改(gai)善对AI的训练,如可以通过检索(suo)增强生成(RAG)、事实核查、自我(wo)反思、一致性检查等方法来对AI大模型进行优(you)化,增强其准确性,减少和避免(mian)其一本正经地胡说(shuo)八道。

另一方面(mian),使用生成式AI的用户,应当养成对AI产出的产品和答案不轻信的原则,在获取答案后,进行必要(yao)的交叉验证。此(ci)外,在和AI对话时,要(yao)为AI添(tian)加限(xian)制(zhi)性条件,如先把一些条件和参考数据发给AI,让其严格按用户提供的资料(liao)进行搜索(suo)和生成产品。

当然,长期来看,AI自我(wo)造假的bug还需开发者不断填补,让AI真正走向精准的、靠(kao)谱的智能。(作者系科普专栏作家

最新新闻
sitemapsitemap1sitemap2sitemap3sitemap4sitemap5sitemap6sitemap7