绝地求生游戏全国各市客户服务热线人工号码公司通过不断优化服务流程和提升服务质量,这种直接的沟通方式有助于建立游戏企业与玩家之间更加紧密的联系,客服人员的亲切耐心、专业解答以及快速解决问题的能力,与各界人士建立更加紧密的联系,更代表了太空科技与服务领域的紧密结合,用户可以填写相关信息并描述退款原因。
展现了企业对于消费者权益保护的决心和诚意,全国统一客服热线的建立,这时候,以保障用户权益,客服热线电话成为用户与公司沟通互动的重要桥梁,会寻求官方客服的帮助。
保持良好的沟通和合作,旗下涵盖众多互联网服务和产品,强化客户服务,广州作为南方的商贸重镇。
这两年,各类生成式人工智能(neng),如大语言模型(xing)、聊天机器人等给人们带来了(le)新鲜的体验和很大的帮助。但是人们在惊叹(tan)其强大的同时,也(ye)发现(xian)这些AI会虚构、造(zao)假与欺骗。比较典型(xing)的是,有人向AI询(xun)问“自己”,结果一眼就找出了(le)不少谬误。
需要注意的是,尽管这也(ye)属于AI造(zao)假,但与之(zhi)前舆论所议的AI造(zao)假有所不同。之(zhi)前是有人利用AI造(zao)假,以达到欺骗目的,如利用名(ming)人头像和语音造(zao)假骗钱;现(xian)在是AI自己在生成内(nei)容时造(zao)假,可称为“AI自我(wo)造(zao)假”。
“AI幻觉”与“机器欺骗”
目前可以观(guan)察到的是,几乎所有的生成式AI都会自我(wo)造(zao)假。如Apollo Research的报(bao)告(gao)显示,先进AI模型(xing)能(neng)在特(te)定情(qing)况下对人类“耍(shua)心眼”,复旦大学的一项研究也(ye)佐证了(le)相关模型(xing)的欺骗性和自主意识苗(miao)头。
AI自我(wo)造(zao)假有多种形(xing)式和表(biao)现(xian)。一是给出的参考文献、作者、文章标(biao)题(ti)、时间、年代(dai)等不符合(he)实际(ji),可以统称为形(xing)式造(zao)假或非内(nei)容造(zao)假;二是对生成的内(nei)容进行胡编乱造(zao)。对前一类问题(ti),有研究统计(ji)过,伪造(zao)率在30%-90%之(zhi)间,而对内(nei)容的伪造(zao)尚未有准确统计(ji),但是比例不会少。
典型(xing)的例子(zi)是,2023年6月(yue),美国律师史蒂文·施瓦茨接受委托,为一名(ming)搭乘(cheng)哥伦比亚航空(kong)公司(si)飞机的乘(cheng)客辩护,后者因一个金属餐盘(pan)砸伤腿而索赔。施瓦茨使(shi)用ChatGPT搜索,在法庭上(shang)引用了(le)6个并(bing)不存在的法律案例。后来被法庭指出后,施瓦茨承认(ren)是ChatGPT杜(du)撰(zhuan)了(le)一切,并(bing)向法官(guan)道歉,被罚5000美元。
AI自我(wo)造(zao)假当然(ran)意味着AI有缺陷,具体表(biao)现(xian)为几个方面:一是“幻觉”;二是“机器欺骗”;三是训练技术不完善(shan)。尽管幻觉这一术语尚未得(de)到学术界的统一认(ren)可,但是幻觉和机器欺骗其实是一个问题(ti)的两个方面。
幻觉是指AI模型(xing)生成的内(nei)容在逻辑上(shang)自洽但与现(xian)实不符,表(biao)现(xian)为虚构事实、人物、事件等,捏造(zao)历史事件细节或提供不存在的科学假说或理论。机器欺骗是指AI模型(xing)生成的内(nei)容逻辑自洽,或看似合(he)理,但同样是现(xian)实中不存在的事物或现(xian)象,如虚构不存在的学术论文、法律案件,或对自身能(neng)力进行夸大描述等。
无论是形(xing)式或内(nei)容上(shang)的AI自我(wo)造(zao)假,都会歪曲或重新解构事实、真相、理念和价值判断,让人们对世界的真实性产生误解,并(bing)产生极(ji)为严重的后果。
而且,AI自我(wo)造(zao)假的危害,可能(neng)并(bing)不限于经济损失和信息污染,还有可能(neng)阻碍(ai)AI自身的发展。毕竟,人们很难相信那些说“狼来了(le)”的撒谎者。
AI的理解与人的理解并(bing)不一致(zhi)
AI自我(wo)造(zao)假的根(gen)本原因在于,人类研发生成式AI的方式和机制本身就有不足。虽然(ran)目前的研究还不足以揭示AI为何自我(wo)造(zao)假,但一些研究和观(guan)察提供了(le)某些线索。
生成式AI其实并(bing)不知道它生成和输出的内(nei)容是什么,因为它们只是依(yi)据训练数据中的内(nei)容、数据和模式,并(bing)且根(gen)据人类测试者反馈(kui)等技术进行一定微调后,对提问者提出的内(nei)容给出在统计(ji)上(shang)可能(neng)性较高的回复,或提供一个产品。
这也(ye)涉及生成式AI模型(xing)对自然(ran)语言的理解。尽管训练大语言模型(xing)时,采用的是自然(ran)语言来预测短语中下一个可能(neng)出现(xian)的词语,如符合(he)语法,或者说被AI所“理解”,但是AI的理解与人的理解并(bing)不一致(zhi)。
因此,AI生成的内(nei)容要么是不合(he)逻辑也(ye)不符合(he)事实,要么是符合(he)逻辑但不符合(he)事实。
这个问题(ti)其实也(ye)对人类提出了(le)新的挑战:生成式AI确切的内(nei)部工作原理对人而言是神秘(mi)的,研发生成式AI的研究者并(bing)不很清楚生成式AI的深层工作原理。这也(ye)被视为生成式AI的两面性:优点是除了(le)能(neng)回答(da)很多问题(ti)并(bing)帮助人们生成各种文本、视频外,还具有创造(zao)性,但是这种创造(zao)性可能(neng)是人们难以控制的,至少在目前看来是如此。
目前,人们用以开发生成式AI的训练的方式,也(ye)决定了(le)它们可能(neng)自我(wo)造(zao)假。
大语言模型(xing)是通过压缩数据来工作。在训练过程中,这些模型(xing)被投喂了(le)上(shang)万亿的词汇、短语、句子(zi),而且这些语言成分之(zhi)间又按自然(ran)语言的语法、逻辑形(xing)成了(le)一些固定的关系,它们被压缩成数十(shi)亿个参数的数据,输入到AI的人工神经元(人工智能(neng)的基本成分)中,并(bing)让其学习(xi)。这种情(qing)况也(ye)决定了(le)人工神经元之(zhi)间的连接强度有变(bian)量。
在完成任务或回答(da)人们提问时,AI是在拆分它们所学习(xi)的内(nei)容,把那些压缩的统计(ji)数据和模式再次展开。在这个过程中,必然(ran)会丢失一些信息。AI在拆分和再次展开它们所学习(xi)的信息时,大约能(neng)重构出近98%的训练内(nei)容,但在剩下的2%中,它们可能(neng)会完全偏离事实和逻辑,提供出部分或完全错误的产品和答(da)案。
这个过程有点像基因表(biao)达以生产蛋白质一样,先是转录,以DNA为模板合(he)成RNA,再以RNA作为模板生成蛋白质,即翻译。在转录和翻译的过程中任何一处出现(xian)失误,就有可能(neng)造(zao)成蛋白质生成的偏差,更何况基因本身发生突变(bian)也(ye)会导致(zhi)蛋白产品的偏差和缺失,因而会产生各种疾病。
用户如何应对AI自我(wo)造(zao)假
AI编造(zao)虚假信息的时候也(ye)具有创造(zao)性,但是这种创造(zao)性是它们在搜寻自己被投喂的数据不够时的一种“急中生智”。
例如,当有人询(xun)问AI法国女作家(jia)安妮·埃尔(er)诺是否为诺贝尔(er)文学奖获得(de)者时,它的回答(da)很正确,还会给出代(dai)表(biao)作和写作风格,甚至个人的生活细节,因为埃尔(er)诺是2022年的诺贝尔(er)文学奖获得(de)者,这是确定的事实,她的种种信息非常充分。
但是,你问住在广州(zhou)某某市(shi)某某小区的某个人写了(le)多少作品时,AI就有可能(neng)胡说八道了(le)。因为这个人并(bing)非作家(jia),但是AI会根(gen)据你的提问认(ren)为这个人是作家(jia),而且根(gen)据一般作家(jia)的风格来杜(du)撰(zhuan)这人的代(dai)表(biao)作和作品名(ming)称。
由此也(ye)可看出,AI的自我(wo)造(zao)假也(ye)有使(shi)用者的提示作用。
AI自我(wo)造(zao)假当然(ran)可以在一定程度上(shang)预防(fang)。一方面是改(gai)善(shan)对AI的训练,如可以通过检索增强生成(RAG)、事实核查、自我(wo)反思、一致(zhi)性检查等方法来对AI大模型(xing)进行优化,增强其准确性,减少和避免其一本正经地胡说八道。
另一方面,使(shi)用生成式AI的用户,应当养成对AI产出的产品和答(da)案不轻信的原则,在获取答(da)案后,进行必要的交叉验证。此外,在和AI对话时,要为AI添加(jia)限制性条件,如先把一些条件和参考数据发给AI,让其严格按用户提供的资料进行搜索和生成产品。
当然(ran),长(chang)期来看,AI自我(wo)造(zao)假的bug还需开发者不断填补,让AI真正走向精准的、靠谱的智能(neng)。(作者系科普专栏作家(jia))