AI这东西,有时候跟人似的,明明啥都不懂,还偏要装出一副啥都知道的样子AI模型,咱们把这毛病叫作“大模型幻觉”。就跟考试时候那些瞎编乱造答案的学生一样,AI也能给你弄出一套看似挺有道理,实际上却挺扯淡的结论,而且那态度,简直就一副老子天下第一的德行。
AI也会吹牛不打草稿
上周,有个兄弟用人工智能查资料,那AI说得跟真的一样,说秦始皇老先生发明了电动车。这兄弟当时就信了什么是大模型幻觉?分类及经典翻车案例全解析,差点儿在朋友圈里晒这个“冷门知识”。结果,一查历史资料,发现秦始皇老人家连自行车都没见过。这AI讲故事,比那些自媒体还专业,关键是它自己还深信不疑,简直就像个“历史专家”。
这事在学术界有个名儿叫“事实性幻觉”,主要分俩情况:一是AI把那些已知的事实给搞混了,就跟把周杰伦和鲁迅给搞混了一样;还有个更离谱的,它竟然能凭空捏造事实,比如它宣称有研究说吃泡面能长个儿,还特地带上了那些子虚乌有的论文参考文献。
AI的阅读理解零分
AI这东西总结文章,分分钟给你整出一篇新货。你要它根据文章内容回答问题,它直接能给你带到外太空去。这叫啥?忠实性幻觉!说白了,就是AI的阅读理解能力跟小学生差不多。你问东,它给你扯西;你说前门楼子,它跟你聊胯骨轴子。
我让那个AI帮我改简历,特意跟它说,要简洁,别整那么多废话。结果,它给我弄了个800字的求职信,开头还来了一段莎士比亚式的自我介绍。更逗的是,这信里还编了个故事,说我得了个“宇宙最佳员工”的奖,颁奖单位还整了个“银河系人力资源协会”。
AI的迷惑行为大赏
那啥医疗AI曾经吹嘘得跟啥似的,力荐某款药,还搬出啥“国际顶级期刊”的研究来撑腰。患者差点就信了,结果一查,发现那期刊纯粹是瞎扯淡。还有个历史发烧友也被AI给骗了,AI说《史记》里头有专门论述气候变化的章节,还扯淡说全球变暖对汉朝有啥影响。
这事更扯淡什么是大模型幻觉?分类及经典翻车案例全解析,居然有AI冒充莎士比亚说“元宇宙是未来”。要莎士比亚真知道这茬,八成能从坟墓里蹦出来骂街。这事充分说明,AI要是认真起来,瞎编乱造的本事,人类都得自愧不如。
为什么AI这么能编
这事不能全怪AI,主要锅得甩给那些训练数据。那些资料,简直就是个信息大杂烩,乱七八糟啥都有。而且AI那家伙,找规律那是一把好手,有时候,找得有点过了,就开始自己瞎搞。就跟那些星座运势一样,硬是要扯出点不存在的联系来。
还有个原因,得看AI怎么生成文字。它这玩儿法儿,跟玩儿文字接龙似的,每次都挑个概率最高的词儿接着来。可这概率高不等于就准,比如接个“李白是”,你猜它下一句是“唐朝诗人”还是“星际战舰驾驶员”?接得多了,说不定就歪到哪儿去了,怪里怪气的。
如何防止被AI忽悠
一开始得对AI持质疑态度,它说的每一句话都得来个疑问符。再者,得让AI出示资料出处,虽说它可能就瞎编一气。最关键的,别把AI当神,关键信息得多重检查,就跟翻遍对象手机似的,得细致入微。
得把AI那啥“温度参数”给降一降,让它别那么皮。不过也不能降得太低,不然它就成了一台只会复读的机器。这其中的分寸得掌握好,就跟炒菜一样,火太大菜会糊,太小又没熟。可惜咱这种普通人可能没权限去调,那只能自己多长个心眼了。
AI幻觉的未来发展
研究人员正琢磨着怎么治AI那爱吹牛的毛病,有人搞起了训练数据的优化,有人弄了个事实核查系统。不过,短期内这问题可能根治不了,毕竟咱们人类自己都经常胡说八道。说不定哪天AI的幻觉还能派上用场,比如写写科幻小说,编编段子啥的。
现在这些AI开始说“这个我不确定”了,这事挺不错的。虽然听起来不够酷炫,但总比胡说八道来得强。就跟相亲的时候老实交代自己的小缺点一样AI模型,虽然不够完美,但至少是真实的。希望未来的AI能学会“知之为知之,不知为不知”这么简单的道理。
还没有评论,来说两句吧...