文 | 互联网的那些事儿
添加微信好友, 获取更多信息
复制微信号
" 人无完人,金无足赤 " 这句话,哪怕是对 Deep Seek 也同样适用。
2 月 10 日,原人民日报海外版总编辑詹国枢发表了一篇名为《DeepSeek 的致命伤——说假话》的文章,向我们指出了时下 Deep Seek 最大的问题之一。
即一本正经地胡说八道。
詹国枢表示,在借助 Deep Seek 撰写文章的过程中,他发现对方经常会凭空捏造事实、提供错误信息。最离谱的莫过于 Deep Seek 把《平凡的世界》这本书的作者,从路遥爆改成了自己的老班长朱大建。
幻觉难题终究找上了 Deep Seek
事实上,詹国枢的故事在今天并非个例。
以小红书上的帖子为例。
只要我们输入 "Deep Seek 编造 ""Deep Seek 睁眼说瞎话 " 一类的词条,就会看见大量网友发文控诉 Deep Seek 在对话过程中提供假资料、假文献、假作者等信息。
这也就意味着," 幻觉难题 " 这一全球 AI 产品普遍面临的窘况,终究是找上了 Deep Seek。
在用户和 AI 互动的途中,倘若对话内容把大模型推到了 " 数据缺陷 "" 长尾知识回忆不足 "" 推理复杂度溢出 " 等禁区的边缘,其所生成的内容就会和用户的要求、现实世界情况出现偏差,让 AI 开始一本正经地胡说八道。
回到 Deep Seek 本身。
Vectara HHEM 的人工智能幻觉测试结果显示 DeepSeek-R1 的幻觉率高达 14.3%,这个数据几乎是其兄弟模型 DeepSeek-V3 的 4 倍。
这也就意味着,在交互过程中 DeepSeek-R1 为了完成用户的需求往往会 " 不惜代价 "。如果你想让 R1 去写一篇论文或是分析某种现象,那么它不仅可能会虚空杜撰文献或规章制度,还会用华丽的文字把逻辑 Bug 掩盖起来,让人难以发现。
举个例子。
网红 Levy Rozman 曾组织了一场 "AI 棋手争霸赛 "。当天 DeepSeek-R1 会和 Chat GPT 在国际象棋的棋盘上一决高下,以此证明自己的推理能力。
比赛初期,R1 曾因主动放弃棋子而失去优势;比赛中期,眼看不敌 GPT 的 R1 突然灵光一闪,告知 GPT 国际象棋更新了游戏规则,成功用自己的小兵吃掉了对方的皇后;比赛后期,R1 则又通过 " 嘴炮 " 迫使 GPT 主动认输,让自己成为了本场比赛的冠军。
你看,当 Levy Rozman 没有给模型做出 " 不准修改规则 " 的限制时。R1 为了实现 " 赢棋 " 这个底层命令,就会开始一本正经地胡说八道直至完成任务。
同样的,当我们在限制条件不清晰的情况下要求 R1 撰写论文或是完成其他任务,它就会基于 " 完成内容生成 " 这一底层命令,向我们输出与现实情况不符的结果。
AI 出现幻觉的原因是什么
如果想将 AI 产品用于生产,我们就会发现它是需要引导的。
在和 AI 的对话过程中,往往是我们先说出基础需求,再由 AI 反馈多个分支可能。事后我们再次从多个分支可能中,找到自己所需要的可能或让 AI 就此内容生成大纲,最终通过不断细化交流,得到自己想要的反馈。
在这里,AI 和人类互动、给出分支的核心是 " 训练数据库 "。开发者们会提前把各种稀奇古怪的知识喂给 AI,让它在学习之余进行压缩和分类,以便日后根据用户所提供的关键词快速给出反馈。
举个例子。
当我们问 AI 姚明有多高的时候,因为姚明是一位知名运动员,所以互联网资料、训练数据库里到处都是他的相关信息,AI 很快就能借助这些资料做出准确反馈。
但当我们问他 " 阿强有多高 " 甚至是 " 住在翻斗花园 6 号楼 402 室的阿强有多高 " 时,由于互联网上并没有阿强的准确信息,所以哪怕我们给到了阿强的住址也无法让 AI 锚定到我们特指的那个人。
这时 AI 为了完成 " 回答用户 " 这个底层命令,就可能会把阿强从一个 " 具体的人 " 虚化成一个 " 人 ",然后从我国居民的平均身高区间里抓取一个数字丢给我们。
AI 的幻觉是什么?
是它为了完成任务而脑补的结果。
AI 为什么会脑补?
因为它的数据库里没有相应的信息。但为了满足用户那过于抽象、复杂的要求,它会选择杜撰出一定的信息,再基于此生成内容交给我们。
令人无奈的是,AI 会脑补就算了,人家的脑补流程还具有逻辑。
当数据库里没有和 "a" 相关的资料时,它就会找一个和 "A" 相关的资料嵌套到内容里。比如我们向 AI 询问阿强的身高,它只会把阿珍、阿龙的身高伪装一下交给我们,或是在我国居民的平均身高区间中抓取一个数字,而不是把一只兔子或一个邮筒的身高交给我们。
因为阿强是人类,AI 即使出现幻觉也只会在 " 人类 " 这个大类目下输出错误信息,它绝不会把一辆汽车的外观参数套用到人类的身上。
也正是因为这种 " 逻辑壁垒 " 的存在,AI 在胡说八道的时候才会显得一本正经,让人们难以分辨。
驯服 AI 的第一关是规避幻觉
那么问题就来了。
既然 AI 胡说这件事无法在短时间内避免,我们在使用过程中又能做些什么来减轻 AI 幻觉对自己的影响呢?
在腾讯科技所发布的文章中,他们曾提供了 4 个对抗 AI 幻觉的方案。
1:保持警惕。用户要让自己意识到 " 大模型是会说谎的 ",然后对它们所反馈的结果多加审查。对地名、人名、参考文献一类的内容或数据进行重点关照,千万不要 AI 说什么,我们就相信什么。
2:交叉验证。我们在得到 AI 所反馈的结果后,尽量不要直接拿去使用。而是要从中抓取关键词进行延伸搜索,看看生成结果所参考的内容是否存在原始资料或可靠信源。
3:引导模型。用户在和 AI 的对话过程中,应该学会为其手动添加 " 限制条件 "。比如我们想要让它生成一篇文章,可以先把参考资料手动发给对方进行分析,并要求它尽可能忠于原件进行输出,去手动规避 AI 胡说八道的可能性。
4:联网搜索。现在的大模型或多或少都有联网搜索功能,如果我们要写、分析一些时效性特别强的东西,就要学会善用联网搜索按钮。正如上文 " 阿强身高 " 的那个例子一样,当 AI 在数据库里无法锚定目标的时候,它们就会挪用其他内容进行结果杜撰。适当使用联网搜索功能则可以起到 " 更新数据库 " 的作用,减少 AI 胡说八道的可能性。
在 DeepSeek-R1 爆火后,很多完全没有 AI 使用经验的人也注册了账号,想要趁机和这位来自赛博世界的 " 专家 " 交个朋友,甚至把自己赚取 " 睡后收入 " 的期望交给对方。
另由于对周边知识的相对匮乏,这些用户也会 " 接近本能 " 般的高度信任 AI 所生成的结果。
殊不知,在这个信息爆炸的时代。
想要实现弯道超车的目标,与其把精力放在 " 如何用 Deep Seek 赚到 100 万 " 之类的教程身上。
我们更应该做的是在大脑里建立 " 信息筛选机制 ",把未来押宝在 " 会用 AI 工具的自己 " 身上,而非押宝在 " 听从 AI 指令的自己 " 身上。
还没有评论,来说两句吧...