本文作者:蓝狐工商代办

如何学习才能不被AI替代?

如何学习才能不被AI替代?摘要: ...

观 · 察

微信号:MD80086
添加微信好友, 获取更多信息
复制微信号

想象力和创造力的培养,在 AI 时代比以往任何时候都更加重要。既然 AI 的幻觉可以帮助科学家获得新的突破,我们也应当借鉴这种思维方式,在日常学习和思考中留出一定的 " 想象空间 ",让自己能够跳脱出固有的思维模式,探索更丰富的可能性。

——陈永伟

如何学习才能不被 AI 替代

文 / 陈永伟

对于中国的 AI 普及而言,2025 年的春节注定是不平凡的。随着 DeepSeek 的意外爆火,原本高冷神秘的 AI 一下子飞入寻常百姓家。一时间,几乎全国的人都开始使用 AI。朋友圈里刷屏的不再是烟花九宫格,而是 " 我家 AI 写的打油诗更押韵 " 的隔空比拼;家族群里此起彼伏的,是二舅用方言教 AI 包饺子、三姨让 AI 计算年夜饭卡路里的语音消息;就连我 70 多岁的老父亲,也要求我给他补课,教他如何用 AI 给亲朋好友写拜年词。

然而,AI 的普及不仅带来了便利,也引发了焦虑。一位资深程序员在试用 DeepSeek 后感叹,自己多年积累的编程经验竟显得如此脆弱。春节过后,一张上海某公司群聊截图疯传,该公司拟用 AI 替代大量人工,其中法务部、内容创新中心裁撤比例高达 80%。这让人们惊觉,AI 取代的不只是低技能岗位,甚至高学历、高经验的职业也难以幸免。

面对 AI 的迅猛发展,许多人开始质疑学习的意义。如果知识和经验都能被 AI 轻易取代,我们该如何调整学习模式,以适应这个新时代?

工作变迁和新的学习要求

我们习以为常的 " 工作 " 模式——固定时间、地点、任务——仅存在两百余年。更早时期,个体需自主分配时间,兼顾耕田、织布、养鱼等多种任务。工业革命后,机器重塑生产流程,人们被纳入固定岗位,按标准流程操作,逐渐成为社会大机器的一部分。

这一变革也改变了学习方式。工业革命前,工作多元,个体需广泛涉猎知识,具备跨领域协调与社交交易能力,学习以 " 博 " 为核心。而工业革命后,任务高度细分,专精一项技能即可获得认可,学习目标由 " 博 " 转向 " 精 ",如程序员专注编程,无需关心市场包装,产品经理关注需求分析,而不涉产品实现。

然而,AI 的普及正在改变这一现状。正如我们所看到的,AI 在许多具体任务上的效率已超越人类,尤其是在需要大量知识积累和经验总结的工作领域,其进步远超预期。这一趋势使得人类在工业时代所扮演的 " 社会大机器的螺丝钉 " 角色逐渐式微。在更高层次的生产力水平下,工作形式或许将经历一种 " 否定之否定 ",回归到工业革命前的状态。换言之,人们可能需要同时承担多种不同的任务。例如,一个产品经理不仅要分析市场、设计产品,还需要亲自实现这些设计。不同的是,如今人们无需亲手完成所有任务,而是可以借助 AI 工具来高效实现。在这种情况下,人们最需要的能力,已经从单一技能的掌握,转变为任务拆解与识别能力,以及 AI 工具的高效使用能力。

与此同时,随着工作任务和场景的确定性逐步消解,适应变化、根据环境调整知识结构的能力,将成为未来职场的核心竞争力。此外,尽管 AI 可以代替人类完成许多工作,但至少目前,它仍难以完全取代涉及想象力、创造力和人情味的任务。因此,为了更好地展现人类的独特价值,人们应更加注重这些能力的培养,尤其是想象力的开发与提升。

基于上述分析,笔者认为,为了适应 AI 时代的社会分工和组织变革,学习模式的革新应从四个层面展开:

1. 工具层面:学会高效使用 AI 工具,使其成为工作的得力助手。

2. 知识层面:掌握与自身工作相关的多样化知识,确保在为 AI 分配任务时,能够清楚如何着手。

3. 能力层面:培养跨任务协调能力、资源配置能力,以及应对未知挑战的能力。

4. 超越层面:强化更具人类特质的能力,如情感、想象力和共情能力,尤其是想象力的培养,应成为重中之重。

接下来,我们将分别探讨这四个层面的变革方向。

当好 AI 的苏格拉底

在现实中,同样的 AI 工具,不同的人所能挖掘出的效率却截然不同。有些人借助 AI,可以独立开发出完整的网站,甚至完成整个项目;而另一些人,却只会把 AI 当成陪聊工具或图片生成器。

为什么会出现这样的差别?过去,AI 的使用门槛较高,要熟练掌握 AI,通常需要具备一定的编程技能。因此,人们习惯于将 AI 使用效率的差异归结于对编程能力或某些具体技能的掌握程度。然而,如今人们已经可以用自然语言轻松指挥 AI 完成各种任务,但这种差异仍然存在,甚至比过去更为显著。究其根本,问题仍然出在思维方式上。

事实上,在 ChatGPT 爆火之前,市场上已经有一些类似的应用,允许用户通过自然语言或可视化方式与 AI 交互,让 AI 编写程序或完成任务。不过,这些应用通常被称为 " 低代码编程 "。顾名思义,这些工具虽然降低了编程门槛,但本质上仍属于编程范畴。要想编写高效的程序,不仅需要一定的编程技能,还需要良好的编程思维。类似的道理,同样适用于生成式 AI 的使用。

那么,使用生成式 AI 时最重要的技能是什么?就是清晰地表述自己的需求,并引导 AI 按照自己的指令执行任务。在《美诺篇》中,苏格拉底为证明 " 认识是灵魂的回忆 ",引导一个毫无几何基础的奴隶小孩推导出毕达哥拉斯定理。他未直接教授,而是通过拆解逻辑、反诘和追问,让小孩自行推演,最终得出正确结论,完成了看似不可能的任务。

这个故事对于我们使用 AI 模型具有重要的启发意义。如今的生成式 AI 在训练过程中,已经吸收了互联网上几乎所有可以获取的信息。因此,从理论上讲,我们所需要的答案早已 " 存在 " 于它的 " 知识体系 " 中。然而,AI 仅仅存储了海量知识,并不一定能够自动将这些存量知识与用户的需求精准匹配——正如奴隶小孩虽然掌握了勾股定理推导的每一步,但在被直接问及该定理时,仍然无法将这些知识串联起来。在这种情况下,AI 的使用者需要扮演苏格拉底的角色,通过适当的引导,让 AI 按照自己的思路完成任务。

正如我们所见,苏格拉底在启发人们思考时,通常会遵循固定的对话策略。例如,他会要求对话者首先对相关概念进行明确定义,然后将这些定义一般化,从而推导出一定的结论。接着,他会对这些推论进行反诘,找出其中的矛盾,促使对话者从新的角度进行思考。本质上,苏格拉底其实是在用自然语言编写一套 " 低代码程序 ",以引导对话者逐步接近正确答案。同样的思维方式,也可以应用于与生成式 AI 的交互。在学习和实践中,用户可以为自己搭建几套 AI 交互的 " 套路 ",并积累一些经过实践检验有效的提示词。这样,无论遇到何种问题,我们都可以像苏格拉底一样,以高效的方式向 AI 阐明需求,并对 AI 的行为进行精准引导,从而大幅提升 AI 的使用效率。

值得注意的是,苏格拉底式的启发式对话不仅可以帮助我们提升 AI 执行任务的效率,反过来,若让 AI 用类似的方法向我们提问,也能有效提升我们的学习效率。许多人在学习过程中,往往难以判断自己对某个知识点的理解是否足够透彻。如果让 AI 扮演苏格拉底的角色,不断向我们发问、反诘,就能很好地检验我们对知识的掌握程度。不仅如此,这种诘问式学习还能够激发我们的思维,拓展我们的认知边界。

以我认识的一位教授为例,自从 2023 年初接触 ChatGPT 以来,他每天都会花上一个多小时与 ChatGPT 交流。在聊天中,他会向 ChatGPT 提出自己正在构思的论文写作思路,然后让 AI 扮演潜在的审稿人,帮助他完善论证过程。迄今为止,他已借助这种方法成功发表了多篇高水平论文,取得了令人羡慕的学术成果。

掌握纷乱世界的 " 目录 "

在周星驰主演的《鹿鼎记》中,有这样一个桥段:陈近南收韦小宝为徒后,递给他一本厚厚的书,并叮嘱他要多加阅读,熟悉书中的内容。韦小宝接过书,问道:" 师傅,这是你的绝世武功吗?" 陈近南答道:" 不,这是绝世武功的目录。" 然后,他指着旁边的一大堆书说:" 那些才是绝世武功。"

初次观看这部电影时,我曾觉得剧中的陈近南实在迂腐可笑。毕竟,这么多绝世武功,学成一本就足以让韦小宝行走江湖了,何必浪费时间去看一个没有实际用处的 " 目录 "?然而,在 AI 时代重新回看这一段,却让我意识到,掌握 " 目录 " 其实具有极其重要的意义。

我们正处于一个知识爆炸的时代,每时每刻,各个领域都在不断产生新的知识。对于大多数人而言,即便穷尽一生,也难以遍览某一领域的所有知识。而如果让 AI 来完成同样的任务,可能只需短短一瞬。在这样的背景下,人类在知识获取的数量上已经很难与 AI 相比,事实上,这种 " 比拼 " 也已没有意义。相比之下,更为明智的策略是将 AI 作为 " 外脑 ",让它帮助我们获取并整理各类知识,而我们在需要时再随时调用这些知识。

然而,知道在何时指示 AI 调用哪些知识,本身也是一项重要的技能。很多时候,当人们面对一个新问题时,往往并不清楚自己需要调用哪些知识。例如,如果我们要撰写一篇探讨 " 谷子经济 " 的分析性论文,由于该话题较为新颖,我们可能根本不知道该从哪个角度切入分析。而如果找不到合适的分析角度,即便 AI 能力再强,我们也难以准确指示它去寻找合适的资料,进而影响工作效率。

在这种情况下,广博的知识储备就能起到关键作用。假如我们对各个学科都有一定了解,尽管在遇到问题时未必能直接给出答案,但至少可以凭借已有的知识作为 " 路标 ",帮助我们确定查阅的方向。然后,再借助 AI 的能力,就能更高效地解决问题。

需要强调的是,这里所说的 " 广博 " 并不意味着否定知识的深度。事实上,真正的广博必须建立在一定的深度基础之上。一个衡量我们对某类知识是否足够深入的标准是:当看到关于它的明显错误表述时,我们是否能敏锐地识别出来。这一点在 AI 时代尤为重要。

至少在目前阶段,所有主流 AI 模型在生成内容时都存在较高比例的 " 幻觉 "(hallucination)。尽管可以通过要求 AI 注明出处或提供链接等方法在一定程度上减少错误,但从整体来看,AI" 一本正经地胡说八道 " 的现象仍然十分普遍。随着 AI 生成的内容越来越多,人工核查所有 AI 输出的信息变得愈发困难。尤其在对某个领域了解不深的情况下,我们的 " 审核 " 往往只能局限于复查几个数据或引用来源,而可能对 AI 整体表述中的谬误毫无察觉。在这样的背景下,盲目信任 AI 的内容可能会带来极大的风险。

从这个角度来看,即便有了 AI 的辅助,人类仍然需要对相关领域的知识达到一定的深度。只有在具备一定的专业判断力的前提下,我们才能在享受 AI 带来的便利时,避免落入其信息误导的陷阱。

学会用算法思考

在 AI 时代," 螺丝钉 " 式的工作将逐渐减少,直至消亡。取而代之的,是越来越多的人凭借 AI 的力量成立单人企业,成为自己的老板。与过去执行固定任务相比,这些人将更加需要学习和培养规划、组织,以及处理各种新问题的能力。然而,培养这些能力并非易事,它需要大量的经验积累作为支撑。不过,从学习的角度来看,涉猎一些算法相关的知识,培养算法思维,可能会对这些能力的形成大有裨益。

所谓算法,指的是解决问题的一系列步骤或指令的集合。在开发 AI 时,为了让其高效执行各项任务,人们会为其设定各种算法。然而,算法并不仅仅是 AI 专属的工具。事实上,每一个算法都代表着人们对某类特殊问题的解决方案,其背后蕴含着大量前人的智慧。因此,学习算法、培养算法思维,本质上是一种解决问题能力的锻炼,可以有效提升我们对现实问题的分析和应对能力。

举个例子:在 2024 年美国总统大选期间,海外博彩市场 Polymarket 上,一名神秘押注者豪掷 3000 万美元支持特朗普。由于民调普遍显示哈里斯领先,许多人认为这是一场鲁莽的赌博,一些分析人士甚至猜测他是特朗普的金主,意在拉抬选情。

后来,记者发现这名押注者是一家法国量化金融机构的交易员,而他的决定纯粹是基于盈利考量。他认为民调存在偏差,因为在不友好的舆论环境下,许多特朗普支持者可能不愿表露真实立场。为更准确预测,他设计了一种巧妙调查法——不直接问受访者支持谁,而是询问他们的邻居倾向,以避免社交压力影响回答。随后,他利用 " 近朱者赤,近墨者黑 " 的原理推测真实支持率,最终得出特朗普实际支持率远超预期,果断下注,并因此狂赚 8500 万美元。

这一事件让人惊叹于他的精准判断,而实际上,这正是算法思维的体现。类似于 K 近邻回归(K-NN)算法,他基于邻近数据点推测整体趋势。作为一名量化交易员,他自然而然地将这一算法思维应用于选举预测,从而成功押注。

当然,这只是利用算法思维解决问题的一个案例。在现实中,类似的例子还有很多。例如:借鉴动态规划算法的思路,可以让我们更高效地安排工作流程;借鉴支持向量机(SVM)算法中的升维思路,可以帮助我们从更高的视角重新思考问题。

总而言之,在 AI 时代,多学习一些算法知识,培养算法思维,或许能让我们的工作和决策事半功倍。

给自己留一些 " 幻觉 "

在 DeepSeek 爆火之后,我曾对几位新 " 入坑 " 这款 AI 的朋友进行了一次调查,询问他们认为这款 AI 相比其他竞品究竟有何过人之处。结果,最多的回答是:" 这款 AI 比其他 AI 更有人情味,更像个人。" 尤其是文科背景的朋友,对 DeepSeek 这一特征尤为喜爱。例如,一位在某高校中文系执教的朋友在尝试 DeepSeek 后激动不已,甚至连夜写下千字朋友圈,盛赞其文采与想象力。

那么,为什么 DeepSeek 会比其他 AI 更具想象力、更富人情味?从技术角度来看,这种特征很可能源于该模型的一个 " 缺陷 " ——更高的 " 幻觉 "。众所周知,在训练 DeepSeek 时,开发人员为了提升训练效率、节约成本,对模型和训练方法进行了多项优化。例如,为了提升 GPU 的利用率,他们将计算精度从通常的 32 位浮点数降低到 16 位,甚至 8 位;为了优化解码效率,他们引入了多 Token 预测技术;为了减少数据投入,他们广泛使用了知识蒸馏技术。这些优化手段虽然提高了训练效率,但同时也不可避免地降低了模型的精确度,从而导致更高的幻觉率。

这一点并非仅仅是理论推测,人工智能公司 Vectara 近期的研究已经对此进行了验证。研究表明,DeepSeek-V3 模型的幻觉率约为 3.9%,而主打推理的 DeepSeek-R1 模型幻觉率高达 14.3%。相比之下,OpenAI 的 GPT-4o 的幻觉率仅为 1.5%,其推理模型 GPT-o1 的幻觉率约为 2.4%。更高的幻觉率无疑会限制 AI 在某些对准确度要求较高的任务中的应用。例如,在使用 AI 整理文献时,我不得不逐一核对其列出的文献出处,否则容易出现错误引用,从而影响工作效率。但与此同时,在更需要创造力的任务中,幻觉反而能带来意想不到的惊喜。

从根本上看,生成式 AI 的文字输出本质上是基于已有文本预测下一个可能出现的文本。如果一个模型的预测精度足够高,那么它的输出往往会十分工整、格式化,而如果允许其预测精度稍有下降,反而可能带来更多变化和新意。举个例子,如果我对 AI 说:" 我要买一个 512G 的苹果 ",精度较高、幻觉较少的 AI 会准确理解我的意思,并推荐合适的苹果手机,同时提供一系列购买建议。这样的回答固然正确,但并不会显得 " 有人情味 "。然而,如果是幻觉较高的 AI,它可能会误以为我指的是水果,并建议:" 现在梨子正当季,不如买点梨子尝尝鲜吧。" 这样的回答虽然在技术上是错误的,但从人类用户的角度来看,它更具幽默感,也更像是一个会 " 插科打诨 " 的人类对话者。

幻觉的价值远不止于此。例如,在科学研究领域,如果 AI 仅仅是基于已有资料,精准地预测相应结果,那么它是不可能真正创造新知识的。相比之下,如果允许 AI 存在一定的幻觉,它就能跳脱出既有框架,启发新的发现。许多科学家已经意识到了这一点。例如,2024 年诺贝尔化学奖得主大卫 · 贝克(David Baker)博士就指出,AI 模型的幻觉现象为科学家提供了新的灵感,帮助他们探索原本可能不会想到的思路。

减少 AI 的幻觉,技术上是可行的。通过提升训练数据质量、增加算力投入、采用检索增强生成(RAG)技术等方式,AI 开发者可以有效降低幻觉率。事实上,许多 AI 开发者已经通过这些手段成功降低了产品的幻觉率。然而,相比于 AI 而言,人类要减少自身的幻觉却困难得多。在信息检索技术高度发达的今天,人类即便为了提升表达的精准度,也可能需要花费大量时间记忆和核对知识,而这些精度的提升在实际应用中往往并不那么重要。既然如此,我们倒不如反其道而行之,在学习中适当舍弃对精确记忆的执着,而将更多空间留给想象力的培养,刻意 " 为自己培养一些幻觉 "。

为了培养 " 有益的幻觉 ",我们可以借助多种辅助手段,例如多看科幻题材的影视剧和文学作品,拓展思维边界;每天留出一定时间进行冥想,培养发散性思维;刻意跳出既定套路的束缚,尝试新的思考方式。更重要的是,在学习过程中,我们要勇于突破标准化答案的限制。对于那些有确定性答案的问题,除了学习前人的解决方案,还应该思考是否存在其他可能的解法。而对于那些本就没有标准答案的问题,不应被流行观点束缚,而应大胆提出自己的见解。

想象力和创造力的培养,在 AI 时代比以往任何时候都更加重要。既然 AI 的幻觉可以帮助科学家获得新的突破,我们也应当借鉴这种思维方式,在日常学习和思考中留出一定的 " 想象空间 ",让自己能够跳脱出固有的思维模式,探索更丰富的可能性。

结语

随着 AI 的普及,传统 " 螺丝钉 " 式工作正在减少,学习模式必须随之调整。未来,人与 AI 的关系不应是替代,而是协作。掌握 AI 工具、构建知识框架、培养算法思维,能让我们在新环境中保持竞争力。而更重要的是,我们要强化想象力和创造力,这是 AI 难以复制的核心能力。唯有不断适应变化、突破思维局限,才能在 AI 时代立足并持续成长。

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

微信扫一扫打赏

阅读
分享

发表评论

快捷回复:

评论列表 (暂无评论,5人围观)参与讨论

还没有评论,来说两句吧...