Outsourcing Thinking — Erik Johannes Husom

文章信息

  • 作者: Erik Johannes Husom
  • 日期: 2026年1月30日
  • URL: https://erikjohannes.no/posts/20260130-outsourcing-thinking/
  • 核心议题: LLM是否会剥夺我们的认知技能?何时应该避免使用生成式语言模型?

文章背景

作者回应了 Andy Masley 的文章《The lump of cognition fallacy》,该文章反驳了"思考总量有限"的观点,认为"思考往往带来更多思考",因此将思考外包给AI不必担心——我们只会转而去思考其他事情。

Husom 同意部分观点,但认为问题远比"思考带来更多思考"复杂。他的目标是强调"外包思考"的一些关键问题。

核心论点

1. 何时应该避免使用LLM?

Masley 列出的不宜外包认知的情况:

  • 构建未来导航世界所需的复杂隐性知识
  • 表达对他人的关怀和在场
  • 本身就是有价值的体验
  • 欺骗性地伪装
  • 关乎生死存亡、且你不完全信任外包对象的问题

Husom 与 Masley 在此列表上高度一致,但分歧在于有多少活动属于这些类别——尤其是其中三项。

2. 个人交流与写作

核心观点: 欺骗性伪装不仅限于约会软件等亲密场景,个人交流整体上都涉及真实的自我表达。

关键洞察:

  • 语言即意义: "词语就是意义"——改变措辞就改变了信息
  • 关系构建: 直接交流不仅是信息交换,更是交流者之间关系的形成
  • 期望违背: 让机器转换我们的词句,违背了交流的期望框架
  • 披露的伦理: 知道文本是否由AI"共同创作"会显著影响接收者如何看待它;假装否则就是虚假

对"帮助表达"的反驳:

很多人认为LLM能帮助非母语者或学习障碍者更清晰表达观点。Husom 有两个主要反对意见:

  1. 文本层面: 意义与表达不可分割,改变措辞即改变信息
  2. 个人层面: 我们剥夺了成长学习的机会——思维过程(发展想法)会在将措辞交给AI时被严重截肢

功能性文本 vs 个人文本:

  • 功能性文本(代码、食谱、指示牌、文档):不受上述问题影响
  • 个人文本(有个人作者面向人类受众的文本):承载特定角色期望和信任,信任侵蚀将是人类的损失

3. 有价值的体验

批判: 现代生活把太多事物当作"杂务"来处理。

"理论上,我同意自动化某些事物可以腾出时间做更有意义的事,但我们已经到了连规划假期都变成了很多人想避免的'杂务'的阶段。"

问题核心: 人类几乎能在任何事物中找到不满,可能是因为现代社会期望我们能随时做任何想做的事——或者更重要的是,能避免做不想做的事。

希望: AI"几乎能自动化一切"的能力,或许能帮助我们意识到什么是值得花费时间和精力的,重新发现有意生活的价值。

4. 构建知识

核心观点: 构建知识不仅发生在你坐下来学习新事物时,也发生在重复性工作中。

智能手机类比: 自从智能手机普及,人们就认为不再需要记忆信息——可以在线获取。但这种观点错过了关键:获取和记忆知识是学习使用知识的重要部分

钢琴学习的寓言:

作者学习爵士即兴演奏时困惑:好的即兴者如何当场想出新的乐句?

导师揭示真相:好的即兴不是来自练习即兴,而是需要:

  • 弹奏大量现有歌曲和曲调
  • 反复弹奏,熟记于心
  • 让和弦进行和主题深入肌肤

这种练习构建了对"什么听起来好"的直觉,即兴才能从中涌现——旧旋律的碎片组合成新音乐。

"我们不是计算机,不能把存储单元和处理单元简单地分开。"

5. 批判"延展心智"理论

Masley 引用延展心智理论:认知不仅限于头骨和大脑,也发生在物理环境中。

Husom 认为这种说法"荒谬":

  • 记住朋友生日 vs 让聊天机器人自动发送祝贺:两者有天壤之别
  • 记住生日时,你有意识地想着朋友,巩固关系的一侧
  • 失去手机和切除大脑的一部分:在可能性和后果上都是截然不同的事

关键反驳: 人类不仅仅是信息处理器。我们确实处理信息,但将某些过程外包给外部设备而不产生后果是极端还原论的。

6. "思考什么"确实重要

对"认知总量谬误"的补充: 虽然不必担心"耗尽有限的思考池",但存在另一个谬误:

"我们思考什么并不重要,只要我们思考'某件事'就行。"

例证: 如果外包所有无聊的项目管理任务给聊天机器人:

  • 利:留下更多时间做主要任务(研究)
  • 弊:剥夺了对项目的所有权感和做出高层决策的基础

核心洞见:

  • 某些心理任务对我们很重要,即使机器技术上可以代劳
  • 自动化过程时,我们总是失去某些东西
  • 不是"没有任务应该被自动化",而是必须意识到自动化总有代价

7. 与"劳动总量谬误"的对比

Masley 将"认知总量谬误"与经济学中的"劳动总量谬误"类比:

  • 劳动总量谬误:将体力工作外包给机器只会创造新类型的工作

Husom 指出:

  • 虽然可能创造新工作,但不意味着新工作有用、充实或对个人和社会有益
  • 思考同样如此:不是所有思考都是等价的

结论

根本观点: 如何选择使用聊天机器人不仅关乎效率和认知后果,更关乎我们希望生活和社会成为什么样

挑战: 作者不能告诉别人应该做什么,但挑战每个人思考:

  • 你想用什么样的价值观建设社区?
  • 让价值观与研究结果共同权衡

希望: 这种新技术真正令人兴奋之处在于,它迫使我们面对关于人性和价值的问题——许多以前纯理论的哲学问题正在成为我们日常生活相关的问题。

与数字花园的对话

与 Carlo Iacono《摧毁互联网》的对话

  • 共同点: 都关注数字技术对人类认知和存在的深层影响
  • 差异: Iacono 聚焦设计的系统性失败,Husom 聚焦认知外包的伦理和人性后果
  • 互补: Iacono 说"屏幕让我们分心",Husom 说"外包让我们失去自我"——两者都是技术中介化的危机

与 McLuhan《媒体革命指向文艺复兴》的对话

  • 张力: McLuhan 乐观地看待电力技术带来的"永久文艺复兴"和感知革命
  • Husom 的提醒: 感知革命不自动等于人类繁荣——我们需要有意识地选择哪些活动值得保护
  • 问题: 在"所有时间同时存在"的后历史时代,如何决定什么值得亲自经历?

与 Bonneville《唯一剩下的护城河是金钱》的对话

  • Bonneville: AI消除了创作门槛,资本和触达成为新壁垒
  • Husom: AI消除了表达门槛,但表达的真实性成为新稀缺
  • 交汇点: 两者都指出,表面上的"赋能"可能掩盖更深层的能力剥夺

与 Andy Masley《认知总量谬误》的对话

  • Masley: "思考带来更多思考",不必担忧外包
  • Husom: "思考什么确实重要"——不是所有思考等价
  • 关键分歧: 是否承认存在质的差异的认知活动

与 Cal Newport《深度工作》的对话

  • Newport: 深度工作创造价值,需要刻意练习
  • Husom: 重复性、"无聊"的任务本身就是学习的一部分
  • 互补: Newport 强调专注的价值,Husom 强调过程的价值——即使是看似低效的重复

反思问题

  1. 表达的完整性: 如果语言"就是意义",AI辅助写作多大程度上改变了我真正想表达的?
  1. 关系的技术中介: 当AI介入人际交流,我们失去的是效率还是某种根本性的东西?
  1. 隐性知识的悖论: 我们如何知道自己正在失去尚未获得的隐性知识?
  1. 有意的低效: 在效率至上的文化中,如何为"低效"的学习和体验辩护?
  1. 钢琴寓言的延伸: 哪些现代"即兴"技能(创新、问题解决)需要类似的"内化大量模式"的过程?
  1. 披露伦理的实践: 在数字花园/博客写作中,如何透明地标注AI参与程度而不破坏阅读体验?
  1. 后历史时代的价值观: 当所有可能的思考方式都同时存在,我们选择亲自思考什么的标准是什么?

标签

#ai-ethics #cognitive-outsourcing #authenticity #learning #language #humanity #llm #digital-humanities

研究笔记创建于: 2026-03-29

数字花园项目的一部分