摘要
认知偏差传统上被视为进化遗留的"过时机制"——一组在古代环境中有用、但在现代信息社会中已经失去适应性的心理模式。本文提出一个相反的论点:现代社交媒体平台不仅没有使认知偏差过时,反而将其"工业化"——通过算法推荐、回音室效应和即时反馈系统,系统性地放大人类的心理防御机制,以服务于注意力经济。
本文构建了一个"偏差工业化模型",将这一过程分解为四个递进层次:信息筛选层(确认偏误的工业化)、行为反馈层(控制幻觉的工业化)、叙事建构层(公正世界假说的工业化)和社会身份层(部落认同的工业化)。每个层次都建立在前一个层次的基础上,从信息处理逐步深入到身份认同,形成一个逐层嵌套的耦合结构。
研究进一步探讨了"焦虑—抱团—偏差强化"的恶性循环机制,并提出"认知主权"(Cognitive Sovereignty)这一概念——定义为个体对自身注意力分配和信念形成过程的自主控制权——作为应对框架。本文认为,理解认知偏差从个体心理现象向大规模技术系统的转化,是应对信息时代民主危机、公共健康挑战和社会凝聚力下降的必要前提。
引言
问题的提出
信息时代曾被寄予了理想主义的期待。当信息的获取成本趋近于零时,人类理应做出更理性的决策,社会应该达成更广泛的共识。然而现实却走向了反面:政治极化加剧、阴谋论盛行、科学共识遭到削弱、社会信任持续下降。这一矛盾构成了本文的核心问题:为什么信息的极大丰富没有带来认知的极大提升,反而加剧了认知的极化?
对这一问题的主流解释通常集中于两个方向。一是信息质量的问题——即虽然信息量增加了,但虚假信息、误导性内容也同步泛滥;二是人类认知能力的局限性——即有限的注意力和处理能力无法应对信息的爆炸式增长。这两种解释虽然有其道理,但均未触及一个更深层的机制:社交媒体平台与人类认知偏差之间的系统性耦合。
核心论点
本文提出的核心论点是:社交媒体将认知偏差从个体心理现象转化为大规模技术系统。这一过程具有工业化的典型特征——规模化、标准化、自动化和商业化。具体而言,算法推荐系统作为"加工系统",以进化遗留的认知偏差为"原材料",通过规模化生产、标准化流程和即时反馈机制,将偏差转化为注意力捕获和广告收入。在这个模型中,认知偏差不再是需要克服的"缺陷"(bug),而是被系统性利用的"功能"(feature)。
需要强调的是,本文所说的"工业化"并非暗示平台有意识地密谋利用认知偏差。更准确地说,这是一个演化过程:以参与度为核心指标的商业模式,通过不断的算法优化,自然地"发现"并利用了人类认知架构中的这些特征。结果是系统性的,但过程未必是蓄意的——这使得问题更加棘手,因为没有单一的"坏人"可以归咎。
研究意义
理解这一机制具有重要的现实意义。在民主层面,偏差的工业化正在加速政治极化,使民主协商的基础——共享的事实基础——遭到侵蚀。在公共健康层面,COVID-19疫情期间的疫苗争议充分证明了算法如何将确认偏误放大为公共健康威胁。在社会凝聚力层面,部落认同的工业化正在加剧群体间的敌意和不信任。本文希望通过提供一个综合性的分析框架,为这些问题的解决提供理论基础。
文献综述
认知偏差的经典研究
认知偏差的系统性研究可追溯至二十世纪中叶。Wason(1960)通过经典的"2-4-6"实验揭示了确认偏误的存在:人们倾向于寻找与己有信念一致的信息,而非可能证伪的证据。Ross(1977)的研究进一步揭示了基本归因错误——人们系统性地低估情境因素、高估个人因素对行为的影响。Langer(1975)提出的控制幻觉概念表明,人类常常高估自己对随机事件的影响力。Lerner(1980)提出的公正世界假说则揭示了人们对世界公平性的深层需求——相信好人有好报、受苦者必有原因。
这些偏差在经典研究中被视为独立的心理现象。尽管Kahneman与Tversky(1974)的启发式研究统一了部分偏差的理论基础,但这些研究的分析单元始终是个体——它们描述的是一个人在特定情境下的判断失误,而非这些失误如何在社会系统层面被组织和放大。
偏差的进化适应性解释
进化心理学为认知偏差提供了功能性解释。Gigerenzer(2008)的"快速且简约的启发式"理论认为,许多被称为"偏差"的判断模式实际上是适应特定环境的有效决策策略。在古代环境中,快速判断蘑菇是否有毒、立即分辨敌友、迅速形成群体忠诚——这些都具有明确的生存价值。
从心理保护的角度看,认知偏差还充当着防御机制的角色。确认偏误保护了已有信念的稳定性,避免了持续的认知失调;控制幻觉提供了主体感和动力,避免了习得性无助;公正世界假说提供了意义感和可预测性,使世界显得可理解、可控制。这些机制在小规模的社会环境中运作良好,因为它们的"失真"会被直接经验所纠正——一个人可以在部落中直接观察到事实与信念的不一致。
社交媒体与信息环境
社交媒体研究的重要贡献包括Pariser(2011)提出的"过滤气泡"概念,描述了算法如何为每个用户创建个性化的信息环境。Sunstein(2017)的"回音室"研究表明,当人们只接触与己一致的观点时,其立场会变得更加极端。Zuboff(2019)的"监控资本主义"框架揭示了数据提取和行为预测如何成为新的资本积累形式。
然而,这些研究主要关注的是信息环境本身的结构性变化,而较少探讨这些变化如何与人类深层的心理机制发生耦合。换言之,现有研究在很大程度上将认知偏差和社交媒体作为两个平行的研究领域:心理学家研究偏差的个体机制,传播学者研究媒体的结构性效应。两者之间的系统性交互——即技术系统如何有目的地利用心理机制——正是本文试图填补的理论空白。
现有研究的缺口
综合上述三个领域的文献,可以识别出一个关键缺口。认知偏差研究将偏差视为纯粹的心理现象,其分析框架局限于个体认知层面,未能考虑技术基础设施对偏差运作方式的根本性改变。社交媒体研究则将平台效应视为纯粹的信息问题——过滤气泡、虚假信息、注意力稀缺——而未能充分认识到这些效应之所以强大,正是因为它们精确地对接了人类深层的心理防御机制。
本文试图在这两个领域之间架设桥梁,提出一个整合性的分析框架:偏差工业化模型。
理论框架:偏差的工业化模型
模型概述
本文提出的"偏差工业化模型"将社交媒体平台类比为一个工业系统,其运作逻辑如下:进化遗留的认知偏差作为"原材料",经由社交媒体算法这一"加工系统"的处理,呈现出规模化、标准化和即时反馈的工业化特征,最终服务于注意力捕获和广告收入这一商业目的。
进化遗留的认知偏差(原材料)
↓
社交媒体算法(加工系统)
↓
规模化 · 标准化 · 自动化 · 即时反馈(工业化特征)
↓
注意力捕获 → 广告收入(商业目的)
这一模型的核心洞见在于:认知偏差不再是需要克服的"缺陷"(bug),而是被商业系统有意识地利用的"功能"(feature)。这一视角转换对理解当代信息环境至关重要:它意味着信息极化不仅仅是技术的"副作用",而是一个被设计出来的结果。
工业化的四个特征
借用工业革命的分析框架,本文识别出偏差工业化的四个核心特征。
第一是 规模化 。传统的认知偏差只在个体层面运作,而社交媒体将其扩展到数十亿用户的规模。一个人的确认偏误是个体心理现象,三十亿人同时被算法强化的确认偏误则是一个全球性的系统事件。
第二是 标准化 。算法为偏差的触发和强化创建了可复制的流程——从内容推荐到信息流排序,每一步都是标准化的。无论用户身处何地、使用何种语言,同样的算法逻辑在运作。
第三是 自动化 。算法无需人工干预即可运行,全天候、不间断地为每个用户定制偏差强化内容。这种自动化使得偏差的强化速度远超任何人工系统。
第四是 商业化 。偏差的运作不再是无目的的心理过程,而是被纳入注意力经济的利润链条。参与度(engagement)作为核心指标,恰好与偏差强化内容的高传播率形成了完美的商业闭环。
模型的张力与边界
必须承认,工业化的类比存在内在张力。传统工业化生产标准化的产品,而偏差的"产品"——极化的信念、固化的身份——却是高度个性化的。每个用户的回音室内容不同,每个人的偏差被触发的方式也不同。与其说是"标准化生产",不如说是"大规模定制"——类似于现代制造业从大规模生产向大规模定制的转变。这一张力实际上使得偏差的工业化比传统工业化更为隐蔽和强大:正因为它是"为你定制"的,所以更难被察觉。
此外,模型也需避免技术决定论的陷阱。用户并非被动的"原材料"——人们也会主动寻求偏差强化。动机性推理(motivated reasoning)研究表明,人们并非被动地接收偏差强化内容,而是积极地寻找支持己有信念的信息。社交媒体的真正作用不是"创造"偏差,而是极大地降低了寻求偏差强化的成本。在前社交媒体时代,一个人要找到确认自己阴谋论信念的信息需要付出大量努力;而现在,算法会主动把这些信息送到你面前。
论证:偏差工业化的四个递进层次
本节将偏差的工业化分解为四个递进层次:从信息筛选到行为反馈,从叙事建构到社会身份。每个层次都建立在前一个层次的基础上,形成一个逐步深化的耦合结构。
第一层:信息筛选层——确认偏误的工业化
确认偏误是最基础的认知偏差之一,它描述的是人们倾向于寻找、解读和记忆与己有信念一致的信息。在前算法时代,这一偏差的运作受到物理环境的自然约束:一个人能接触到的信息源有限,且无法完全回避与己不同的观点。
算法推荐系统从根本上改变了这一动态。以新闻推送算法为例,其运作逻辑可以概括为一个闭环:用户的历史行为(点击、停留、转发)被采集为数据;算法基于这些数据推断用户偏好;算法根据推断的偏好筛选和排序内容;筛选后的内容引发更多同方向的行为,为算法提供更强的偏好信号。这个循环将确认偏误从一个被动的心理倾向转化为一个主动的技术系统。
案例充分证明了这一机制的力量。在政治极化领域,研究表明社交媒体算法倾向于推荐情绪性、极端化的政治内容,因为这类内容的参与度更高。在疫苗争议中,一个对疫苗安全性有轻微疑虑的用户,会被算法引导到越来越多的反疫苗内容中,确认偏误在算法加速下进入平时难以到达的极端状态。在阴谋论传播中,同样的机制使得一个边缘化的信念可以迅速获得大量"证据"支持,形成自我强化的信息环境。
值得注意的是,算法在此过程中的作用并非简单的"过滤",而是主动的"策展"(curation)。传统的过滤只是移除不相关内容,而算法策展则积极地排序、突出和推荐特定内容。这种从被动过滤到主动策展的转变,正是确认偏误从个体心理现象到工业化系统的关键转折点。
第二层:行为反馈层——控制幻觉的工业化
如果确认偏误的工业化解决的是"你看到什么"的问题,控制幻觉的工业化则解决"你觉得自己能做什么"的问题。控制幻觉是指人们高估自己对随机或外部事件的影响力。社交媒体的即时反馈系统——点赞、转发、评论、关注者数——构成了一个精心设计的控制幻觉放大器。
每一次点赞都是一个微小的"你的声音被听到了"信号。转发数量传达"你有影响力"的信息。关注者数字量化了"有多少人在乎你的观点"。这些反馈机制的关键特征是即时性和可量化性——它们将模糊的社会影响力转化为精确的数字,让人们以为自己真的在"改变世界"。然而,这种影响力往往是虚幻的:一个在线请愿获得十万签名可能不会产生任何实质性的政策改变,但参与者会觉得自己"做了些什么"。
这一层次建立在第一层的基础上:确认偏误的工业化确保你看到的信息与你的信念一致,而控制幻觉的工业化则进一步让你觉得自己可以基于这些信息采取有效行动。信息过滤加上行动幻觉,构成了一个强大的心理统一体。
这种控制幻觉还有一个更深层的效应:它替代了真正的政治参与和社会行动。当人们通过点赞和转发获得了"参与感"之后,他们投入实质性行动(如社区组织、投票、政策倡导)的动力反而可能下降。Hannah Arendt所忧虑的政治行动的萎缩,在社交媒体时代以一种她未曾预见的方式实现了——不是通过剥夺行动的渠道,而是通过提供虚假的行动替代品。
第三层:叙事建构层——公正世界假说的工业化
第三层涉及的不再是单个信息或行为反馈,而是更宏观的叙事结构。公正世界假说是指人们深层的信念:世界是公平的,人们得到他们应得的。这一假说在社交媒体上的工业化主要体现在成功学叙事的算法偏好和病毒式传播上。
社交媒体算法对"正能量"内容有结构性偏好。"白手起家"、"我是如何成功的"、"只要努力就能成功"这类叙事在参与度指标上表现优异,因为它们满足了人们对公平和可控的深层需求。算法识别到这类内容的高参与度,因而更多地推荐它们,形成一个叙事强化的循环。
这一层次的危害在于它的双重遮蔽效应。一方面,它遮蔽了结构性不平等:如果世界是公平的,那么穷人就是因为"不够努力",这就为漠视结构性问题提供了心理授权。另一方面,它也增加了个体的心理压力:如果成功完全取决于个人努力,那么失败就完全是个人的责任,这种叙事正在加剧当代社会的焦虑流行病。
这一层次在前两层的基础上进一步深化:确认偏误筛选信息,控制幻觉提供行动感,而公正世界假说则为整个体验提供了一个"意义框架"——一个让一切都"说得通"的叙事结构。
需要指出的是,公正世界假说的工业化并非只表现为"正能量"叙事。它同样体现在"受害者有罪"的叙事中。当社交媒体上出现弱势群体遭受不公的新闻时,算法驱动的评论区往往充斥着对受害者的指责——"他一定做了什么才会这样"。这种反应恰恰是公正世界假说的体现,而算法的参与度机制则为这种反应提供了放大和正常化的基础设施。
第四层:社会身份层——部落认同的工业化
最深的一层涉及身份本身。部落认同是人类最古老的心理机制之一:将世界划分为"我们"和"他们",对内群体忠诚、对外群体警觉。社交媒体的多种机制共同构成了部落认同的工业化基础设施。
关注与取关机制提供了一个前所未有的社交筛选工具。在物理世界中,一个人难以完全切断与异见者的联系——你的邻居、同事、亲戚可能与你持有不同观点。但在社交媒体上,"取关"按钮让社交筛选变得极为便捷。群组和圈子机制则进一步强化了身份边界:当一个人加入一个特定议题的群组时,这不仅是信息订阅,更是身份宣告。
更重要的是,算法发现敌我叙事具有极高的参与度优势。"我们对他们"的框架能触发强烈的情绪反应——愤怒、群体自豪、被威胁感——这些情绪转化为高参与度的行为(评论、分享、转发)。算法因此系统性地偏好推荐能激发部落对立情绪的内容,形成"愤怒驱动参与,参与驱动推荐,推荐驱动更多愤怒"的自我强化循环。
这是偏差工业化的最深层次,因为它触及的不再是信息处理或行为反馈,而是人的身份认同本身。当一个人的社交媒体使用与其身份感深度绑定时,任何对其信息环境的挑战都会被感知为对其身份的威胁。这使得偏差的纠正变得极为困难——你不是在纠正一个人的判断错误,而是在威胁他的存在感。
这也解释了为什么"事实核查"作为对抗虚假信息的策略效果有限:当信念已经与身份融为一体时,指出事实错误不会被视为有益的纠正,而会被视为对"我们"的攻击。偏差工业化的四个层次在此形成完整的闭环:筛选过的信息(第一层)、虚假的行动感(第二层)、自洽的意义框架(第三层)和固化的身份认同(第四层),共同构成了一个极难突破的认知堡垒。
讨论
焦虑—抱团—偏差强化的恶性循环
将四个层次综合起来看,可以识别出一个更宏观的恶性循环机制。现代社会的结构性不确定性——经济不平等加剧、就业市场动荡、气候危机、全球化带来的身份焦虑——产生了广泛的安全感缺失。这种安全感缺失驱动人们寻求确定性——任何能提供明确答案、清晰敌友边界、可预测叙事的信息源。社交媒体算法精确地提供了这种"虚假确定性":通过确认偏误过滤不确定信息,通过控制幻觉提供行动感,通过公正世界叙事提供意义感,通过部落认同提供归属感。
然而,这种虚假确定性的问题在于它是自我强化的:你越是依赖算法提供的确定性,你对不确定性的容忍能力就越低;你对不确定性的容忍能力越低,你就越依赖算法提供的确定性。这形成了一个完整的"焦虑→抱团→偏差强化→更多焦虑"的恶性循环。
这一循环模型也解释了一个看似矛盾的现象:为什么物质条件相对优越的群体(如发达国家的中产阶级)有时比物质条件更差的群体表现出更强烈的极化倾向。原因可能不在于客观处境的恶化,而在于主观不确定感的增强——当期望与现实之间的差距被社交媒体放大时,焦虑-偏差循环的启动阈值就会降低。
伦理问题与"认知主权"概念
偏差的工业化引发了深刻的伦理问题。首先是平台责任问题:当平台的商业模式依赖于偏差的工业化时,平台是否应对其社会后果承担责任?这个问题的复杂性在于,如前文所述,偏差的工业化往往是参与度优化的自然结果,而非蓄意设计的产物。但"非蓄意"并不意味着"无责任"——正如一个工厂不需要"蓄意"污染河流,其污染后果仍需承担责任。
其次是知情同意问题:用户是否知道自己的认知偏差正在被系统性地利用?绝大多数用户并不了解算法的工作原理,更不论它们如何与自己的心理弱点交互。
基于这些考量,本文提出"认知主权"(Cognitive Sovereignty)这一概念,将其定义为:个体对自身注意力分配和信念形成过程的自主控制权。这一概念与已有的"数据主权"和"信息自决权"既有联系又有区别。数据主权关注的是个人数据的所有权和控制权;信息自决权关注的是个人决定哪些信息被披露的权利。而认知主权关注的是更深层的问题:当外部系统有系统性地影响你的思维方式时,你是否仍然拥有对自己认知过程的控制权?
认知主权的概念将讨论从技术层面提升到了权利层面。它意味着,算法对认知过程的系统性影响不仅仅是一个技术治理问题,更是一个基本权利问题。就像身体自主权意味着他人不能未经同意触碰你的身体一样,认知主权意味着技术系统不应在用户不知情的情况下系统性地操纵其认知过程。
可能的干预路径
基于偏差工业化模型,本文识别出三个主要的干预路径。
算法透明度与监管框架。 欧盟的《数字服务法案》(Digital Services Act)已经开始要求平台披露其算法推荐系统的基本逻辑。但从认知主权的角度看,这还不够——监管不仅需要关注算法的运作方式,还需要关注算法与人类认知偏差的交互效应。这意味着监管框架可能需要引入"认知影响评估",类似于环境影响评估,要求平台在部署新算法之前评估其对用户认知过程的潜在影响。
数字素养教育。 当前的数字素养教育主要关注技术使用能力和媒体批判思维,但很少触及认知偏差本身。本文认为,有效的数字素养教育应该包含"认知偏差识别"的内容——帮助人们识别自己在什么时候、以什么方式受到偏差的影响。这不是一次性的知识传授,而是一种需要持续练习的元认知能力。然而也需承认,元认知训练的效果有其局限——知道自己有确认偏误并不自动消除这一偏误。教育干预的目标不是"消除偏差"(这在认知科学上也不可能),而是增加人们对偏差运作的觉察,从而在关键时刻做出更审慎的判断。
替代性技术设计。 如果偏差的工业化根源于参与度驱动的商业模式,那么替代性的商业模式可能带来不同的结果。例如,基于订阅而非广告的模式不需要最大化参与度,因而可能减少对偏差强化内容的依赖。算法设计也可以融入"偏差减缓"的目标——例如主动推荐与用户现有观点不同但质量较高的内容。但这一路径面临着巨大的商业压力:在注意力经济中,不利用偏差的平台可能在竞争中处于劣势。
结论
认知偏差是人类心理的基础设施。它们不是可以被简单"克服"的缺陷,而是深嵌于人类认知架构中的基本机制——它们曾经且在某种程度上仍然服务于重要的心理功能。然而,社交媒体平台已经将这些个体层面的防御机制转化为大规模的商业基础设施。这一转化具有工业化的典型特征:规模化、标准化、自动化和商业化。
本文通过构建偏差工业化模型,将这一过程分解为四个递进层次——从信息筛选到行为反馈,从叙事建构到社会身份——试图提供一个更全面、更精细的分析框架。这四个层次不是并列的,而是逐层嵌套的:每一层都建立在前一层的基础上,共同构成了一个极难突破的认知闭环。同时,本文也尝试避免技术决定论的陷阱,承认用户的主动性和模型的内在张力,并提出"认知主权"作为应对框架。
理解认知偏差如何从个体心理现象被转化为大规模技术系统,是应对当代信息环境挑战的必要前提。这不仅仅是一个学术问题,更是一个关乎民主存续、公共健康和社会凝聚力的现实问题。在一个认知偏差被工业化的世界里,维护认知主权——对自身思维过程的自主控制——也许是最基本也最紧迫的权利诉求。
参考文献
- Gigerenzer, G. (2008). Rationality for Mortals: How People Cope with Uncertainty. Oxford University Press.
- Kahneman, D., & Tversky, A. (1974). Judgment under uncertainty: Heuristics and biases. Science, 185(4157), 1124–1131.
- Langer, E. J. (1975). The illusion of control. Journal of Personality and Social Psychology, 32(2), 311–328.
- Lerner, M. J. (1980). The Belief in a Just World: A Fundamental Delusion. Plenum Press.
- Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You. Penguin Press.
- Ross, L. (1977). The intuitive psychologist and his shortcomings: Distortions in the attribution process. Advances in Experimental Social Psychology, 10, 173–220.
- Sunstein, C. R. (2017). Republic: Divided Democracy in the Age of Social Media. Princeton University Press.
- Wason, P. C. (1960). On the failure to eliminate hypotheses in a conceptual task. Quarterly Journal of Experimental Psychology, 12(3), 129–140.
- Zuboff, S. (2019). The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. PublicAffairs.