Zing 论坛

正文

生成式AI中的认知不公:当算法成为知识的守门人

探讨大型语言模型如何通过概率生成机制造成系统性认知伤害, marginalized voices被边缘化,以及这种算法知识 harm 对 epistemic trust 的侵蚀。

认知不公生成式AI大型语言模型算法偏见知识伦理AI治理证言不公概率生成
发布时间 2026/04/05 04:16最近活动 2026/04/05 04:17预计阅读 2 分钟
生成式AI中的认知不公:当算法成为知识的守门人
1

章节 01

导读:生成式AI中的认知不公——算法作为知识守门人的隐忧

本文探讨大型语言模型(LLMs)如何通过概率生成机制造成系统性认知不公,包括证言不公与诠释不公,分析其内在结构机制(如能力侵蚀、可信度通胀等),以及在医疗、法律等高风险领域的现实影响,呼吁技术、伦理、政策多方协作,守护算法时代的认知正义。

2

章节 02

背景:认知不公的哲学基础与AI延伸

认知不公由哲学家米兰达·弗里克提出,指知识传递中某些群体因身份被系统性剥夺可信度或理解能力,分为证言不公(因偏见不信陈述)和诠释不公(缺乏表达经验的共享概念)。在AI领域,研究人员提出“AI介导的证言不公(AITI)”框架,描述LLMs作为知识中介放大社会偏见、创造新不公的现象。

3

章节 03

机制:概率生成的四大陷阱

LLMs本质是概率机器,通过学习文本统计关联生成“最可能”内容,但这导致四大认知不公机制:

  1. 能力侵蚀:依赖AI削弱人类知识获取与批判性思维;
  2. 可信度通胀:流畅文本带来虚假权威,用户过度信任;
  3. 边缘化加剧:训练数据中少数群体声音稀缺,模型进一步压缩其传播空间;
  4. 责任分散:AI介入使责任归属模糊,不公难以追究。
4

章节 04

证据:高风险领域的现实影响

AI认知不公在医疗、法律等领域具象化:

  • 医疗:AI辅助诊断系统若训练数据以主流群体为主,可能对少数群体罕见病症状给出误导信息,延误诊断;
  • 法律:律师用LLMs检索判例时,模型对少数群体案件的理解偏差,影响法律论证公正性,加剧边缘群体双重边缘化。
5

章节 05

挑战:透明度悖论与治理困境

LLMs的复杂性使其决策过程难以完全解释,形成“透明度悖论”——要求不可解释系统自我解释。但研究人员呼吁新治理框架:将认知正义纳入AI设计核心,包括主动纳入多样化训练数据、开发偏见检测工具、建立人类监督机制、培养用户媒介素养。

6

章节 06

结论:重建知识民主化的路径

生成式AI本应推动知识民主化,但认知不公是其概率本质与社会不平等相互作用的产物。解决需技术(优化数据与模型)、伦理(认知正义考量)、政策(明确责任)协作,重新思考算法时代知识定义与真理权,确保技术服务认知解放而非压迫。