章节 01
导读:生成式AI中的认知不公——算法作为知识守门人的隐忧
本文探讨大型语言模型(LLMs)如何通过概率生成机制造成系统性认知不公,包括证言不公与诠释不公,分析其内在结构机制(如能力侵蚀、可信度通胀等),以及在医疗、法律等高风险领域的现实影响,呼吁技术、伦理、政策多方协作,守护算法时代的认知正义。
正文
探讨大型语言模型如何通过概率生成机制造成系统性认知伤害, marginalized voices被边缘化,以及这种算法知识 harm 对 epistemic trust 的侵蚀。
章节 01
本文探讨大型语言模型(LLMs)如何通过概率生成机制造成系统性认知不公,包括证言不公与诠释不公,分析其内在结构机制(如能力侵蚀、可信度通胀等),以及在医疗、法律等高风险领域的现实影响,呼吁技术、伦理、政策多方协作,守护算法时代的认知正义。
章节 02
认知不公由哲学家米兰达·弗里克提出,指知识传递中某些群体因身份被系统性剥夺可信度或理解能力,分为证言不公(因偏见不信陈述)和诠释不公(缺乏表达经验的共享概念)。在AI领域,研究人员提出“AI介导的证言不公(AITI)”框架,描述LLMs作为知识中介放大社会偏见、创造新不公的现象。
章节 03
LLMs本质是概率机器,通过学习文本统计关联生成“最可能”内容,但这导致四大认知不公机制:
章节 04
AI认知不公在医疗、法律等领域具象化:
章节 05
LLMs的复杂性使其决策过程难以完全解释,形成“透明度悖论”——要求不可解释系统自我解释。但研究人员呼吁新治理框架:将认知正义纳入AI设计核心,包括主动纳入多样化训练数据、开发偏见检测工具、建立人类监督机制、培养用户媒介素养。
章节 06
生成式AI本应推动知识民主化,但认知不公是其概率本质与社会不平等相互作用的产物。解决需技术(优化数据与模型)、伦理(认知正义考量)、政策(明确责任)协作,重新思考算法时代知识定义与真理权,确保技术服务认知解放而非压迫。