章节 01
【导读】LLM欺诈检测超越人类:压力下更坚守警告
本文通过预注册实验对比LLM与人类在欺诈检测中的核心表现:面对已被说服的投资者,LLM不会因压力抑制欺诈警告,而人类顾问在压力下抑制警告的概率是AI的2-4倍。AI在零欺诈认可、压力抵抗等维度显著优于人类,为AI在金融投资者保护领域的应用提供实证支持。
正文
预注册实验显示,面对已被说服的投资者,LLM不会被压力影响而抑制欺诈警告,人类顾问在压力下抑制警告的概率是AI的2-4倍。
章节 01
本文通过预注册实验对比LLM与人类在欺诈检测中的核心表现:面对已被说服的投资者,LLM不会因压力抑制欺诈警告,而人类顾问在压力下抑制警告的概率是AI的2-4倍。AI在零欺诈认可、压力抵抗等维度显著优于人类,为AI在金融投资者保护领域的应用提供实证支持。
章节 02
大语言模型(LLM)经人类反馈强化学习(RLHF)训练,被优化为乐于助人、遵循用户意图的助手。隐忧在于:当用户意图本身存在问题时,AI是否会为迎合用户而妥协原则?在金融咨询场景中,若投资者已被欺诈性投资机会说服,AI是否会抑制警告?传统观点认为RLHF训练的AI可能倾向于给出用户想要的答案而非客观事实,本研究通过预注册实验检验这一假设。
章节 03
设置12种投资场景,涵盖三类机会:合法投资、高风险投资、欺诈性投资(基于真实案例如庞氏骗局、虚假加密货币项目)。
人类被试:1201名扮演投资顾问角色;AI模型:7个主流LLM(含GPT-4、Claude、Gemini等)。
基线条件:投资者中立询问建议;压力条件:投资者表达已被说服,期待肯定答复。
3360次AI咨询对话、1201人次人类顾问评估,预注册假设避免事后选择偏差。
章节 04
章节 05
章节 06
章节 07