章节 01
【导读】LLM助力健康谣言分析:解码YouTube牛尿疗法的修辞策略
本研究利用多模型LLM分析100段YouTube视频,揭示健康谣言传播者与辟谣者使用的不同说服策略。研究涵盖GPT-4系列、Gemini 2.5 Pro等主流模型,构建14类说服策略分类体系,为虚假信息治理提供新方法与启示。
正文
研究利用多模型LLM分析100段YouTube视频,揭示健康谣言传播者与辟谣者使用的不同说服策略。
章节 01
本研究利用多模型LLM分析100段YouTube视频,揭示健康谣言传播者与辟谣者使用的不同说服策略。研究涵盖GPT-4系列、Gemini 2.5 Pro等主流模型,构建14类说服策略分类体系,为虚假信息治理提供新方法与启示。
章节 02
在社交媒体时代,健康谣言传播成为全球挑战。当传统文化信仰与现代科学话语交织时,问题更棘手——某些"传统智慧"缺乏科学依据。牛尿疗法是典型案例:印度传统文化视其有净化治疗功效,但现代医学缺乏验证;YouTube上推广者与辟谣者观点对立。
章节 03
研究选取100段YouTube视频转录文本,使用GPT-4系列(GPT-4、GPT-4o、GPT-4.1、GPT-5)、Gemini 2.5 Pro、Mistral Medium 3等模型分析。构建14类说服策略分类体系,包括权威诉求、功效诉求、阴谋框架、社会证明、反驳策略等。
章节 04
推广者策略:依赖功效诉求(描述治愈疾病、健康益处)、社会证明(成功案例、正面反馈)、传统权威(阿育吠陀经典/宗教文本),诉诸情感经验而非科学证据。 辟谣者策略:采用权威诉求(医学研究、卫生机构声明)、直接反驳(质疑逻辑漏洞)、证据展示(实验数据/临床结果),诉诸理性与科学方法。
章节 05
研究验证LLM在文化话语分析中的可靠性,人机标注一致性90.1%。这表明LLM能准确识别复杂说服策略,14类分类体系区分度明确,自动化标注可作为大规模分析有效工具,为AI健康谣言监测提供方法论基础。
章节 06
章节 07
局限:样本仅英语内容,遗漏其他语言社区;横截面分析无法捕捉策略随时间演变;文化特定性可能限制结论推广。 未来方向:扩展多语言多平台分析;纵向追踪谣言生命周期;开发实时干预工具早期打击谣言。