
-
生物通官微
陪你抓住生命科技
跳动的脉搏
用于饮食失调的生成式人工智能:与在线支持的语言比较以及对危害的定性分析
《International Journal of Eating Disorders》:Generative AI for Eating Disorders: Linguistic Comparison With Online Support and Qualitative Analysis of Harms
【字体: 大 中 小 】 时间:2025年11月24日 来源:International Journal of Eating Disorders 4.3
编辑推荐:
本研究对比分析生成式AI与人类在线社区(OC)对进食障碍(EDs)的支持回应,发现AI回答更长更礼貌但重复性高、缺乏创意,且可能强化ED行为及隐含偏见,需制定伦理指南以降低风险。
生成式人工智能(AI)有潜力用于帮助患有饮食失调(EDs)的人,但这同时也带来了一定的风险。本研究旨在比较心理语言学特征(认知、情感和社会过程的语言标志)和词汇语义特征(文本中的词汇选择和意义模式),并评估在线社区(OCs)中AI回复与人类回复可能带来的危害。
我们从Reddit上的饮食失调相关社区收集了COVID之前的数据,包括3634条帖子和22,359条回复。对于每条帖子,我们使用四种广泛使用的先进AI模型(GPT、Gemini、Llama和Mistral)生成了回复,这些模型的提示都是针对同伴支持设计的。我们使用“Linguistic Inquiry and Word Count”(LIWC)词典来分析八个维度上的心理语言学特征,并对语言结构、风格和语义等方面进行了词汇语义比较。此外,临床医生还对100条AI生成的回复进行了定性分析,以识别潜在的危害。
与人类回复相比,AI回复通常更长、更礼貌,但重复性更强且创造性较低。不同AI模型在共情得分上存在差异。定性分析揭示了可能强化饮食失调行为的主题、隐性偏见(例如,偏好减肥),以及无法理解情境细微差别的现象——比如对情感线索的不敏感和过于泛化的健康建议。所有AI聊天机器人生成的回复都包含有害内容,例如在不同程度上宣扬饮食失调行为或偏见。
研究结果突显了AI回复与人类回复之间的差异,表明在饮食失调同伴支持中使用AI存在潜在的危害风险。伦理方面的考虑包括需要采取防护措施,以防止有害行为和偏见的强化。这项研究强调了谨慎整合AI的重要性;需要进一步验证并制定相关指南,以确保提供安全有效的支持。
作者声明没有利益冲突。
本研究中使用的公开社交媒体数据及相应的AI回复可根据请求与合格方共享,但需签署适当的数据使用协议,以防止滥用并确保敏感内容的合法处理。这些措施旨在保障透明度,鼓励未来研究,并维护负责任的数据管理。