用于饮食失调的生成式人工智能:与在线支持的语言比较以及对危害的定性分析

《International Journal of Eating Disorders》:Generative AI for Eating Disorders: Linguistic Comparison With Online Support and Qualitative Analysis of Harms

【字体: 时间:2025年11月24日 来源:International Journal of Eating Disorders 4.3

编辑推荐:

  本研究对比分析生成式AI与人类在线社区(OC)对进食障碍(EDs)的支持回应,发现AI回答更长更礼貌但重复性高、缺乏创意,且可能强化ED行为及隐含偏见,需制定伦理指南以降低风险。

  

摘要

研究目的

生成式人工智能(AI)有潜力用于帮助患有饮食失调(EDs)的人,但这同时也带来了一定的风险。本研究旨在比较心理语言学特征(认知、情感和社会过程的语言标志)和词汇语义特征(文本中的词汇选择和意义模式),并评估在线社区(OCs)中AI回复与人类回复可能带来的危害。

研究方法

我们从Reddit上的饮食失调相关社区收集了COVID之前的数据,包括3634条帖子和22,359条回复。对于每条帖子,我们使用四种广泛使用的先进AI模型(GPT、Gemini、Llama和Mistral)生成了回复,这些模型的提示都是针对同伴支持设计的。我们使用“Linguistic Inquiry and Word Count”(LIWC)词典来分析八个维度上的心理语言学特征,并对语言结构、风格和语义等方面进行了词汇语义比较。此外,临床医生还对100条AI生成的回复进行了定性分析,以识别潜在的危害。

研究结果

与人类回复相比,AI回复通常更长、更礼貌,但重复性更强且创造性较低。不同AI模型在共情得分上存在差异。定性分析揭示了可能强化饮食失调行为的主题、隐性偏见(例如,偏好减肥),以及无法理解情境细微差别的现象——比如对情感线索的不敏感和过于泛化的健康建议。所有AI聊天机器人生成的回复都包含有害内容,例如在不同程度上宣扬饮食失调行为或偏见。

讨论

研究结果突显了AI回复与人类回复之间的差异,表明在饮食失调同伴支持中使用AI存在潜在的危害风险。伦理方面的考虑包括需要采取防护措施,以防止有害行为和偏见的强化。这项研究强调了谨慎整合AI的重要性;需要进一步验证并制定相关指南,以确保提供安全有效的支持。

利益冲突

作者声明没有利益冲突。

数据可用性声明

本研究中使用的公开社交媒体数据及相应的AI回复可根据请求与合格方共享,但需签署适当的数据使用协议,以防止滥用并确保敏感内容的合法处理。这些措施旨在保障透明度,鼓励未来研究,并维护负责任的数据管理。

相关新闻
生物通微信公众号
微信
新浪微博
  • 搜索
  • 国际
  • 国内
  • 人物
  • 产业
  • 热点
  • 科普
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号