综述:护理中人工智能应用的伦理与制度准备就绪性:一项伞状综述

【字体: 时间:2025年10月05日 来源:International Nursing Review 3.7

编辑推荐:

  本综述系统探讨人工智能(AI)在护理领域应用的伦理挑战(如患者自主权、数据隐私、算法偏见)与制度准备要素(包括基础设施、培训及治理框架),强调需通过多层面准备推动AI技术与护理伦理实践的协同发展。

  

摘要

本伞状综述旨在综合与护理领域人工智能(AI)应用相关的伦理及制度考量,涵盖决策支持系统、预测工具和自动化技术等场景。背景分析表明,AI虽能提升护理效率与患者结局,但亦引发自主性、隐私公平性及责任归属等伦理问题。制度准备度涉及基础设施、培训与治理体系,对伦理整合至关重要。

背景

人工智能(AI)在护理中的应用日益广泛,其技术形式包括决策支持系统(decision-support systems)、预测分析工具(predictive tools)及自动化流程(automation)。尽管AI具有优化医疗效率与改善患者预后的潜力,但同时也对患者自主权(autonomy)、隐私保护(privacy)、公平性(fairness)及责任机制(accountability)构成挑战。医疗机构需具备完善的数字基础设施、人员培训及治理框架,以支撑AI技术的伦理化部署。

方法

研究采用伞状综述(umbrella review)方法,综合了2015年至2025年间发表的系统评价、范围综述、整合性综述及叙述性综述的研究结果。检索数据库包括PubMed、CINAHL、Scopus、Embase与Web of Science。通过数据提取与主题分析,识别出重复出现的伦理议题与制度准备因素。

结果

共纳入33篇综述。核心伦理问题聚焦于患者自主权、知情同意(informed consent)、数据保护(data protection)、算法偏见(bias)及临床责任界定模糊(unclear clinical accountability)。制度层面的障碍主要包括数字化基础设施不足、护理人员AI素养(AI literacy)欠缺以及监管体系零散(fragmented regulatory oversight)。研究同时发现,那些投资于包容性领导(inclusive leadership)、持续教育培训(continuous education)及透明治理(transparent governance)的机构在AI实施过程中表现出更高的伦理一致性。

讨论

伦理问题与制度准备度密切相关。资源匮乏或治理结构不完善的环境会加剧伦理风险,而具备支持性制度的机构则能强化伦理实践的落实。这说明AI的应用不仅关乎技术本身,更依赖于系统性支撑条件。

结论

人工智能在护理领域的推广不仅是一项技术创新,更是深刻的伦理与组织变革,要求从系统层面到实践者个人均需做好全面准备。

对护理实践与卫生政策的意义

医疗卫生系统应加强基础设施投入、明确监管政策并提供持续培训。政策制定者需倡导公平(equity)、透明性(transparency)与包容性(inclusiveness),以确保AI技术真正赋能以患者为中心、伦理根基牢固的护理实践。

试验与方案注册

本综述注册于PROSPERO,注册号CRD420251060646。

利益冲突声明

作者声明无任何竞争性利益。
相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号