
-
生物通官微
陪你抓住生命科技
跳动的脉搏
MetaSel:一种用于微调深度神经网络模型的测试样本选择方法
《IEEE Transactions on Software Engineering》:MetaSel: A Test Selection Approach for Fine-Tuned DNN Models
【字体: 大 中 小 】 时间:2025年11月21日 来源:IEEE Transactions on Software Engineering 5.6
编辑推荐:
协变量偏移下深度神经网络部署需测试选择,MetaSel方法通过结合预训练和微调模型的行为差异,提升测试覆盖率。该研究在68种微调模型上验证,尤其在标签受限时,平均TRC提升28.46%-56.18%,稳定性优于SOTA方法。
深度神经网络(DNNs)的广泛采用面临诸多挑战,其中一个主要问题是开发环境和部署环境之间的数据分布差异。从零开始为新部署环境训练DNN通常需要大量的标注数据,这可能会带来高昂的成本。迁移学习技术(如微调)通过利用在大型多样化数据集上训练的模型,并将其微调到相关但数据量较小的环境中,成为了一种有效且广泛使用的解决方案。然而,测试微调后的DNN模型同样面临标注难题,需要在有限的标注预算下选择合适的测试样本,以确保模型的可靠性和性能。在本文中,我们提出了一种名为MetaSel的有效测试样本选择方法,该方法专为微调后的分类DNN模型设计,在相同的预算条件下,尤其在资源受限的情况下,其在错误分类检测方面的表现始终优于现有的最先进方法(SOTA)。MetaSel特别适用于开发环境和部署环境之间存在数据分布偏移的场景,同时分类任务和模型输出类别保持不变。这种被称为“协变量偏移”的现象,在Pan和Yang的综合性研究中被归类为一种常见且重要的领域适应类型。
生物通微信公众号
知名企业招聘