
-
生物通官微
陪你抓住生命科技
跳动的脉搏
数据:通过神经架构搜索实现的具有内存效率的可变形变压器加速器
《IEEE Transactions on Very Large Scale Integration (VLSI) Systems》:DATA: A Memory-Efficient Deformable Transformer Accelerator via Neural Architecture Search
【字体: 大 中 小 】 时间:2025年11月21日 来源:IEEE Transactions on Very Large Scale Integration (VLSI) Systems 3.1
编辑推荐:
提出变形注意力Transformer加速器DATA,通过记忆感知的神经架构搜索自动优化特征图切片和高效数据流设计,结合时空分割硬件模块提升资源利用率,在Xilinx平台实现较基线效率提升2.42倍,内存需求降低至12.5%。
随着科学技术的发展,人工智能(AI)已广泛应用于各个领域。其中,神经网络在AI的发展中起着关键作用,越来越多的神经网络模型被应用于自然语言处理(NLP)、图像处理和视频处理等任务中。作为代表性的工作之一,Transformer最初是为NLP任务提出的,并在NLP任务中取得了优异的性能[2]、[3]、[4]、[5]。由于在NLP任务中的成功,学者们将Transformer引入计算机视觉领域,并在目标检测[6]、图像分类[7]和图像分割[8]等任务中取得了良好的效果。
生物通微信公众号
知名企业招聘