面向机器学习推理的高计算密度纳米光子介质研究:实现超紧凑光学神经网络新突破
《Nature Communications》:High computational density nanophotonic media for machine learning inference
【字体:
大
中
小
】
时间:2025年11月22日
来源:Nature Communications 15.7
编辑推荐:
本刊推荐:为突破传统光学神经网络计算密度低、尺寸大的瓶颈,上海交通大学郭旭涵团队开展基于制造约束逆向设计的纳米光子介质研究,在64μm2超小面积上实现光学神经网络架构,在Iris数据集分类任务中实验精度达86.7%,并在8×8手写数字光学字符识别(OCR)任务中取得92.8%的准确率,为下一代高能效AI处理器奠定基础。
随着ChatGPT等大模型掀起人工智能浪潮,算力需求正以前所未有的速度增长。传统电子芯片逼近物理极限,光计算以其低功耗、高并行性优势成为破局关键。然而现有光学神经网络依赖马赫-曾德尔干涉仪(MZI)等分立元件,导致芯片面积动辄平方毫米级,制约计算密度提升。如何在指甲盖大小的芯片上实现高精度光学智能计算,成为学界竞相攻克的难题。
近日,《Nature Communications》发表上海交通大学郭旭涵团队研究成果,通过创新性提出制造约束逆向设计方法,将光学神经网络压缩至64μm2(相当于头发丝横截面积的1/300),在保持86.7%分类精度的同时,实现计算密度三个数量级的提升。这项突破为边缘端部署大模型提供了全新解决方案。
研究团队采用三大核心技术路径:首先通过伴随法(adjoint method)计算梯度,动态调整纳米孔洞结构参数;其次引入投影操作处理制造约束,确保130纳米最小特征尺寸的可制造性;最后采用低折射率对比设计增强工艺容差,使器件在50纳米工艺偏差下仍保持功能完好。特别值得关注的是,团队建立了包含麦克斯韦方程组的物理约束优化模型,将光学传播规律与机器学习损失函数深度融合。
纳米光子介质构型设计方面,研究揭示耦合效率(k)与计算密度的内在关联。通过对比传统波导调制与纳米光子介质的性能差异,发现后者可通过打破经验设计原则限制,在更小区域实现更高模式耦合效率。其工作原理是利用光通过散射介质时的模式转换特性,将输入光场相位信息(对应数据集特征)转换为输出端口光强分布(对应分类概率)。
Iris花卉分类实验中,团队在8×8微米区域布置20×20个浅刻蚀纳米孔洞。训练过程采用自适应矩估计(Adam)优化算法,100次迭代后测试集准确率达86.7%。通过引入制造约束的逆向设计,成功消除不切实际的微小结构,使设计通过商业光刻的设计规则检查(DRC)。蒙特卡洛模拟表明,浅刻蚀设计在50纳米工艺波动下性能衰减远低于全刻蚀方案。
实验验证环节,团队在绝缘体上硅(SOI)平台制备实际芯片。通过相位-电压转换电路将花卉特征映射至调制器电压,实测精度与仿真完全吻合。特别值得注意的是,经过栅格耦合器误差补偿后,芯片分类精度从50%提升至86.7%,证实制造约束设计的有效性。该结构支持100GHz超宽工作带宽,计算延迟仅0.11皮秒,较传统方案提升超40倍。
为验证扩展性,团队进一步设计44.8×44.8μm2大面积纳米光子介质,用于8×8像素手写数字识别。在3823张训练图像上学习后,测试集准确率达92.8%。温度敏感性分析表明,器件在40K温差下仍保持86.9%的精度,展现出良好环境适应性。
研究结论指出,纳米光子介质通过散射式光学计算架构,成功实现面积缩小三个数量级、计算密度提升千倍的突破。其56毫瓦的超低功耗特性,为边缘AI部署提供理想解决方案。针对光学神经网络普遍存在的非线性难题,研究提出可通过相干线性系统实现三维非线性函数映射,或引入非线性材料进行破解。这项工作不仅开辟了高密度光计算新路径,更为后摩尔时代AI硬件发展注入强劲动力。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号