基于小规模深度学习的黑白棋评估函数压缩方法研究
《IEEE Transactions on Games》:Compressing the Evaluation Function With Small-Scale Deep Learning on Othello
【字体:
大
中
小
】
时间:2025年11月23日
来源:IEEE Transactions on Games 2.8
编辑推荐:
本研究针对黑白棋AI评估函数参数量庞大(通常达千万级别)导致存储效率低下的问题,提出了一种基于小规模深度学习网络的压缩方法。研究人员通过构建多层全连接神经网络模型,成功将Egaroucid AI的评估函数数据量压缩至原大小的0.45%同时保持同等性能,压缩至6.4%时甚至提升了游戏强度。该方法在CodinGame全球黑白棋AI竞赛中获得第一名,为资源受限设备的高性能游戏AI开发提供了创新解决方案。
在人工智能与游戏智能体研究领域,黑白棋(Othello)作为经典的二人零和博弈游戏,长期以来一直是检验AI算法性能的重要测试平台。自1997年Logistello击败人类世界冠军以来,黑白棋AI在搜索算法和评估函数两方面持续演进,2023年更是实现了弱解决(weakly solved)。然而,一个长期存在的技术瓶颈在于:现代黑白棋AI使用的评估函数通常包含数千万个参数,导致存储空间需求巨大,严重限制了在资源受限环境(如移动设备)中的部署能力。
当前主流的评估方法基于模式评估(pattern-based evaluation)技术,该方法通过提取棋盘特定位置的棋子分布模式,为每种模式配置独立的评分参数。以顶尖开源AI Edax为例,其评估函数包含1,350万个参数,占用25.9 MiB存储空间;而更强的Egaroucid 7.5.1更是需要3,670万个参数,原始数据量达71.8 MiB。虽然传统的无损压缩(如游程编码)能将数据压缩至39.1%,但压缩率仍不理想。而直接采用深度学习作为评估函数又会引入计算延迟,影响搜索速度。
为解决这一矛盾,筑波大学的研究团队创新性地将深度学习作为压缩工具而非替代方案,开发出一种两阶段处理流程:首先使用小型深度神经网络在AI启动时生成完整的评估参数表,随后在游戏树搜索过程中直接使用预生成的参数表,既保持了评估速度,又大幅降低了存储需求。
研究人员设计了专门的全连接神经网络架构,针对16种棋盘模式和各附加特征分别构建独立模型。每个模型包含5个隐藏层,采用LeakyReLU(α=0.01)激活函数,最终通过tanh函数输出归一化值。关键创新在于通过乘法层将输出缩放至实际评分范围,同时利用棋盘对称性实现参数共享,进一步提升压缩效率。
实验设置了7种不同规模的模型(Model 8-Model 512),分别对应隐藏层节点数从8到512的变化。训练采用两种策略:BSD(Board-Score Data)方法直接使用棋盘-评分对数据训练组合模型;NCM(No Compression Model)方法则以未压缩模型参数作为教师数据进行蒸馏训练。通过4500场循环赛测试,结果显示BSD-Model 32仅需0.45%的存储空间即可达到原评估函数性能,而NCM-Model 128在仅占用6.4%空间时甚至实现了更强的游戏表现。
压缩性能对比表明,传统压缩方法中最佳表现(8bit+7z)仅能达到10.7%压缩率,且游戏强度低于原函数。而深度学习压缩方法在0.45%压缩率下即可保持强度,在6.4%压缩率下实现反超。分析认为,深度学习的泛化能力使其能对训练数据中未出现的棋盘特征给出合理评估,而传统方法对于未见过特征只能返回零值评估。
该方法在CodinGame黑白棋AI竞赛中得到实战检验。针对竞赛平台严格的代码长度限制(10万字符),研究团队进一步优化模型,将隐藏层减至4层,评估阶段数从60压缩至30,最终仅用27,372个权重参数实现完整评估功能。该AI在550个参赛者中荣获全球第一,证明了方法的实用价值。
研究结论表明,小规模深度学习压缩技术不仅能极大降低评估函数的存储需求,还能通过更好的泛化能力提升游戏强度。这种参数压缩范式可推广至其他基于N元组系统的游戏AI,为边缘计算设备部署高性能游戏智能体提供了新的技术路径。该成果发表于《IEEE Transactions on Games》,为游戏AI的轻量化设计树立了新的技术标杆。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号