随着新冠疫情的爆发,全球教育系统经历了向在线学习的重大转型。在线课堂的普及虽然解决了时空限制问题,却带来了新的挑战——教师难以像传统课堂那样直观感知学生的情绪反应。研究表明,情绪对学习效果具有决定性影响:积极情绪如好奇和兴趣能促进知识吸收,而消极情绪如焦虑和无聊则会阻碍认知处理。然而,在数十人同时参与的在线课堂中,教师根本无法实时观察每个学生的面部表情变化,更无法根据情绪反馈及时调整教学策略。现有技术多基于分类模型(Categorical Model)识别六种基本情绪,但这种方法在在线学习场景中存在明显局限。学生可能因非学习因素(如与同学社交)表现出快乐情绪,这并不能真实反映其课堂参与度。更重要的是,学习过程中产生的困惑、好奇、希望等复杂情绪无法通过基本情绪类别准确捕捉。此外,多数研究依赖课后视频分析,缺乏真正的实时干预能力。为解决这一难题,印度中央理工学院科克拉贾尔分校的Innocent Dengkhw Mochahari团队在《Complex System Modeling and Simulation》发表研究,开发了一套融合维度情感模型的实时情绪分析系统。该系统通过卷积神经网络(CNN)连续追踪学生的情感效价(Valence,情绪正负向)和唤醒度(Arousal,生理激活程度),将二维坐标映射到五种学习中心情绪(中性、无聊、困惑、希望、好奇),为教师提供动态的情绪仪表盘。关键技术方法包括:1)基于WebRTC和Agora SDK构建视频会议平台,以320×180分辨率每15秒采集学生面部图像;2)使用Haar cascade分类器进行人脸检测,并通过自定义CNN架构(包含3个卷积块、Dropout层和全连接层)回归预测维度情感值;3)利用AffectNet数据集(含291,651张人工标注图像)进行模型训练,采用线性激活函数输出连续值;4)根据Russell的环状模型将二维情感坐标映射到学习情绪象限,实现情绪状态分类。