针对现有卷积神经网络在强背景噪声下弱信号恢复不足的问题,提出了一个基于多尺度U-Net和注意力融合机制的去噪网络(MAUnet:Multi-Scale U-Net and An Attention Fusion Mechanism)。创新性地构建了双重机制,通过多尺度模块使网络学习不同尺度上的特征;通过注意力特征融合机制使网络可将浅层高频细节与深层语义信息融合,增强网络的学习能力,实现特征互补。实验结果表明,相较于对比方法,所提方法具有更好的噪声衰减和弱信号恢复能力。
为解决非完备信息下空战机动决策确定最优策略的问题,提出了一种基于区间投影寻踪法的非完备空战决策评估方法。首先,引入区间数表示非完备空战数据,将理想解排序法中的欧氏距离替换为灰色关联度,并给出正负理想解,提出区间参考灰色理想解排序法(RIGRA-TOPSIS:Referential Interval Grey Relation Analysis-Technique for Order Preference by Similarity to Ideal Solution),定量地得到了空战指标的客观权重。然后,提出了改进的区间投影寻踪法,将得到的客观权重作为区间投影寻踪法的初始投影向量,使用基尼系数代替标准差进行计算,并对投影密度进行指数校正,应用粒子群算法求出投影值,确定了最大投影值对应于空战博弈的最优策略。仿真结果表明,所提方法应用在小样本空战策略集的情况下具有良好效果。
针对手势识别由于分割效果差,导致识别率较低等问题,提出基于改进支持向量机的动态多点手势动作识别方法。选用深度阈值法分割动态多点手势图像,提取出手掌中最大的圆细化手部区域,获取7维手部HOG(Histogram of Oriented Gradients)特征向量,完成手势动作图像预处理。引入支持向量机,并且通过误差项改进该算法。采用改进后的支持向量机最优线性分类特征向量,利用支持向量机输入分类后的手势特征向量,实现动态多点手势动作识别。实验结果表明,所提方法受光照影响波动小,在有光照情况下,识别率达到92.5%以上,而无光照情况下,识别率仍高于90.0%,并且图像分割信息完整、识别准确性高。
针对电动自行车头盔佩戴检测存在小目标漏检、准确率低的问题,提出一种基于YOLOv5s(You Only Look Once version 5 small)的改进电动车头盔检测算法。在主干网络中引入CBAM(Convolutional Block Attention Module)卷积注意力机制,以提升对聚集目标的关注,解决因遮挡导致的检测效果差的问题;将颈部网络中的FPN(Feature Pyramid Network)+PAN(Path Aggregation Network)结构改为结合了跨尺度特征融合方法思想的特征融合结构,增强模型不同方向上的多尺度融合能力,使目标多尺度特征有效融合,提升对小目标的识别能力;使用SIoU(Structured Intersection over Union)定位损失函数代替CIoU(Complete Intersection over Union)损失函数,以提高边框回归精度。实验结果表明,改进后的YOLOv5s模型准确率P和召回率R分别为94.7%和91.2%,平均精度值mAP为95.6%,相较于原始YOLOv5s模型分别提升6%、7%和6.5%。该方法使电动自行车头盔佩戴检测准确率得到了明显提升。
为增强纹理特征提取算法对旋转、光照和尺度变化的鲁棒性,提出分形加权局部形态模式(FWLMP:Fractal Weighted Local Morphological Pattern)。首先,利用分形维数对尺度变化的相对不变性,构建一个尺度不变的描述符。然后使用数学形态学中的膨胀、腐蚀和开闭运算对其进行采样分析,利用分形维数图像计算其权重。该算法具有尺度不变性,对旋转和光照变化也具有鲁棒性。为实现对清朝服饰图像的分类,构建了清朝文武官补子图像数据集,并将FWLMP和同类算法在4个公共纹理数据集和自建的清朝文武官补子图像数据集上进行了实验。实验结果表明,FWLMP在纹理图像分类和清朝文武官补子图像分类上具有较好的应用价值。