安全帽与工作服是变电站工作人员安全的重要保障,为解决现有检测模型对其检测精度低的问题,本文提出了MBDC和双重注意力的变电站人员穿戴检测算法。该算法提出了多分支深度卷积(multi branch deep convolution,MBDC)网络增加深度可分离...安全帽与工作服是变电站工作人员安全的重要保障,为解决现有检测模型对其检测精度低的问题,本文提出了MBDC和双重注意力的变电站人员穿戴检测算法。该算法提出了多分支深度卷积(multi branch deep convolution,MBDC)网络增加深度可分离卷积层以增强特征提取的完备性;然后提出多通道交互注意力(multimodal interaction attention,MIA)增加模型对小目标的检测能力,并将MIA机制结合高效通道注意力(efficient channel attention,ECA)机制构成双重注意力机制,增强模型对于小目标和遮挡目标的识别精度;最后引入焦点损失函数和SIOU(scylla intersection over union)作为损失函数以解决正负样本不平衡问题并加快收敛速度。实验表明,本文算法全类平均精度达到84.88%,比原算法高9.92%,总体性能优于对比算法。展开更多
现有的大多数研究者使用循环神经网络与注意力机制相结合的方法进行方面级情感分类任务。然而,循环神经网络不能并行计算,并且模型在训练过程中会出现截断的反向传播、梯度消失和梯度爆炸等问题,传统的注意力机制可能会给句子中重要情...现有的大多数研究者使用循环神经网络与注意力机制相结合的方法进行方面级情感分类任务。然而,循环神经网络不能并行计算,并且模型在训练过程中会出现截断的反向传播、梯度消失和梯度爆炸等问题,传统的注意力机制可能会给句子中重要情感词分配较低的注意力权重。针对上述问题,该文提出了一种融合Transformer和交互注意力网络的方面级情感分类模型。首先利用BERT(bidirectional encoder representation from Transformers)预训练模型来构造词嵌入向量,然后使用Transformer编码器对输入的句子进行并行编码,接着使用上下文动态掩码和上下文动态权重机制来关注与特定方面词有重要语义关系的局部上下文信息。最后在5个英文数据集和4个中文评论数据集上的实验结果表明,该文所提模型在准确率和F1上均表现最优。展开更多
文摘现有的大多数研究者使用循环神经网络与注意力机制相结合的方法进行方面级情感分类任务。然而,循环神经网络不能并行计算,并且模型在训练过程中会出现截断的反向传播、梯度消失和梯度爆炸等问题,传统的注意力机制可能会给句子中重要情感词分配较低的注意力权重。针对上述问题,该文提出了一种融合Transformer和交互注意力网络的方面级情感分类模型。首先利用BERT(bidirectional encoder representation from Transformers)预训练模型来构造词嵌入向量,然后使用Transformer编码器对输入的句子进行并行编码,接着使用上下文动态掩码和上下文动态权重机制来关注与特定方面词有重要语义关系的局部上下文信息。最后在5个英文数据集和4个中文评论数据集上的实验结果表明,该文所提模型在准确率和F1上均表现最优。