目的研究追加视觉识别任务的体育活动对儿童动态视敏度和静态视敏度的影响。方法基于ICF视功能及看的活动分析,设计4种追加视觉任务的体育活动。2018年6至8月,选取38名6~9岁视觉功能正常的业余体校学生,训练8周。训练前、训练4周和训练...目的研究追加视觉识别任务的体育活动对儿童动态视敏度和静态视敏度的影响。方法基于ICF视功能及看的活动分析,设计4种追加视觉任务的体育活动。2018年6至8月,选取38名6~9岁视觉功能正常的业余体校学生,训练8周。训练前、训练4周和训练8周时,测量动态视敏度和静态视敏度。结果训练后,被试动态视敏度和静态视敏度均有显著提高(F> 24.368, P <0.001)。男生双眼静态视敏度改善程度大于女生(t> 2.161, P <0.05)。动态视敏度与静态视敏度正相关(r> 0.424, P <0.01)。结论追加视觉任务的体育活动对改善6~9岁儿童动态视敏度和静态视敏度有积极作用,可以作为提高儿童视力健康的干预手段。展开更多
目的目标语义特征提取效果直接影响图像语义分割的精度,传统的单尺度特征提取方法对目标的语义分割精度较低,为此,提出一种基于多尺度特征融合的工件目标语义分割方法,利用卷积神经网络提取目标的多尺度局部特征语义信息,并将不同尺度...目的目标语义特征提取效果直接影响图像语义分割的精度,传统的单尺度特征提取方法对目标的语义分割精度较低,为此,提出一种基于多尺度特征融合的工件目标语义分割方法,利用卷积神经网络提取目标的多尺度局部特征语义信息,并将不同尺度的语义信息进行像素融合,使神经网络充分捕获图像中的上下文信息,获得更好的特征表示,有效实现工件目标的语义分割。方法使用常用的多类工件图像定义视觉任务,利用残差网络模块获得目标的单尺度语义特征图,再结合本文提出的多尺度特征提取方式获得不同尺度的局部特征语义信息,通过信息融合获得目标分割图。使用上述方法经多次迭代训练后得到与视觉任务相关的工件目标分割模型,并对训练权重与超参数进行保存。结果将本文方法和传统的单尺度特征提取方法做定性和定量的测试实验,结果表明,获得的分割网络模型对测试集中的目标都具有较精确的分割能力,与单尺度特征提取方法相比,本文方法的平均交并比m IOU(mean intersection over union)指标在验证集上训练精度提高了4.52%,在测试集上分割精度提高了4.84%。当测试样本中包含的目标种类较少且目标边缘清晰时,本文方法能够得到更精准的分割结果。结论本文提出的语义分割方法,通过多尺度特征融合的方式增强了神经网络模型对目标特征的提取能力,使训练得到的分割网络模型比传统的单尺度特征提取方式在测试集上具有更优秀的性能,从而验证了所提出方法的有效性。展开更多
深度学习技术在许多研究领域都取得了巨大的成功,尤其在计算机视觉领域取得了显著的进展.SCIENCE CHINA Information Sciences从2019年起持续组织出版"Special Focus on Deep Learning for Computer Vision"(计算机视觉中的...深度学习技术在许多研究领域都取得了巨大的成功,尤其在计算机视觉领域取得了显著的进展.SCIENCE CHINA Information Sciences从2019年起持续组织出版"Special Focus on Deep Learning for Computer Vision"(计算机视觉中的深度学习专题),旨在报道利用深度学习解决重要视觉任务的新思路.经过高效率、高质量的评审,本专题第二批共录用了6篇论文和4篇短文,涵盖了语义分割、目标检测、图像合成、文本识别、年龄估计等有挑战性的重要视觉任务,发表在SCIENCE CHINA Information Sciences 2020年63卷第2期上.展开更多
文摘目的研究追加视觉识别任务的体育活动对儿童动态视敏度和静态视敏度的影响。方法基于ICF视功能及看的活动分析,设计4种追加视觉任务的体育活动。2018年6至8月,选取38名6~9岁视觉功能正常的业余体校学生,训练8周。训练前、训练4周和训练8周时,测量动态视敏度和静态视敏度。结果训练后,被试动态视敏度和静态视敏度均有显著提高(F> 24.368, P <0.001)。男生双眼静态视敏度改善程度大于女生(t> 2.161, P <0.05)。动态视敏度与静态视敏度正相关(r> 0.424, P <0.01)。结论追加视觉任务的体育活动对改善6~9岁儿童动态视敏度和静态视敏度有积极作用,可以作为提高儿童视力健康的干预手段。
文摘目的目标语义特征提取效果直接影响图像语义分割的精度,传统的单尺度特征提取方法对目标的语义分割精度较低,为此,提出一种基于多尺度特征融合的工件目标语义分割方法,利用卷积神经网络提取目标的多尺度局部特征语义信息,并将不同尺度的语义信息进行像素融合,使神经网络充分捕获图像中的上下文信息,获得更好的特征表示,有效实现工件目标的语义分割。方法使用常用的多类工件图像定义视觉任务,利用残差网络模块获得目标的单尺度语义特征图,再结合本文提出的多尺度特征提取方式获得不同尺度的局部特征语义信息,通过信息融合获得目标分割图。使用上述方法经多次迭代训练后得到与视觉任务相关的工件目标分割模型,并对训练权重与超参数进行保存。结果将本文方法和传统的单尺度特征提取方法做定性和定量的测试实验,结果表明,获得的分割网络模型对测试集中的目标都具有较精确的分割能力,与单尺度特征提取方法相比,本文方法的平均交并比m IOU(mean intersection over union)指标在验证集上训练精度提高了4.52%,在测试集上分割精度提高了4.84%。当测试样本中包含的目标种类较少且目标边缘清晰时,本文方法能够得到更精准的分割结果。结论本文提出的语义分割方法,通过多尺度特征融合的方式增强了神经网络模型对目标特征的提取能力,使训练得到的分割网络模型比传统的单尺度特征提取方式在测试集上具有更优秀的性能,从而验证了所提出方法的有效性。
文摘深度学习技术在许多研究领域都取得了巨大的成功,尤其在计算机视觉领域取得了显著的进展.SCIENCE CHINA Information Sciences从2019年起持续组织出版"Special Focus on Deep Learning for Computer Vision"(计算机视觉中的深度学习专题),旨在报道利用深度学习解决重要视觉任务的新思路.经过高效率、高质量的评审,本专题第二批共录用了6篇论文和4篇短文,涵盖了语义分割、目标检测、图像合成、文本识别、年龄估计等有挑战性的重要视觉任务,发表在SCIENCE CHINA Information Sciences 2020年63卷第2期上.