期刊文献+
共找到4篇文章
< 1 >
每页显示 20 50 100
运动领域中知觉预测研究现状及发展趋势 被引量:25
1
作者 赵洪朋 周成林 《沈阳体育学院学报》 北大核心 2010年第3期36-40,共5页
知觉预测是运动员利用部分信息或先行信息预测未来事件的信息加工过程。从信息加工的视角,全面综述知觉预测与信息利用、视觉搜索策略、再认和回忆、知识表征的相关成果,以及知觉预测能力发展与训练的研究现状,详细介绍知觉预测的研究... 知觉预测是运动员利用部分信息或先行信息预测未来事件的信息加工过程。从信息加工的视角,全面综述知觉预测与信息利用、视觉搜索策略、再认和回忆、知识表征的相关成果,以及知觉预测能力发展与训练的研究现状,详细介绍知觉预测的研究范式、方法及理论假说。在此基础上剖析知觉预测研究的不足及未来发展趋势,为该领域的深入研究提供理论依据。 展开更多
关键词 知觉预测 信息利用 视觉搜索 再认和回忆 知识表征
下载PDF
知识图谱可视分析研究综述 被引量:13
2
作者 刘玉华 翟如钰 +2 位作者 张翔 王毅刚 周志光 《计算机辅助设计与图形学学报》 EI CSCD 北大核心 2023年第1期23-36,共14页
知识图谱是一种以图谱形式描述客观世界中存在的各种实体、概念及其关系的技术,广泛应用于智能搜索、自动问答和决策支持等领域.可视分析技术可以将抽象的知识图谱映射为图形元素,帮助用户直观地感知和分析数据,从而提高知识图谱的构建... 知识图谱是一种以图谱形式描述客观世界中存在的各种实体、概念及其关系的技术,广泛应用于智能搜索、自动问答和决策支持等领域.可视分析技术可以将抽象的知识图谱映射为图形元素,帮助用户直观地感知和分析数据,从而提高知识图谱的构建和表达,也为知识图谱在各个领域的应用提供了有力支持.文中对知识图谱可视分析相关工作进行调研和整理,从知识图谱可视化表现形式、知识图谱构建过程中常用的可视分析方法以及面向应用领域的知识图谱可视分析技术3个方面进行综述;进一步,总结和讨论知识图谱可视分析面临的挑战,并对其未来的发展趋势进行展望. 展开更多
关键词 知识图谱 可视分析 知识表示 知识构建 知识应用
下载PDF
一个多形式的知识库管理系统XFKBMS/V1.0 被引量:6
3
作者 滕明贵 熊范纶 吴正龙 《小型微型计算机系统》 CSCD 北大核心 2004年第4期625-629,共5页
提出了一个多形式的知识库管理系统 XFKBMS/ V1 .0 .XFKBMS/ V1 .0在采用面向对象的“知识体·对象块·构件”知识表示方法的基础上 ,向用户提供了三种知识库管理环境 :基于 DBMS的数据库格式知识获取 &编辑环境 ;基于图的... 提出了一个多形式的知识库管理系统 XFKBMS/ V1 .0 .XFKBMS/ V1 .0在采用面向对象的“知识体·对象块·构件”知识表示方法的基础上 ,向用户提供了三种知识库管理环境 :基于 DBMS的数据库格式知识获取 &编辑环境 ;基于图的可视化知识获取 &编辑环境 ;基于知识库描述性语言的文本格式知识获取 &编辑环境 .这三种环境相互感应 .用户可以从一种环境切换到另一种环境 ,继续知识的获取 &编辑 .用户可以以自己熟悉的方式工作 。 展开更多
关键词 知识库管理系统 面向对象 可视化知识表示 知识库描述性语言
下载PDF
融合知识表征的多模态Transformer场景文本视觉问答 被引量:1
4
作者 余宙 俞俊 +1 位作者 朱俊杰 匡振中 《中国图象图形学报》 CSCD 北大核心 2022年第9期2761-2774,共14页
目的现有视觉问答方法通常只关注图像中的视觉物体,忽略了对图像中关键文本内容的理解,从而限制了图像内容理解的深度和精度。鉴于图像中隐含的文本信息对理解图像的重要性,学者提出了针对图像中场景文本理解的“场景文本视觉问答”任... 目的现有视觉问答方法通常只关注图像中的视觉物体,忽略了对图像中关键文本内容的理解,从而限制了图像内容理解的深度和精度。鉴于图像中隐含的文本信息对理解图像的重要性,学者提出了针对图像中场景文本理解的“场景文本视觉问答”任务以量化模型对场景文字的理解能力,并构建相应的基准评测数据集TextVQA(text visual question answering)和ST-VQA(scene text visual question answering)。本文聚焦场景文本视觉问答任务,针对现有基于自注意力模型的方法存在过拟合风险导致的性能瓶颈问题,提出一种融合知识表征的多模态Transformer的场景文本视觉问答方法,有效提升了模型的稳健性和准确性。方法对现有基线模型M4C(multimodal multi-copy mesh)进行改进,针对视觉对象间的“空间关联”和文本单词间的“语义关联”这两种互补的先验知识进行建模,并在此基础上设计了一种通用的知识表征增强注意力模块以实现对两种关系的统一编码表达,得到知识表征增强的KR-M4C(knowledge-representation-enhanced M4C)方法。结果在TextVQA和ST-VQA两个场景文本视觉问答基准评测集上,将本文KR-M4C方法与最新方法进行比较。本文方法在TextVQA数据集中,相比于对比方法中最好的结果,在不增加额外训练数据的情况下,测试集准确率提升2.4%,在增加ST-VQA数据集作为训练数据的情况下,测试集准确率提升1.1%;在ST-VQA数据集中,相比于对比方法中最好的结果,测试集的平均归一化Levenshtein相似度提升5%。同时,在TextVQA数据集中进行对比实验以验证两种先验知识的有效性,结果表明提出的KR-M4C模型提高了预测答案的准确率。结论本文提出的KR-M4C方法的性能在TextVQA和ST-VQA两个场景文本视觉问答基准评测集上均有显著提升,获得了在该任务上的最好结果。 展开更多
关键词 场景文本视觉问答 知识表征 注意力机制 TRANSFORMER 多模态融合
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部