期刊文献+
共找到3篇文章
< 1 >
每页显示 20 50 100
基于柯西-施瓦茨不等式的知识图谱稠密表示方法
1
作者 林霞 王聪 +1 位作者 李敏 李俊华 《小型微型计算机系统》 CSCD 北大核心 2023年第2期300-306,共7页
知识图谱稠密表示将形态各异的知识转化为结构化的实值向量,是当前有效的知识表示方式之一,广泛应用于知识计算和知识推理.在知识图谱稠密表示发展过程中,现有表示方法采用随机梯度下降法优化知识向量,导致知识嵌入精确度低.为此,本文... 知识图谱稠密表示将形态各异的知识转化为结构化的实值向量,是当前有效的知识表示方式之一,广泛应用于知识计算和知识推理.在知识图谱稠密表示发展过程中,现有表示方法采用随机梯度下降法优化知识向量,导致知识嵌入精确度低.为此,本文提出了基于柯西-施瓦茨不等式的知识图谱稠密表示方法,将知识嵌入到低维稠密的向量空间.首先借助基于翻译操作的嵌入学习模型,利用势能函数表示实体和关系在向量空间中的距离,然后基于柯西-施瓦茨不等式,以极小化势能函数,最后在低维向量空间中最优化知识图谱的实体和关系向量.在基于数据集FB15k和WN18的对比实验中,度量标准hits@10和hits@1均得到了提升,证明了该方法提高了知识图谱稠密表示的准确性. 展开更多
关键词 知识图谱 稠密表示 翻译操作 势能函数 柯西-施瓦茨不等式
下载PDF
基于稀疏稠密结构表示与在线鲁棒字典学习的视觉跟踪 被引量:7
2
作者 袁广林 薛模根 《电子与信息学报》 EI CSCD 北大核心 2015年第3期536-542,共7页
L1跟踪对适度的遮挡具有鲁棒性,但是存在速度慢和易产生模型漂移的不足。为了解决上述两个问题,该文首先提出一种基于稀疏稠密结构的鲁棒表示模型。该模型对目标模板系数和小模板系数分别进行L2范数和L1范数正则化增强了对离群模板的鲁... L1跟踪对适度的遮挡具有鲁棒性,但是存在速度慢和易产生模型漂移的不足。为了解决上述两个问题,该文首先提出一种基于稀疏稠密结构的鲁棒表示模型。该模型对目标模板系数和小模板系数分别进行L2范数和L1范数正则化增强了对离群模板的鲁棒性。为了提高目标跟踪速度,基于块坐标优化原理,用岭回归和软阈值操作建立了该模型的快速算法。其次,为降低模型漂移的发生,该文提出一种在线鲁棒的字典学习算法用于模板更新。在粒子滤波框架下,用该表示模型和字典学习算法实现了鲁棒快速的跟踪方法。在多个具有挑战性的图像序列上的实验结果表明:与现有跟踪方法相比,所提跟踪方法具有较优的跟踪性能。 展开更多
关键词 视觉跟踪 稀疏表示 稠密表示 字典学习
下载PDF
基于对抗式数据增强的深度文本检索重排序 被引量:1
3
作者 陈丽萍 任俊超 《计算机系统应用》 2021年第7期204-209,共6页
在信息检索领域的排序任务中,神经网络排序模型已经得到广泛使用.神经网络排序模型对于数据的质量要求极高,但是,信息检索数据集通常含有较多噪音,不能精确得到与查询不相关的文档.为了训练一个高性能的神经网络排序模型,获得高质量的... 在信息检索领域的排序任务中,神经网络排序模型已经得到广泛使用.神经网络排序模型对于数据的质量要求极高,但是,信息检索数据集通常含有较多噪音,不能精确得到与查询不相关的文档.为了训练一个高性能的神经网络排序模型,获得高质量的负样本,则至关重要.借鉴现有方法doc2query的思想,本文提出了深度、端到端的模型AQGM,通过学习不匹配查询文档对,生成与文档不相关、原始查询相似的对抗查询,增加了查询的多样性,增强了负样本的质量.本文利用真实样本和AQGM模型生成的样本,训练基于BERT的深度排序模型,实验表明,与基线模型BERT-base对比,本文的方法在MSMARCO和TrecQA数据集上,MRR指标分别提升了0.3%和3.2%. 展开更多
关键词 神经网络排序模型 稠密表征 信息检索 对抗式数据增强 生成模型
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部