期刊文献+
共找到18篇文章
< 1 >
每页显示 20 50 100
基于AI+动作捕捉技术的虚拟主播体感交互系统的设计与实现 被引量:9
1
作者 郝昌 《广播与电视技术》 2019年第10期48-52,共5页
随着科技的快速发展和解放生产力的必然要求,人工智能(AI)的应用日益广泛,通过AI技术来推动广播电视领域在内容生产、终端服务和安全监管等方面的融合创新,实现全业务、全流程、全网络从数字化向智能化的战略转型意义重大。本文对"... 随着科技的快速发展和解放生产力的必然要求,人工智能(AI)的应用日益广泛,通过AI技术来推动广播电视领域在内容生产、终端服务和安全监管等方面的融合创新,实现全业务、全流程、全网络从数字化向智能化的战略转型意义重大。本文对"AI+广电"应用领域中的"虚拟主播"进行设计与实现,介绍了人物数字化过程、AI人脸表情跟踪计算方法、交互式虚拟主播3D建模、实验结果及分析。 展开更多
关键词 人工智能 虚拟主播 虚拟演播室 人脸识别 表情跟踪 动作捕捉 AI+广电
下载PDF
基于多模态数据的在线学习认知负荷评估 被引量:1
2
作者 薛耀锋 王坤 +1 位作者 邱奕盛 朱芳清 《现代教育技术》 2024年第3期79-88,共10页
近年来,认知负荷过载成为影响在线学习效果的一个重要因素。为解决此问题,文章聚焦在线学习认知负荷评估,首先设计了基于多模态数据的在线学习认知负荷评估研究框架,包含多模态数据采集、多模态特征提取和评估模型构建三个部分。接着,... 近年来,认知负荷过载成为影响在线学习效果的一个重要因素。为解决此问题,文章聚焦在线学习认知负荷评估,首先设计了基于多模态数据的在线学习认知负荷评估研究框架,包含多模态数据采集、多模态特征提取和评估模型构建三个部分。接着,文章通过实验,采集学习者在特定在线学习环境下的多模态数据,提取人脸表情特征、眼动追踪指标特征和脑电信号特征,构建在线学习认知负荷评估模型。之后,文章对评估模型的准确性进行验证,发现在五种机器学习算法模型中,KNN模型的综合性能最佳,故将此模型作为最终的在线学习认知评估模型;同时,文章对多模态数据进行了分析,发现多模态融合方法在认知负荷评估上具有优越性。文章构建的评估模型可赋能在线学习平台实现认知负荷的实时评估,进而实现基于认知负荷的个性化学习,增强学习动机,提升学习效果,促进在线教育质量提升。 展开更多
关键词 多模态数据 在线学习 认知负荷 人脸表情 眼动追踪 脑电信号
下载PDF
Probing the processing of facial expressions in monkeys via time perception and eye tracking 被引量:1
3
作者 Xin-He Liu Lu Gan +2 位作者 Zhi-Ting Zhang Pan-Ke Yu Ji Dai 《Zoological Research》 SCIE CSCD 2023年第5期882-893,共12页
Accurately recognizing facial expressions is essential for effective social interactions.Non-human primates(NHPs)are widely used in the study of the neural mechanisms underpinning facial expression processing,yet it r... Accurately recognizing facial expressions is essential for effective social interactions.Non-human primates(NHPs)are widely used in the study of the neural mechanisms underpinning facial expression processing,yet it remains unclear how well monkeys can recognize the facial expressions of other species such as humans.In this study,we systematically investigated how monkeys process the facial expressions of conspecifics and humans using eye-tracking technology and sophisticated behavioral tasks,namely the temporal discrimination task(TDT)and face scan task(FST).We found that monkeys showed prolonged subjective time perception in response to Negative facial expressions in monkeys while showing longer reaction time to Negative facial expressions in humans.Monkey faces also reliably induced divergent pupil contraction in response to different expressions,while human faces and scrambled monkey faces did not.Furthermore,viewing patterns in the FST indicated that monkeys only showed bias toward emotional expressions upon observing monkey faces.Finally,masking the eye region marginally decreased the viewing duration for monkey faces but not for human faces.By probing facial expression processing in monkeys,our study demonstrates that monkeys are more sensitive to the facial expressions of conspecifics than those of humans,thus shedding new light on inter-species communication through facial expressions between NHPs and humans. 展开更多
关键词 MONKEY Facial expression Time perception EYE-tracking Pupil size
下载PDF
Revisiting processing time for metaphorical expressions: An eye-tracking study on eye-voice span during sight translation 被引量:3
4
作者 Zheng Binghan Zhou Hao 《外语教学与研究》 CSSCI 北大核心 2018年第5期744-759,共16页
This paper aims to investigate the eye-voice span (EVS), the distance between eyeandvoice,insighttranslatingmetaphoricalexpressions(MEs).24MAtranslation students, with no professional translation or interpreting exper... This paper aims to investigate the eye-voice span (EVS), the distance between eyeandvoice,insighttranslatingmetaphoricalexpressions(MEs).24MAtranslation students, with no professional translation or interpreting experience, were asked to conduct a sight translation (STR) task, and the processes were registered by eye-tracker and audio recorder. The qualified eye-tracking and audio data were further analysed by Tobii Studio and Audacity audio processing software. Our findings suggest that the time of the pause preceding an ME was largely, but not entirely, spent in processing the ensuing ME. However, due to the general existence of reading ahead activities in STR, the planning step for sight translating an ME takes place prior to the preceding pause; moreover, due to local processing difficulty causedbytheME,thetimeforreadingaheadintoME(temporalEVS)ismostlygreater than for reading ahead beyond ME. Our findings also reveal that the rate of methodological deviation(causedbythetwodifferentcalculationapproaches)forMEprocessingtimeis around10%,butthetwoprocessingtimeshavedemonstratednostatisticallysignificant difference, validating the processing time calculated by audio data in Zheng&Xiang (2013).We conclude this paper with some reservation on eye-tracking translation research:though powerful in providing solid and informative process data, it has some limitations in clearly probing into intricate human cognitive process. 展开更多
关键词 SIGHT TRANSLATION METAPHORICAL expression eye-voice SPAN processing time EYE-tracking
原文传递
基于法向保持的三维人脸表情跟踪 被引量:2
5
作者 迟静 屠长河 陈雪 《计算机辅助设计与图形学学报》 EI CSCD 北大核心 2011年第6期1069-1077,共9页
为减少人脸表情跟踪过程中的人工干预,提高跟踪的效率和自动化程度,提出一种基于法向保持的三维人脸表情跟踪算法.采用以视频频率获取的帧人脸点云作为输入,通过将可变形的参数化网格模型依次对准每一帧点云来跟踪表情的变化;用法向保... 为减少人脸表情跟踪过程中的人工干预,提高跟踪的效率和自动化程度,提出一种基于法向保持的三维人脸表情跟踪算法.采用以视频频率获取的帧人脸点云作为输入,通过将可变形的参数化网格模型依次对准每一帧点云来跟踪表情的变化;用法向保持条件自动约束跟踪过程中网格顶点在相邻帧间的运动.与已有算法相比,该算法无需在每一帧对准中人工指定特征对应点,也无需进行复杂的光流运算,可实现高效的自动化表情跟踪.另外,当参数化网格与点云所表示的人脸形状相差较大时,采用文中算法也可以得到理想的对准效果. 展开更多
关键词 表情跟踪 法向保持 动态点云
下载PDF
AAM-Candide结合的快速表情动画合成模型 被引量:2
6
作者 蒋巍 卢娜 《科技通报》 北大核心 2017年第9期191-194,共4页
针对现有的算法在表情动画合成中自动化程度不高、生成效果不理想的问题,本文提出了一种基于AAM-Candide结合的快速表情动画合成模型。首先利用Candide-3算法获取面部表情参数-AU,并通过确定人脸的Candide-3模型来计算AU,将参数提取问... 针对现有的算法在表情动画合成中自动化程度不高、生成效果不理想的问题,本文提出了一种基于AAM-Candide结合的快速表情动画合成模型。首先利用Candide-3算法获取面部表情参数-AU,并通过确定人脸的Candide-3模型来计算AU,将参数提取问题转化为一个非刚体的人脸跟踪问题,然后利用彩色图对人脸关键点进行2D定位,通过上下限规范实现Candide-3和三维数据点云之间的对应点集。实例仿真结果表明,本文提出的改进算法,对惊讶、悲伤、嘟嘴、开心等4种表情得到了较好的动画合成效果。 展开更多
关键词 表情动画 AAM模型 Candide-3模型 人脸跟踪 关键点定位
下载PDF
An Integrated Face Tracking and Facial Expression Recognition System
7
作者 Angappan Geetha Venkatachalam Ramalingam Sengottaiyan Palanivel 《Journal of Intelligent Learning Systems and Applications》 2011年第4期201-208,共8页
This article proposes a feature extraction method for an integrated face tracking and facial expression recognition in real time video. The method proposed by Viola and Jones [1] is used to detect the face region in t... This article proposes a feature extraction method for an integrated face tracking and facial expression recognition in real time video. The method proposed by Viola and Jones [1] is used to detect the face region in the first frame of the video. A rectangular bounding box is fitted over for the face region and the detected face is tracked in the successive frames using the cascaded Support vector machine (SVM) and cascaded Radial basis function neural network (RBFNN). The haar-like features are extracted from the detected face region and they are used to create a cascaded SVM and RBFNN classifiers. Each stage of the SVM classifier and RBFNN classifier rejects the non-face regions and pass the face regions to the next stage in the cascade thereby efficiently tracking the face. The performance of tracking is evaluated using one hour video data. The performance of the cascaded SVM is compared with the cascaded RBFNN. The experiment results show that the proposed cascaded SVM classifier method gives better performance over the RBFNN and also the methods described in the literature using single SVM classifier [2]. While the face is being tracked, features are extracted from the mouth region for expression recognition. The features are modelled using a multi-class SVM. The SVM finds an optimal hyperplane to distinguish different facial expressions with an accuracy of 96.0%. 展开更多
关键词 FACE Detection FACE tracking Feature Extraction FACIAL expression Recognition Cascaded Support VECTOR Machine Cascaded RADIAL BASIS Function NEURAL Network
下载PDF
深度特征表达与学习的视觉跟踪算法分析
8
作者 周凤 佟艳艳 季世龙 《黑龙江科学》 2021年第20期34-35,共2页
为增强特定目标的分析效果,满足在线学习需求,指出深度特征表达与学习算法分析中存在的问题,分析了深度特征表达与学习的视觉跟踪算法,确定图像特征提取及融合方法,以展现深度学习的处理价值,为深度特征表达与学习的视觉跟踪算法研究提... 为增强特定目标的分析效果,满足在线学习需求,指出深度特征表达与学习算法分析中存在的问题,分析了深度特征表达与学习的视觉跟踪算法,确定图像特征提取及融合方法,以展现深度学习的处理价值,为深度特征表达与学习的视觉跟踪算法研究提供参考。 展开更多
关键词 深度特征 表达与学习 视觉跟踪 算法
下载PDF
基于支持向量机的实时表情识别
9
作者 张鹏 贾银山 刘陪胜 《微型电脑应用》 2010年第6期8-10,1,共3页
从实时图像中识别面部表情和推断情感是一个极具挑战性的研究课题。文章介绍了一种根据视频图像对面部表情进行实时识别的方法。使用ASM方法和改进的L-K光流算法进行面部特征定位和特征跟踪,提取的面部特征位移作为支持向量机分类器的... 从实时图像中识别面部表情和推断情感是一个极具挑战性的研究课题。文章介绍了一种根据视频图像对面部表情进行实时识别的方法。使用ASM方法和改进的L-K光流算法进行面部特征定位和特征跟踪,提取的面部特征位移作为支持向量机分类器的输入。实验证明,支持向量机和特征跟踪的方法能很好地识别面部表情。 展开更多
关键词 面部表情 支持向量机 特征跟踪 特征位移
下载PDF
E-technology social support programs for autistic children: Can they work?
10
作者 Natalie G Wall Oliver Smith +4 位作者 Linda E Campbell Carmel Loughland Mark Wallis Frans Henskens Ulrich Schall 《World Journal of Psychiatry》 SCIE 2021年第12期1239-1246,共8页
Autism is a neurodevelopmental condition with associated difficulties that present differently across individuals.One such difficulty is recognizing basic and complex facial expressions.Research has previously found t... Autism is a neurodevelopmental condition with associated difficulties that present differently across individuals.One such difficulty is recognizing basic and complex facial expressions.Research has previously found that there are many evidence-based support programs available for building non-verbal communication skills.These programs are frequently administered with a therapist or in a group setting,making them inflexible in nature.Programs hosted on e-technology are becoming increasingly popular,with many parents supportive of them.Applications(apps)that are hosted on technology such as iPads or mobile phones allow users to engage in building skills in real-time social settings and own what they are learning.These technologies are frequently used by autistic children,with apps typically focusing on identifying facial features.Yet at this current time,there are mixed reviews of how to design such programs and what their theoretical backing is,with many studies using a mix of observation and psychological assessments as outcome measures.Eye-tracking and electroencephalography are established methodologies that measure neural processing and gaze behaviors while viewing faces.To better support the field moving forward,objective measures such as these are a way to measure outcomes of apps that are designed for helping children on the spectrum build skills in understanding facial expressions. 展开更多
关键词 AUTISM Facial expression recognition TECHNOLOGY EYE-tracking Electroen-cephalography
下载PDF
疼痛面孔注意加工中共情的作用——来自眼动的证据 被引量:13
11
作者 颜志强 王福兴 苏彦捷 《心理科学》 CSSCI CSCD 北大核心 2016年第3期573-579,共7页
疼痛的威胁警示与趋近救助冲突近来受到研究者的关注。本研究结合点探测范式与眼动技术,以疼痛面孔和中性面孔为实验材料,探讨共情在疼痛功能冲突中所扮演的角色。我们收集了33名被试的有效眼动数据,结果发现,与中性面孔相比,被试对疼... 疼痛的威胁警示与趋近救助冲突近来受到研究者的关注。本研究结合点探测范式与眼动技术,以疼痛面孔和中性面孔为实验材料,探讨共情在疼痛功能冲突中所扮演的角色。我们收集了33名被试的有效眼动数据,结果发现,与中性面孔相比,被试对疼痛面孔图片的早期注意定向更快(首次注视到达时间更短)、晚期注意维持更长(注视次数更多、总注视持续时间更长);与低共情组相比,高共情组被试对面孔的总注视持续时间更长,分组分析显示只有高共情组对疼痛面孔的总注视持续时间比中性面孔长。结果表明,被试存在疼痛面孔注意偏向,被试的共情水平可能作为一个调节变量影响其在注意维持阶段对疼痛威胁的知觉。 展开更多
关键词 共情 疼痛面孔 注意 眼动
下载PDF
快乐表情对婴儿面孔种族知觉窄化的影响:眼动证据 被引量:1
12
作者 赵斌 王安琪 +2 位作者 刘少英 严璘璘 刘广西 《应用心理学》 2023年第4期326-333,共8页
本文利用眼动技术,采用改进的视觉配对比较范式,探究快乐表情是否及如何改变中国婴儿的面孔种族知觉窄化。实验一发现,中性条件下,6个月婴儿能识别本族和他族面孔,9个月婴儿仅能识别本族面孔;实验二发现,快乐条件下,9个月婴儿熟悉他族... 本文利用眼动技术,采用改进的视觉配对比较范式,探究快乐表情是否及如何改变中国婴儿的面孔种族知觉窄化。实验一发现,中性条件下,6个月婴儿能识别本族和他族面孔,9个月婴儿仅能识别本族面孔;实验二发现,快乐条件下,9个月婴儿熟悉他族面孔后,能识别他族面孔,并且眼动结果表明,快乐条件下婴儿对他族面孔扫描模式不同于中性条件下,这种差异可能会影响到婴儿对他族面孔的识别。结果为婴儿期面孔知觉-社会加工联结假说提供了证据。 展开更多
关键词 知觉窄化 快乐表情 眼动技术 扫描模式 婴儿
下载PDF
警示性语义表达在国产香烟包装设计中的正向研究
13
作者 郭怡瑛 吴萍 《包装工程》 CAS 北大核心 2023年第16期391-402,共12页
目的 国内香烟包装表达含蓄,对抑制与劝阻性语义表达的设计探索几近空白,针对中国当下新生代消费者,分析其对包装的认知偏好,基于用户情感设计探寻具有中国式警示语义的香烟包装设计方法及策略。方法 对比当前国内外香烟包装设计的现状... 目的 国内香烟包装表达含蓄,对抑制与劝阻性语义表达的设计探索几近空白,针对中国当下新生代消费者,分析其对包装的认知偏好,基于用户情感设计探寻具有中国式警示语义的香烟包装设计方法及策略。方法 对比当前国内外香烟包装设计的现状,分析语义差异性表达对产品销售中用户行为的影响;聚焦国内新生代消费者的吸烟行为、价值观与消费观,借助眼动追踪等信息技术获取其对香烟包装的视觉偏好数据,结合深度访谈构建新生代消费者认知模型。结果 从抑制与劝阻消费行为的角度出发,构建国内香烟包装警示设计策略,形成一套中国文化背景下的香烟包装警示性语义表达设计规范,并利用数字化技术对设计方案的可行性进行多维评价。结论 基于中国新生代消费者吸烟行为与认知偏好的分析研究,通过信息技术赋能,进行警示性语义表达在国产香烟包装设计中的正向研究,提出中国文化背景下香烟包装警示性语义表达设计规范。致力于抑制新生代烟民数量增加的问题,用设计来发声,希望能为该领域的研究提供更多的启示。 展开更多
关键词 国产香烟 包装设计 警示性语义表达 眼动追踪技术
下载PDF
自闭症儿童面孔觉察与面部表情加工的眼动研究 被引量:3
14
作者 兰继军 赵骁骁 范嘉欣 《昆明学院学报》 2017年第5期42-47,共6页
为了解面孔熟悉度是否影响自闭症儿童的面孔知觉能力和面部表情加工方式,采用眼动仪对14名3~6岁的自闭症儿童进行实验。实验结果发现,在语义背景不一致情况下,自闭症儿童更容易发现熟悉面孔,并对其有较高的注视率;而在乱序背景下,自闭... 为了解面孔熟悉度是否影响自闭症儿童的面孔知觉能力和面部表情加工方式,采用眼动仪对14名3~6岁的自闭症儿童进行实验。实验结果发现,在语义背景不一致情况下,自闭症儿童更容易发现熟悉面孔,并对其有较高的注视率;而在乱序背景下,自闭症儿童对消极表情照片发现的时间要显著少于对平静表情照片所用的时间。 展开更多
关键词 自闭症儿童 面孔觉察 面部表情识别 面部表情加工 眼动研究
下载PDF
小学生动态面孔表情识别的眼动特征研究 被引量:2
15
作者 郭文斌 汤妮 +1 位作者 方俊明 周念丽 《应用心理学》 CSSCI 2012年第4期323-331,共9页
为探究小学生识别不同动态面孔表情时的眼动特征,以33名小学生为被试,向他们呈现喜、怒、哀、惧四种动态面孔表情的视频,采用眼动仪记录他们识别四种动态面孔表情时的平均瞳孔尺寸、各兴趣区注视时间等眼动特征指标。结果发现:小学生对... 为探究小学生识别不同动态面孔表情时的眼动特征,以33名小学生为被试,向他们呈现喜、怒、哀、惧四种动态面孔表情的视频,采用眼动仪记录他们识别四种动态面孔表情时的平均瞳孔尺寸、各兴趣区注视时间等眼动特征指标。结果发现:小学生对四种动态表情的识别率存在显著差异,喜的识别率显著高于其他3类表情,怒的识别率则相反;四种动态面孔表情识别时的平均瞳孔尺寸存在显著差异,从大到小依次为惧、哀、怒、喜;小学生对不同兴趣区的注视时间有显著差异,眼睛和眉毛部位的注视时间显著长于其他部位;识别喜、怒、惧时,一年级和五年级小学生对兴趣区的总注视时间显著长于三年级,而在识别哀时则相反。结论:小学生识别动态面孔表情时,最易识别喜,最难识别怒;瞳孔尺寸大小可作为不同类型动态表情识别的较好客观指标;动态表情识别过程中,包含眼睛和眉毛、鼻子部位的上半部分面孔的注视时间明显长于包含嘴巴的下半部分;五年级小学生对动态表情的识别能力最高,三年级小学生呈现出偏好注视哀的独有特征。 展开更多
关键词 小学生 动态面孔表情 表情识别 眼动特征
下载PDF
数学表达式遥测工程参数解析系统实现 被引量:2
16
作者 何华 商临峰 《飞行器测控学报》 CSCD 2013年第2期127-131,共5页
为解决航天靶场测控中心实时遥测数据处理软件开发过程中航天器工程参数类型多、数据量大,遥测参数必须频繁更动源代码的问题,引入了数学表达式解析方法。论述了表达式解析系统的设计思想,并从理论上对表达式解析系统的需求和设计原则... 为解决航天靶场测控中心实时遥测数据处理软件开发过程中航天器工程参数类型多、数据量大,遥测参数必须频繁更动源代码的问题,引入了数学表达式解析方法。论述了表达式解析系统的设计思想,并从理论上对表达式解析系统的需求和设计原则进行简要分析,在Qt集成开发环境中结合标准C++库进行了系统实现,提出了逆序函数处理思想,有效解决了函数嵌套的问题,最后通过举例详细说明了表达式解析系统的处理过程,并通过测试字符串表达式验证了系统的正确性。 展开更多
关键词 数学表达式解析 遥测数据处理 函数嵌套 航天测控
下载PDF
基于SVM的面部表情分析 被引量:1
17
作者 李燕 邹北骥 汤丽君 《微处理机》 2007年第1期92-94,共3页
以面部表情视频序列为研究对象,基于一种统计学习方法-支持向量机对面部表情进行识别及强度度量。采用一种改进的特征点跟踪方法来提取面部特征形变。通过非线性降维方法-等容特征映射自动产生表情强度范围,从高维特征点轨迹中抽取一维... 以面部表情视频序列为研究对象,基于一种统计学习方法-支持向量机对面部表情进行识别及强度度量。采用一种改进的特征点跟踪方法来提取面部特征形变。通过非线性降维方法-等容特征映射自动产生表情强度范围,从高维特征点轨迹中抽取一维的表情强度。最后,使用SVM建立表情模型和强度模型,进行表情的分类,并对高兴表情进行强度等级的归类。实验证明了该表情分析方法的有效性。 展开更多
关键词 面部表情分析 特征点跟踪 支持向量机 表情强度
下载PDF
基于特征点跟踪的面部表情强度度量 被引量:1
18
作者 陈伟宏 《重庆工学院学报(自然科学版)》 2008年第9期176-180,共5页
提出了一种基于特征点跟踪的面部表情强度度量方法.该方法在L-K光流算法的基础上,应用修正特征点跟踪提取面部特征信息,通过非线性降维从高维特征点轨迹中抽区一维的表情强度,最后使用SVM建立表情模型和强度模型,对高兴表情进行强度等... 提出了一种基于特征点跟踪的面部表情强度度量方法.该方法在L-K光流算法的基础上,应用修正特征点跟踪提取面部特征信息,通过非线性降维从高维特征点轨迹中抽区一维的表情强度,最后使用SVM建立表情模型和强度模型,对高兴表情进行强度等级的归类.针对高兴表情进行实验,引入表情强度等级作为衡量标准,实验结果证明了该方法的有效性. 展开更多
关键词 表情强度 特征点跟踪 L—K光流 SVM
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部