期刊文献+
共找到3篇文章
< 1 >
每页显示 20 50 100
OFDI、自主创新能力与高科技企业创新绩效 被引量:2
1
作者 李笑 华桂宏 《经济学家》 北大核心 2023年第7期68-78,共11页
本文从股权进入模式与OFDI程度双维视角出发刻画高科技企业决策图景,研究OFDI对创新绩效的影响,并探究自主创新能力的调节作用。结果表明:(1)无论OFDI规模深度或地域广度,独资对创新绩效的正向影响均超过合资;(2)自主创新能力在独资模... 本文从股权进入模式与OFDI程度双维视角出发刻画高科技企业决策图景,研究OFDI对创新绩效的影响,并探究自主创新能力的调节作用。结果表明:(1)无论OFDI规模深度或地域广度,独资对创新绩效的正向影响均超过合资;(2)自主创新能力在独资模式中对创新绩效尤其是颠覆式创新绩效发挥负向调节作用,且对地域广度的影响大于规模深度;(3)经区位异质性研究后发现,在独资模式中发达国家对创新绩效的正向影响更显著,而在合资模式中发展中国家对创新绩效的提升作用更理想;自主创新能力在独资模式中的负向调节作用与合资模式中的正向调节作用主要体现在发展中国家。 展开更多
关键词 股权进入模式 规模深度 地域广度 自主创新能力 创新绩效
原文传递
类脑超大规模深度神经网络系统 被引量:4
2
作者 吕建成 叶庆 +2 位作者 田煜鑫 韩军伟 吴枫 《软件学报》 EI CSCD 北大核心 2022年第4期1412-1429,共18页
大规模神经网络展现出强大的端到端表示能力和非线性函数的无限逼近能力,在多个领域表现出优异的性能,成为一个重要的发展方向.如自然语言处理(NLP)模型GPT,经过几年的发展,目前拥有1750亿网络参数,在多个NLP基准上到达最先进性能.然而... 大规模神经网络展现出强大的端到端表示能力和非线性函数的无限逼近能力,在多个领域表现出优异的性能,成为一个重要的发展方向.如自然语言处理(NLP)模型GPT,经过几年的发展,目前拥有1750亿网络参数,在多个NLP基准上到达最先进性能.然而,按照现有的神经网络组织方式,目前的大规模神经网络难以到达人脑生物神经网络连接的规模.同时,现有的大规模神经网络在多通道协同处理、知识存储和迁移、持续学习方面表现不佳.提出构建一种启发于人脑功能机制的大规模神经网络模型,该模型以脑区划分和脑区功能机制为启发,集成大量现有数据和预训练模型,借鉴脑功能分区来模块化构建大规模神经网络模型,并由脑功能机制提出相应的学习算法,根据场景输入和目标,自动构建神经网络通路,设计神经网络模型来获得输出.该神经网络模型关注输入到输出空间的关系构建,通过不断学习,提升模型的关系映射能力,目标在于让该模型具备多通道协同处理能力,实现知识存储和持续学习,向通用人工智能迈进.整个模型和所有数据、类脑功能区使用数据库系统进行管理,该系统了还集成了分布式神经网络训练算法,为实现超大规模神经网络的高效训练提供支撑.提出了一种迈向通用人工智能的思路,并在多个不同模态任务验证该模型的可行性. 展开更多
关键词 规模深度神经网络 脑科学 多模态 通用人工智能 分布式计算
下载PDF
面向异构分布式机器学习的动态自适应并行加速方法
3
作者 马翔 申国伟 +2 位作者 郭春 崔允贺 陈意 《智能系统学报》 CSCD 北大核心 2023年第5期1099-1107,共9页
分布式机器学习因其优越的并行能力成为人工智能领域复杂模型训练的常用技术。然而,GPU升级换代非常快,异构集群环境下的分布式机器学习成为数据中心、研究机构面临的新常态。异构节点之间训练速度的差异使得现有并行方法难以平衡同步... 分布式机器学习因其优越的并行能力成为人工智能领域复杂模型训练的常用技术。然而,GPU升级换代非常快,异构集群环境下的分布式机器学习成为数据中心、研究机构面临的新常态。异构节点之间训练速度的差异使得现有并行方法难以平衡同步等待和陈旧梯度的影响,从而显著降低模型整体训练效率。针对该问题,提出了一种基于节点状态的动态自适应并行方法(dynamic adaptive synchronous parallel,DASP),利用参数服务器动态管理节点训练时的状态信息并对节点的并行状态进行划分,通过节点状态信息自适应调整每个节点的并行状态,以减少快速节点对全局模型参数的同步等待时间与陈旧梯度的产生,从而加快收敛效率。在公开数据集上的实验结果表明,DASP比主流方法收敛时间减少了16.9%~82.1%,并且训练过程更加稳定。 展开更多
关键词 异构集群 机器学习 数据并行 分布式训练 参数服务器 落后者 陈旧梯度 规模深度学习
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部