-
题名OFDI、自主创新能力与高科技企业创新绩效
被引量:2
- 1
-
-
作者
李笑
华桂宏
-
机构
苏州科技大学商学院
南京师范大学商学院
-
出处
《经济学家》
北大核心
2023年第7期68-78,共11页
-
基金
国家社会科学基金项目“绿色发展理念下传统能源城市转型机制与政策研究”(19BJL033)
江苏高校哲学社会科学研究项目“高质量发展背景下江苏制造业企业对外直接投资影响效果与转型策略研究”(2022SJYB1468)
苏州科技大学人文社科类校级基金项目“逆全球化背景下中国高科技企业OFDI行为研究”(XKR202010)。
-
文摘
本文从股权进入模式与OFDI程度双维视角出发刻画高科技企业决策图景,研究OFDI对创新绩效的影响,并探究自主创新能力的调节作用。结果表明:(1)无论OFDI规模深度或地域广度,独资对创新绩效的正向影响均超过合资;(2)自主创新能力在独资模式中对创新绩效尤其是颠覆式创新绩效发挥负向调节作用,且对地域广度的影响大于规模深度;(3)经区位异质性研究后发现,在独资模式中发达国家对创新绩效的正向影响更显著,而在合资模式中发展中国家对创新绩效的提升作用更理想;自主创新能力在独资模式中的负向调节作用与合资模式中的正向调节作用主要体现在发展中国家。
-
关键词
股权进入模式
规模深度
地域广度
自主创新能力
创新绩效
-
Keywords
Equity Entry Mode
Scale Depth
Geographical Breadth
Independent Innovation Ability
Innovation Perfor⁃mance
-
分类号
F125
[经济管理—世界经济]
F425
F273
-
-
题名类脑超大规模深度神经网络系统
被引量:4
- 2
-
-
作者
吕建成
叶庆
田煜鑫
韩军伟
吴枫
-
机构
四川大学计算机学院
西北工业大学自动化学院
中国科学技术大学电子工程与信息科学系
-
出处
《软件学报》
EI
CSCD
北大核心
2022年第4期1412-1429,共18页
-
基金
国家重点研发计划(2017YFB1002201)
国家杰出青年科学基金(61625204)
国家自然科学基金(61836006)。
-
文摘
大规模神经网络展现出强大的端到端表示能力和非线性函数的无限逼近能力,在多个领域表现出优异的性能,成为一个重要的发展方向.如自然语言处理(NLP)模型GPT,经过几年的发展,目前拥有1750亿网络参数,在多个NLP基准上到达最先进性能.然而,按照现有的神经网络组织方式,目前的大规模神经网络难以到达人脑生物神经网络连接的规模.同时,现有的大规模神经网络在多通道协同处理、知识存储和迁移、持续学习方面表现不佳.提出构建一种启发于人脑功能机制的大规模神经网络模型,该模型以脑区划分和脑区功能机制为启发,集成大量现有数据和预训练模型,借鉴脑功能分区来模块化构建大规模神经网络模型,并由脑功能机制提出相应的学习算法,根据场景输入和目标,自动构建神经网络通路,设计神经网络模型来获得输出.该神经网络模型关注输入到输出空间的关系构建,通过不断学习,提升模型的关系映射能力,目标在于让该模型具备多通道协同处理能力,实现知识存储和持续学习,向通用人工智能迈进.整个模型和所有数据、类脑功能区使用数据库系统进行管理,该系统了还集成了分布式神经网络训练算法,为实现超大规模神经网络的高效训练提供支撑.提出了一种迈向通用人工智能的思路,并在多个不同模态任务验证该模型的可行性.
-
关键词
大规模深度神经网络
脑科学
多模态
通用人工智能
分布式计算
-
Keywords
large-scale deep neural networks
brain science
multi-modal
general artificial intelligence
distributed computing
-
分类号
TP18
[自动化与计算机技术—控制理论与控制工程]
-
-
题名面向异构分布式机器学习的动态自适应并行加速方法
- 3
-
-
作者
马翔
申国伟
郭春
崔允贺
陈意
-
机构
贵州大学计算机科学与技术学院
-
出处
《智能系统学报》
CSCD
北大核心
2023年第5期1099-1107,共9页
-
基金
国家自然科学基金项目(62062022)。
-
文摘
分布式机器学习因其优越的并行能力成为人工智能领域复杂模型训练的常用技术。然而,GPU升级换代非常快,异构集群环境下的分布式机器学习成为数据中心、研究机构面临的新常态。异构节点之间训练速度的差异使得现有并行方法难以平衡同步等待和陈旧梯度的影响,从而显著降低模型整体训练效率。针对该问题,提出了一种基于节点状态的动态自适应并行方法(dynamic adaptive synchronous parallel,DASP),利用参数服务器动态管理节点训练时的状态信息并对节点的并行状态进行划分,通过节点状态信息自适应调整每个节点的并行状态,以减少快速节点对全局模型参数的同步等待时间与陈旧梯度的产生,从而加快收敛效率。在公开数据集上的实验结果表明,DASP比主流方法收敛时间减少了16.9%~82.1%,并且训练过程更加稳定。
-
关键词
异构集群
机器学习
数据并行
分布式训练
参数服务器
落后者
陈旧梯度
大规模深度学习
-
Keywords
heterogeneous clusters
machine learning
data parallel
distributed training
parameter servers
stragglers
stale gradient
large-scale deep learning©《智能系统学报》编辑部版权所有
-
分类号
TP18
[自动化与计算机技术—控制理论与控制工程]
-