期刊文献+
共找到3篇文章
< 1 >
每页显示 20 50 100
神经结构搜索的研究进展综述 被引量:7
1
作者 李航宇 王楠楠 +2 位作者 朱明瑞 杨曦 高新波 《软件学报》 EI CSCD 北大核心 2022年第1期129-149,共21页
近年来,深度神经网络(DNNs)在许多人工智能任务中取得卓越表现,例如计算机视觉(CV)、自然语言处理(NLP).然而,网络设计严重依赖专家知识,这是一个耗时且易出错的工作.于是,作为自动化机器学习(AutoML)的重要子领域之一,神经结构搜索(NAS... 近年来,深度神经网络(DNNs)在许多人工智能任务中取得卓越表现,例如计算机视觉(CV)、自然语言处理(NLP).然而,网络设计严重依赖专家知识,这是一个耗时且易出错的工作.于是,作为自动化机器学习(AutoML)的重要子领域之一,神经结构搜索(NAS)受到越来越多的关注,旨在以自动化的方式设计表现优异的深度神经网络模型.全面细致地回顾神经结构搜索的发展过程,进行了系统总结.首先,给出了神经结构搜索的研究框架,并分析每个研究内容的作用;接着,根据其发展阶段,将现有工作划分为4个方面,介绍各阶段发展的特点;然后,介绍现阶段验证结构搜索效果经常使用的数据库,创新性地总结该领域的规范化评估标准,保证实验对比的公平性,促进该领域的长久发展;最后,对神经结构搜索研究面临的挑战进行了展望与分析. 展开更多
关键词 神经结构搜索 自动化机器学习 深度学习 神经网络 规范化评估
下载PDF
基于自动化机器学习建立结肠镜肠道准备失败风险预测模型及评价
2
作者 王甘红 陈健 +2 位作者 沈支佳 奚美娟 周燕婷 《中国内镜杂志》 2024年第5期36-47,共12页
目的 鉴于机器学习(ML)在医学模型中的广泛应用,以及其出色的学习和泛化特性,该研究采用自动化机器学习(AutoML)结合患者一般资料和临床状况,早期评估结肠镜前肠道准备的失败风险。方法 回顾性分析2022年1月-2023年1月在该院接受结肠镜... 目的 鉴于机器学习(ML)在医学模型中的广泛应用,以及其出色的学习和泛化特性,该研究采用自动化机器学习(AutoML)结合患者一般资料和临床状况,早期评估结肠镜前肠道准备的失败风险。方法 回顾性分析2022年1月-2023年1月在该院接受结肠镜检查的患者的临床资料。波士顿肠道准备评分(BBPS)≤5分被定义为肠道准备失败,> 5分为合格。将患者按8∶2的比例随机划分了训练集(n=303)和验证集(n=76)。采用最小绝对收缩和选择算子(LASSO)逻辑回归(LR)模型进行特征选择,构建列线图评分系统,并使用基于5种算法的AutoML建立模型。模型性能通过受试者操作特征曲线(ROC curve)、校准曲线、基于LR (Lasso回归)的决策曲线分析(DCA)、SHAP图和力图进行评估。结果 在379例患者中,105例(27.7%)肠道准备失败(BBPS≤5分)。21个研究变量在经LASSO 5折交叉验证后,获得10个变量,并构建了一款列线图评分系统,通过校正曲线表明了LASSO模型的可靠性。使用H2O平台和5种算法[梯度提升机(GBM)、深度学习(DL)、广义线性模型(GLM)、堆叠集成(Stacked Ensemble)和分布式随机森林(DRF)]开发了67个模型。经比较,Stacked Ensemble表现最佳,其曲线下面积(AUC)为0.871,对数损失值(LogLoss)为0.403,均方根误差(RMSE)为0.354,优于其他模型和传统的LR模型。变量重要性贡献图显示,服完泻药至检查间隔时间、便秘、是否完整服完泻药、年龄和家属陪同等因素对肠道准备失败的预测有重要影响。最后,SHAP图和力图揭示了变量在二分类预测结果中的分布特征,以及各变量对预测结果的影响。结论 基于Stacked Ensemble算法的AutoML模型,对肠道准备失败风险的早期预测有明显的临床实用性。同时,该研究构建了一款可供临床使用的列线图评分工具。 展开更多
关键词 波士顿肠道准备评分(BBPS) 结肠镜 自动化机器学习(automl) 预测模型 列线图
下载PDF
基于自适应学习率优化的AdaNet改进 被引量:6
3
作者 刘然 刘宇 顾进广 《计算机应用》 CSCD 北大核心 2020年第10期2804-2810,共7页
人工神经网络的自适应结构学习(AdaNet)是基于Boosting集成学习的神经结构搜索框架,可通过集成子网创建高质量的模型。现有的AdaNet所产生的子网之间的差异性不显著,因而限制了集成学习中泛化误差的降低。在AdaNet设置子网网络权重和集... 人工神经网络的自适应结构学习(AdaNet)是基于Boosting集成学习的神经结构搜索框架,可通过集成子网创建高质量的模型。现有的AdaNet所产生的子网之间的差异性不显著,因而限制了集成学习中泛化误差的降低。在AdaNet设置子网网络权重和集成子网的两个步骤中,使用Adagrad、RMSProp、Adam、RAdam等自适应学习率方法来改进现有AdaNet中的优化算法。改进后的优化算法能够为不同维度参数提供不同程度的学习率缩放,得到更分散的权重分布,以增加AdaNet产生子网的多样性,从而降低集成学习的泛化误差。实验结果表明,在MNIST(Mixed National Institute of Standards and Technology database)、Fashion-MNIST、带高斯噪声的Fashion-MNIST这三个数据集上,改进后的优化算法能提升AdaNet的搜索速度,而且该方法产生的更加多样性的子网能提升集成模型的性能。在F1值这一评估模型性能的指标上,改进后的方法相较于原方法,在三种数据集上的最大提升幅度分别为0.28%、1.05%和1.10%。 展开更多
关键词 AdaNet 神经架构搜索 集成学习 自适应学习率方法 自动机器学习
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部