期刊文献+
共找到39篇文章
< 1 2 >
每页显示 20 50 100
矩阵取样技术在大尺度教育测评中的运用 被引量:15
1
作者 李凌艳 辛涛 董奇 《北京师范大学学报(社会科学版)》 CSSCI 北大核心 2007年第6期19-25,共7页
从上世纪五六十年代开始,由于一些大型国际教育测评项目的推动,矩阵取样技术因其较好地解决了广泛的测试内容和有限的测试时间之间的矛盾,而在大尺度教育测评中逐渐得到普遍运用。它通过将测验题目的随机平行等份分配给随机选取的学生... 从上世纪五六十年代开始,由于一些大型国际教育测评项目的推动,矩阵取样技术因其较好地解决了广泛的测试内容和有限的测试时间之间的矛盾,而在大尺度教育测评中逐渐得到普遍运用。它通过将测验题目的随机平行等份分配给随机选取的学生来估计测验总分,是用来估计矩阵参数的一般统计方法。在实际测评的过程中,与传统经典测验用同一张试卷测验所有学生的做法不同,矩阵取样通过限制每个学生所接受的测验题目数量来减少必须的测验时间,但同时仍然在学生之间保持了对测试内容的广泛覆盖范围。从基本类型上看,它可分为完全矩阵取样和不完全矩阵取样两大类,两者都定位于对群体水平的测查,但后者通过"公用题目"的设计帮助解决个体间结果比较的问题。采用恰当的矩阵取样技术,在对广泛的测评内容进行梳理和结构化整理的基础上,可以在不增加测验管理成本的前提下,实现对群体水平的准确、全面考察,这对我国教育质量监测工作的开展具有重大的方法学意义。 展开更多
关键词 大尺度测评 矩阵取样技术 完全矩阵取样设计 不完全矩阵取样设计
下载PDF
一种新的大规模复杂图像分割的谱聚类方法 被引量:7
2
作者 李俊英 汪西莉 《计算机应用研究》 CSCD 北大核心 2011年第5期1994-1997,共4页
提出了一种新的应用于大规模复杂图像分割的谱聚类方法,该方法通过均匀采样获取图像的较小模式,通过快速卡通—纹理分解模型分解图像,分别获取图像的光谱和纹理特征,然后通过Nystrm谱聚类算法确定采样图像的划分,最后利用其结果,依据... 提出了一种新的应用于大规模复杂图像分割的谱聚类方法,该方法通过均匀采样获取图像的较小模式,通过快速卡通—纹理分解模型分解图像,分别获取图像的光谱和纹理特征,然后通过Nystrm谱聚类算法确定采样图像的划分,最后利用其结果,依据一种综合了K近邻以及随机选择思想的估计规则确定原图像的最终划分。大规模合成纹理图像及自然图像的分割实验验证了该方法的可行性及有效性。 展开更多
关键词 谱聚类 大规模图像 卡通—纹理分解 采样 估计
下载PDF
大规模数据下基于充分降维的Leverage重要性抽样方法 被引量:6
3
作者 秦磊 王奕丹 苏治 《统计研究》 CSSCI 北大核心 2020年第3期114-128,共15页
随着信息技术的飞速发展,大规模数据在短时间内搜集并储存下来,为分析决策提供了巨大的信息量,也给统计建模带来了一定难度。对于样本容量大、变量个数少的数据,Leverage重要性抽样是一个简便可行的方法。本文发现,该方法中度量样本重... 随着信息技术的飞速发展,大规模数据在短时间内搜集并储存下来,为分析决策提供了巨大的信息量,也给统计建模带来了一定难度。对于样本容量大、变量个数少的数据,Leverage重要性抽样是一个简便可行的方法。本文发现,该方法中度量样本重要性的Leverage分数与因变量无关,而且在维度较大的情形下对样本没有区分程度,使得估计结果较差。为了同时考虑因变量和维度的影响,本文提出了基于充分降维的Leverage重要性抽样方法。该方法以不损失信息为前提,在充分降维的空间内重新计算Leverage分数,使得抽样更具有代表性。模拟数据分析显示,在样本容量较大的复杂数据中,相比于原始的Leverage重要性抽样方法,本文提出的方法可以降低估计的均方误差。三个实际数据也证实了该方法的可行性和有效性。 展开更多
关键词 大规模数据 Leverage分数 重要性抽样 充分降维
下载PDF
内蒙古中东部地区^(137)Cs背景值的确定 被引量:6
4
作者 胡云锋 刘纪远 +1 位作者 巴图娜存 甄霖 《地理学报》 EI CSCD 北大核心 2014年第3期343-352,共10页
在137Cs环境示踪研究中,区域137Cs背景值(CRI)的获取存在许多困难和不确定性。在总结传统137Cs区域背景值获取方法基础上,本文提出了适用于大尺度区域和长距离路线考察的区域137Cs背景值获取技术路线,即在参考有关地理背景信息和长时间... 在137Cs环境示踪研究中,区域137Cs背景值(CRI)的获取存在许多困难和不确定性。在总结传统137Cs区域背景值获取方法基础上,本文提出了适用于大尺度区域和长距离路线考察的区域137Cs背景值获取技术路线,即在参考有关地理背景信息和长时间序列遥感信息、科学划分子区基础上,根据理论模型计算得到区域137Cs背景值潜在值域,并开展基于137Cs土壤剖面分布形态特征的蚀积过程分析,最终确定137Cs区域背景样地和区域背景值。以上述技术流程为指导,本文作者在内蒙古高平原中东部地区开展案例研究,结果表明:兴安盟东部、南部暗栗钙土研究区的CRI为2447 Bq·m-2,通辽市中部、南部和赤峰市东部风沙土研究区的CRI为2430 Bq·m-2,赤峰市西北部黑钙土研究区的CRI为2384 Bq·m-2,锡林郭勒盟南部栗钙土研究区的CRI为2368 Bq·m-2。 展开更多
关键词 大尺度区域 同位素示踪 137Cs背景值 采样方法 内蒙古
原文传递
基于分层聚类及重采样的大规模数据分类 被引量:5
5
作者 张永 浮盼盼 张玉婷 《计算机应用》 CSCD 北大核心 2013年第10期2801-2803,共3页
针对大规模数据的分类问题,将监督学习与无监督学习结合起来,提出了一种基于分层聚类和重采样技术的支持向量机(SVM)分类方法。该方法首先利用无监督学习算法中的k-means聚类分析技术将数据集划分成不同的子集,然后对各个子集进行逐类聚... 针对大规模数据的分类问题,将监督学习与无监督学习结合起来,提出了一种基于分层聚类和重采样技术的支持向量机(SVM)分类方法。该方法首先利用无监督学习算法中的k-means聚类分析技术将数据集划分成不同的子集,然后对各个子集进行逐类聚类,分别选出各类中心邻域内的样本点,构成最终的训练集,最后利用支持向量机对所选择的最具代表样本点进行训练建模。实验表明,所提方法可以大幅度降低支持向量机的学习代价,其分类精度比随机欠采样更优,而且可以达到采用完整数据集训练所得的结果。 展开更多
关键词 海量数据 分类 聚类 重采样 支持向量机
下载PDF
An Accelerated Stochastic Mirror Descent Method
6
作者 Bo-Ou Jiang Ya-Xiang Yuan 《Journal of the Operations Research Society of China》 EI CSCD 2024年第3期549-571,共23页
Driven by large-scale optimization problems arising from machine learning,the development of stochastic optimization methods has witnessed a huge growth.Numerous types of methods have been developed based on vanilla s... Driven by large-scale optimization problems arising from machine learning,the development of stochastic optimization methods has witnessed a huge growth.Numerous types of methods have been developed based on vanilla stochastic gradient descent method.However,for most algorithms,convergence rate in stochastic setting cannot simply match that in deterministic setting.Better understanding the gap between deterministic and stochastic optimization is the main goal of this paper.Specifically,we are interested in Nesterov acceleration of gradient-based approaches.In our study,we focus on acceleration of stochastic mirror descent method with implicit regularization property.Assuming that the problem objective is smooth and convex or strongly convex,our analysis prescribes the method parameters which ensure fast convergence of the estimation error and satisfied numerical performance. 展开更多
关键词 large-scale optimization Variance reduction Mirror descent ACCELERATION Independent sampling Importance sampling
原文传递
Evolutionary biogeography on Ophiocordyceps sinensis:An indicator of molecular phylogeny to geochronological and ecological exchanges 被引量:4
7
作者 Yongdong Dai Changkui Wu +10 位作者 Feng Yuan Yuanbing Wang Luodong Huang Zihong Chen Wenbo Zeng Yao Wang Zhuliang Yang Pusheng Zeng Paul Lemetti Xuanxue Mo Hong Yu 《Geoscience Frontiers》 SCIE CAS CSCD 2020年第3期807-820,共14页
The fungus Ophiocordyceps sinensis is endemic to the vast region of the Qinghai-Tibetan plateau(QTP).The unique and complex geographical environmental conditions have led to the "sky island" distribution str... The fungus Ophiocordyceps sinensis is endemic to the vast region of the Qinghai-Tibetan plateau(QTP).The unique and complex geographical environmental conditions have led to the "sky island" distribution structure of O.sinensis.Due to limited and unbalanced sample collections,the previous data on O.sinensis regarding its genetic diversity and spatial structure have been deemed insufficient.In this study,we analyzed the diversity and phylogeographic structures of O.sinensis using internally transcribed spacer region(ITS) and 5-locus datasets by a large-scale sampling.A total of 111 haplotypes of ITS sequences were identified from 948 samples data of the fungus O.sinensis,with representing high genetic diversity,and 8 phylogenetic clades were recognized in O.sinensis.Both the southeastern Tibet and the northwestern Yunnan were the centers of genetic diversity and genetic differentiation of the fungus,and they were inferred as the glacial refugia in the Quaternary.Three distribution patterns were identified to correspond to the 8 clades,including but not limited to the coexistence of widely and specific local distributive structures.It also revealed that the differentiation pattern of O.sinensis did not fit for the isolation-by-distance model.The differentiation into the 8 clades occurred between 1.56 Myr and6.62 Myr.The ancestor of O.sinensis most likely originated in the late Miocene(6.62 Myr) in the northwestern Yunnan,and the Scene A-C of the Qinghai-Tibetan movements may have played an important role in the differentiation of O.sinensis during the late Miocene-Pliocene periods.Our current results provide a much clearer and detailed understanding of the genetic diversity and geographical spatial distribution of the endemic alpine fungus O.sinensis.It also revealed that the geochronology resulting from paleogeology could be cross-examined with biomolecular clock at a finer scale. 展开更多
关键词 large-scale sampling Phylogeographic structure Molecular CLOCK Correlation Qinghai-Tibetan PLATEAU
下载PDF
大数据背景下两阶段Leverage重要性抽样方法研究
8
作者 贺建风 何韩吉 《统计研究》 CSSCI 北大核心 2024年第10期149-160,共12页
大数据背景下,需要对传统的抽样调查技术进行改进,以应对数据结构变化。以杠杆得分为入样概率的Leverage重要性抽样能够增加高杠杆值样本点被抽中的概率,但也增加了异常值选入抽样子集的风险,使得抽样估计偏离真实值。为降低大数据异常... 大数据背景下,需要对传统的抽样调查技术进行改进,以应对数据结构变化。以杠杆得分为入样概率的Leverage重要性抽样能够增加高杠杆值样本点被抽中的概率,但也增加了异常值选入抽样子集的风险,使得抽样估计偏离真实值。为降低大数据异常值影响,提高大数据抽样子集估计的稳健性,本文提出基于阈值自选择的两阶段Leverage重要性抽样方法。该方法第一阶段以样本距离的有序聚类识别稳健子集,使得用于二阶段抽样的样本更具代表性,第二阶段则是在稳健子集的基础上获得稳健抽样估计。模拟分析结果表明,本文所提方法能够提升线性回归系数估计的精度,在漂移型、波动型和混合型离群值中均适用。实证分析中本文所提方法在三个案例数据中拥有较小的预测值均方误差,有效降低了异常值的影响。 展开更多
关键词 大规模数据 线性模型 有序聚类 Leverage重要性抽样
下载PDF
Crowdsourced Sampling of a Composite Random Variable: Analysis, Simulation, and Experimental Test 被引量:2
9
作者 M. P. Silverman 《Open Journal of Statistics》 2019年第4期494-529,共36页
A composite random variable is a product (or sum of products) of statistically distributed quantities. Such a variable can represent the solution to a multi-factor quantitative problem submitted to a large, diverse, i... A composite random variable is a product (or sum of products) of statistically distributed quantities. Such a variable can represent the solution to a multi-factor quantitative problem submitted to a large, diverse, independent, anonymous group of non-expert respondents (the “crowd”). The objective of this research is to examine the statistical distribution of solutions from a large crowd to a quantitative problem involving image analysis and object counting. Theoretical analysis by the author, covering a range of conditions and types of factor variables, predicts that composite random variables are distributed log-normally to an excellent approximation. If the factors in a problem are themselves distributed log-normally, then their product is rigorously log-normal. A crowdsourcing experiment devised by the author and implemented with the assistance of a BBC (British Broadcasting Corporation) television show, yielded a sample of approximately 2000 responses consistent with a log-normal distribution. The sample mean was within ~12% of the true count. However, a Monte Carlo simulation (MCS) of the experiment, employing either normal or log-normal random variables as factors to model the processes by which a crowd of 1 million might arrive at their estimates, resulted in a visually perfect log-normal distribution with a mean response within ~5% of the true count. The results of this research suggest that a well-modeled MCS, by simulating a sample of responses from a large, rational, and incentivized crowd, can provide a more accurate solution to a quantitative problem than might be attainable by direct sampling of a smaller crowd or an uninformed crowd, irrespective of size, that guesses randomly. 展开更多
关键词 Crowdsourcing COMPUTER Modeling of CROWDS MONTE Carlo SIMULATION large-scale sampling Log-Normal RANDOM Variable Log-Normal Distribution
下载PDF
面向大型数据集的局部敏感哈希K−means算法 被引量:2
10
作者 魏峰 马龙 《工矿自动化》 CSCD 北大核心 2023年第3期53-62,共10页
大型数据集高效处理策略是煤矿安全监测智能化、采掘智能化等煤矿智能化建设的关键支撑。针对K−means算法面对大型数据集时聚类高效性及准确性不足的问题,提出了一种基于局部敏感哈希(LSH)的高效K−means聚类算法。基于LSH对抽样过程进... 大型数据集高效处理策略是煤矿安全监测智能化、采掘智能化等煤矿智能化建设的关键支撑。针对K−means算法面对大型数据集时聚类高效性及准确性不足的问题,提出了一种基于局部敏感哈希(LSH)的高效K−means聚类算法。基于LSH对抽样过程进行优化,提出了数据组构建算法LSH−G,将大型数据集合理划分为子数据组,并对数据集中的噪声点进行有效删除;基于LSH−G算法优化密度偏差抽样(DBS)算法中的子数据组划分过程,提出了数据组抽样算法LSH−GD,使样本集能更真实地反映原始数据集的分布规律;在此基础上,通过K−means算法对生成的样本集进行聚类,实现较低时间复杂度情况下从大型数据集中高效挖掘有效数据。实验结果表明:由10个AND操作与8个OR操作组成的级联组合为最优级联组合,得到的类中心误差平方和(SSEC)最小;在人工数据集上,与基于多层随机抽样(M−SRS)的K−means算法、基于DBS的K−means算法及基于网格密度偏差抽样(G−DBS)的K−means算法相比,基于LSH−GD的K−means算法在聚类准确性方面的平均提升幅度分别为56.63%、54.59%及25.34%,在聚类高效性方面的平均提升幅度分别为27.26%、16.81%及7.07%;在UCI标准数据集上,基于LSH−GD的K−means聚类算法获得的SSEC与CPU消耗时间(CPU−C)均为最优。 展开更多
关键词 智慧矿山 大型数据集 K−means聚类 局部敏感哈希 噪声点筛选 密度偏差抽样
下载PDF
矩阵取样设计中的似真值能力估计方法 被引量:3
11
作者 黄慧静 辛涛 李珍 《心理科学》 CSSCI CSCD 北大核心 2012年第5期1233-1239,共7页
矩阵取样是大规模教育评估中最有效的一种数据收集方式。本研究采用模拟数据考察在均衡的不完全分块(BIB)矩阵取样设计中,似真值(PV)与传统的MLE、WLE和EAP方法对学生能力总体参数估计的精确性和稳健性。结果表明,PV对总体平均数和标准... 矩阵取样是大规模教育评估中最有效的一种数据收集方式。本研究采用模拟数据考察在均衡的不完全分块(BIB)矩阵取样设计中,似真值(PV)与传统的MLE、WLE和EAP方法对学生能力总体参数估计的精确性和稳健性。结果表明,PV对总体平均数和标准差的估计最为精确和稳健;EAP倾向于低估,MLE和WLE倾向于高估,且精确性和稳健性远远不如PV。同时,总被试量对估计结果的影响很小,而每个题本中的项目数量对估计结果的影响较大。 展开更多
关键词 大规模教育评估矩阵取样似真值
下载PDF
基于采样的大规模图聚类分析算法 被引量:3
12
作者 张建朋 陈鸿昶 +2 位作者 王凯 祝凯捷 王亚文 《电子学报》 EI CAS CSCD 北大核心 2019年第8期1731-1737,共7页
针对当前聚类方法(例如经典的GN算法)计算复杂度过高、难以适用于大规模图的聚类问题,本文首先对大规模图的采样算法展开研究,提出了能够有效保持原始图聚类结构的图采样算法(Clustering-structure Representative Sampling,CRS),它能... 针对当前聚类方法(例如经典的GN算法)计算复杂度过高、难以适用于大规模图的聚类问题,本文首先对大规模图的采样算法展开研究,提出了能够有效保持原始图聚类结构的图采样算法(Clustering-structure Representative Sampling,CRS),它能在采样图中产生高质量的聚类代表点,并根据相应的扩张准则进行采样扩张.此采样算法能够很好地保持原始图的内在聚类结构.其次,提出快速的整体样本聚类推断(Population Clustering Inference,PCI)算法,它利用采样子图的聚类标签对整体图的聚类结构进行推断.实验结果表明本文算法对大规模图数据具有较高的聚类质量和处理效率,能够很好地完成大规模图的聚类任务. 展开更多
关键词 大规模图 图采样 图聚类 整体推断 聚类代表点 扩张准则
下载PDF
地理空间分层抽样对大尺度草地估产精度的改善--以低地草甸为例 被引量:3
13
作者 包海明 贠旭疆 +2 位作者 张德罡 李新一 刘晓东 《草地学报》 CAS CSCD 北大核心 2010年第3期327-332,共6页
为优化天然草地监测策略,提高样本点的地域空间代表性和分层估产模型的稳定性,改善全国天然草地地上生物量的估测精度,以低地草甸草原为研究对象,结合地面采样数据和MODIS-NDVI数据,根据统计学的分层抽样方法和全国草地资源区划原理为... 为优化天然草地监测策略,提高样本点的地域空间代表性和分层估产模型的稳定性,改善全国天然草地地上生物量的估测精度,以低地草甸草原为研究对象,结合地面采样数据和MODIS-NDVI数据,根据统计学的分层抽样方法和全国草地资源区划原理为理论依据,通过分层效率检验、总体平均值误差对比验证和模型分析等方法,以低地草甸为例进行分析。结果表明:各分层区域的分层效率都大于1;采用分层抽样方法相对于简单随机抽样方法地面采样样本的总体平均值精度提高9.672%,模型的估产精度提高13.827%。从而,验证了某一类型草地的区域分层抽样方法比简单随机抽样方法更可取。 展开更多
关键词 大尺度 分层抽样 精度 分层效率 优化决策
下载PDF
ZenLDA: Large-Scale Topic Model Training on Distributed Data-Parallel Platform 被引量:1
14
作者 Bo Zhao Hucheng Zhou +1 位作者 Guoqiang Li Yihua Huang 《Big Data Mining and Analytics》 2018年第1期57-74,共18页
Recently, topic models such as Latent Dirichlet Allocation(LDA) have been widely used in large-scale web mining. Many large-scale LDA training systems have been developed, which usually prefer a customized design from... Recently, topic models such as Latent Dirichlet Allocation(LDA) have been widely used in large-scale web mining. Many large-scale LDA training systems have been developed, which usually prefer a customized design from top to bottom with sophisticated synchronization support. We propose an LDA training system named ZenLDA, which follows a generalized design for the distributed data-parallel platform. The novelty of ZenLDA consists of three main aspects:(1) it converts the commonly used serial Collapsed Gibbs Sampling(CGS) inference algorithm to a Monte-Carlo Collapsed Bayesian(MCCB) estimation method, which is embarrassingly parallel;(2)it decomposes the LDA inference formula into parts that can be sampled more efficiently to reduce computation complexity;(3) it proposes a distributed LDA training framework, which represents the corpus as a directed graph with the parameters annotated as corresponding vertices and implements ZenLDA and other well-known inference methods based on Spark. Experimental results indicate that MCCB converges with accuracy similar to that of CGS, while running much faster. On top of MCCB, the ZenLDA formula decomposition achieved the fastest speed among other well-known inference methods. ZenLDA also showed good scalability when dealing with large-scale topic models on the data-parallel platform. Overall, ZenLDA could achieve comparable and even better computing performance with state-of-the-art dedicated systems. 展开更多
关键词 LATENT DIRICHLET ALLOCATION collapsed Gibbs sampling Monte-Carlo GRAPH COMPUTING large-scale machine learning
原文传递
一种基于可变网格划分的密度偏差抽样技术及其在聚类中的应用研究 被引量:2
15
作者 潘春燕 吴有富 李方 《凯里学院学报》 2017年第3期16-20,共5页
针对海量数据分析时需要消耗大量的计算时间和空间资源问题,引入并改进基于可变网格划分的密度偏差抽样技术,创新在于改进网格区间的合并.算法对原始数据集进行抽样,从而得到能较好反应原始数据集分布特征的样本数据集,实现对原始数据... 针对海量数据分析时需要消耗大量的计算时间和空间资源问题,引入并改进基于可变网格划分的密度偏差抽样技术,创新在于改进网格区间的合并.算法对原始数据集进行抽样,从而得到能较好反应原始数据集分布特征的样本数据集,实现对原始数据集的约简.将KM算法用于简约后的数据,以测试算法的效果.实验结果表明,该算法有效. 展开更多
关键词 海量数据 可变网格 密度偏差
下载PDF
CFSA-Net:Efficient Large-Scale Point Cloud Semantic Segmentation Based on Cross-Fusion Self-Attention 被引量:1
16
作者 Jun Shu Shuai Wang +1 位作者 Shiqi Yu Jie Zhang 《Computers, Materials & Continua》 SCIE EI 2023年第12期2677-2697,共21页
Traditional models for semantic segmentation in point clouds primarily focus on smaller scales.However,in real-world applications,point clouds often exhibit larger scales,leading to heavy computational and memory requ... Traditional models for semantic segmentation in point clouds primarily focus on smaller scales.However,in real-world applications,point clouds often exhibit larger scales,leading to heavy computational and memory requirements.The key to handling large-scale point clouds lies in leveraging random sampling,which offers higher computational efficiency and lower memory consumption compared to other sampling methods.Nevertheless,the use of random sampling can potentially result in the loss of crucial points during the encoding stage.To address these issues,this paper proposes cross-fusion self-attention network(CFSA-Net),a lightweight and efficient network architecture specifically designed for directly processing large-scale point clouds.At the core of this network is the incorporation of random sampling alongside a local feature extraction module based on cross-fusion self-attention(CFSA).This module effectively integrates long-range contextual dependencies between points by employing hierarchical position encoding(HPC).Furthermore,it enhances the interaction between each point’s coordinates and feature information through cross-fusion self-attention pooling,enabling the acquisition of more comprehensive geometric information.Finally,a residual optimization(RO)structure is introduced to extend the receptive field of individual points by stacking hierarchical position encoding and cross-fusion self-attention pooling,thereby reducing the impact of information loss caused by random sampling.Experimental results on the Stanford Large-Scale 3D Indoor Spaces(S3DIS),Semantic3D,and SemanticKITTI datasets demonstrate the superiority of this algorithm over advanced approaches such as RandLA-Net and KPConv.These findings underscore the excellent performance of CFSA-Net in large-scale 3D semantic segmentation. 展开更多
关键词 Semantic segmentation large-scale point cloud random sampling cross-fusion self-attention
下载PDF
基于大样本模拟的巨灾损失计算方法
17
作者 高曹珀 王自法 +1 位作者 周阳 WANG Jianming 《保险研究》 CSSCI 北大核心 2023年第3期105-116,共12页
巨灾损失计算的精度影响着保险费率厘定、灾后补偿和防灾减灾工作的效果。传统的巨灾损失量化主要依赖均值和方差来表示损失的精度和不确定性,在复杂的叠加计算中需要增加各类相关性的假定,计算流程繁琐且精度不高。本研究引入克罗内克... 巨灾损失计算的精度影响着保险费率厘定、灾后补偿和防灾减灾工作的效果。传统的巨灾损失量化主要依赖均值和方差来表示损失的精度和不确定性,在复杂的叠加计算中需要增加各类相关性的假定,计算流程繁琐且精度不高。本研究引入克罗内克积表示各类耦合,基于高斯耦合和大样本模拟方法将复杂的概率分布转化为大样本集,较好地解决了各类耦合问题并且将时间域、空间域和损失不确定性等多个分布转化为样本集,从而简化了巨灾损失风险的计算。本文提出的方法不仅适用于地震巨灾,类似思路同样可以应用于台风、洪水等巨灾的损失计算,并以此简明地计算出对应各个风险水平的损失指标。最后本文以阿克苏地区拜城县的震害损失为例,进行示范性应用研究,给出了该地区的保险纯费率分布,验证了模型的有效性,并在此基础上,计算出直接经济损失及保险再保险损失的超越概率曲线,为未来城市的巨灾风险定价提供量化依据。 展开更多
关键词 大样本模拟方法 巨灾损失 巨灾风险 地震危险性 保险损失
原文传递
大规模数据的L_(1)惩罚分位数回归方法研究--基于特征筛选和随机抽样方法 被引量:1
18
作者 蔡超 王康宁 《数理统计与管理》 CSSCI 北大核心 2022年第1期63-78,共16页
为解决大规模数据在进行回归分析时存在的计算内存不足和运行时间较长的问题,提出两个新的回归分析方法:先筛选后抽样的大规模数据L_(1)惩罚分位数回归方法(FSSLQR)和先抽样后筛选的大规模数据L_(1)惩罚分位数回归方法(SFSLQR),其数值... 为解决大规模数据在进行回归分析时存在的计算内存不足和运行时间较长的问题,提出两个新的回归分析方法:先筛选后抽样的大规模数据L_(1)惩罚分位数回归方法(FSSLQR)和先抽样后筛选的大规模数据L_(1)惩罚分位数回归方法(SFSLQR),其数值模拟和实际应用结果表明:FSSLQR和SFSLQR方法不仅能够显著降低计算内存和运行时间,而且其估计预测和变量选择的结果与全量L_(1)惩罚分位数回归基本一致。此外,与Xu等(2018)提出的大规模数据的L1惩罚分位数回归方法(SLQR)相比,FSSLQR和SFSLQR方法在估计预测、变量选择和运行时间等方面都更具优势。 展开更多
关键词 L_(1)惩罚分位数回归 大规模数据 特征筛选 随机抽样
原文传递
进行大尺度评估的途径:项目矩阵取样的有效性 被引量:1
19
作者 辛涛 谢敏 《中国考试》 2009年第7期3-7,共5页
在对教育质量进行大尺度评估中,所考察的测验内容的覆盖面广,题量大,所需测试时间长,为教育质量监测和测评工作的开展带来了实践上的困难。而项目矩阵取样技术是解决大尺度评估中这一困难的一个有效途径。本研究根据某次大规模小学... 在对教育质量进行大尺度评估中,所考察的测验内容的覆盖面广,题量大,所需测试时间长,为教育质量监测和测评工作的开展带来了实践上的困难。而项目矩阵取样技术是解决大尺度评估中这一困难的一个有效途径。本研究根据某次大规模小学数学测验的项目参数及考生能力模拟5000名考生在110道题上的作答情况及被试取样和矩阵取样的考生作答情况,并进行比较,结果表明矩阵取样技术能有效地解决大尺度评估中测验内容覆盖面广与考生个人测试时间长的问题。 展开更多
关键词 大尺度评估 矩阵取样 常模特征 有效估计
原文传递
大型电子系统紧缩试验方法研究 被引量:1
20
作者 张友兰 刘俊荣 赵晓林 《中国电子科学研究院学报》 2011年第6期617-621,共5页
通过对大型电子系统的抽样原理,紧缩试验方法,可靠性指标计算方法的研究,提出一种新型的基于大型电子系统小型化抽样试验的紧缩系统试验方法,采用最小二乘估计法中的多元回归分析法,得出紧缩系统与大型系统的性能、可靠性指标相关性。... 通过对大型电子系统的抽样原理,紧缩试验方法,可靠性指标计算方法的研究,提出一种新型的基于大型电子系统小型化抽样试验的紧缩系统试验方法,采用最小二乘估计法中的多元回归分析法,得出紧缩系统与大型系统的性能、可靠性指标相关性。经验证试验证明,该试验方法是解决大型电子系统的可靠性验证试验的有效方法。 展开更多
关键词 大型系统 紧缩试验 抽样方法 相关性
下载PDF
上一页 1 2 下一页 到第
使用帮助 返回顶部