期刊文献+
共找到44篇文章
< 1 2 3 >
每页显示 20 50 100
基于参数学习的GARCH动态无穷活动率Levy过程的欧式期权定价 被引量:11
1
作者 吴恒煜 朱福敏 +1 位作者 胡根华 温金明 《系统工程理论与实践》 EI CSSCI CSCD 北大核心 2014年第10期2465-2482,共18页
在股票价格中引入漂移率、波动率和随机跳跃三种状态,建立动态状态空间模型,并通过局部风险中性定价关系(RNVR)推导无套利定价模型.以非高斯条件ARMA-NGARCH为基准模型,构建S&P500指数的离散动态Levy过程,并基于序贯贝叶斯的参数学... 在股票价格中引入漂移率、波动率和随机跳跃三种状态,建立动态状态空间模型,并通过局部风险中性定价关系(RNVR)推导无套利定价模型.以非高斯条件ARMA-NGARCH为基准模型,构建S&P500指数的离散动态Levy过程,并基于序贯贝叶斯的参数学习方法,进行模型估计和期权定价研究.结果表明:动态Levy过程能够联合刻画时变漂移率、条件波动率和无穷活动率等特征,且贝叶斯方法的引入提高了期权隐含波动率的定价精度.同时,无穷活动率模型在期权定价方面具有显著优势.在五类滤波中,无损粒子滤波估计精度最高,速降调和稳态过程(RDTS)的期权定价误差最小,而非高斯模型在收益率预测方面没有表现出显著的差异. 展开更多
关键词 动态Levy过程 杠杆效应 粒子滤波 参数学习 期权定价
原文传递
学生学习选择权与学校课程供给 被引量:11
2
作者 周佩灵 胡杏培 王洪席 《教育科学》 CSSCI 北大核心 2018年第4期43-46,共4页
在新高考改革语境下,进一步尊重与彰显学生的学习选择权,已成为当下教育公共政策的重要价值取向。赋予学生学习选择权能够促进学生的个性化成长、提升学业成就、增强责任意识。学生学习选择权的真正实现离不开学校多样化、丰富性与适切... 在新高考改革语境下,进一步尊重与彰显学生的学习选择权,已成为当下教育公共政策的重要价值取向。赋予学生学习选择权能够促进学生的个性化成长、提升学业成就、增强责任意识。学生学习选择权的真正实现离不开学校多样化、丰富性与适切性的课程供给。为克服和扬弃传统学校课程体系或结构较为单一、机械与同质化的流弊和困境,高中学校需通过推进特色化的校本课程开发、实现多样化的学科课程再造、借助外脑打造"特供类"课程、构筑面向个体的"课程分层"体系等路径,来加大课程供给力度,提升课程供给效能。 展开更多
关键词 学生学习选择权 学校课程 适切性供给
下载PDF
基于深度学习算法的欧式股指期权定价研究——来自50ETF期权市场的证据 被引量:9
3
作者 谢合亮 游涛 《统计与信息论坛》 CSSCI 北大核心 2018年第6期99-106,共8页
深度学习(Deep Learning)在人工智能领域取得了巨大的成就,在学界和业界都激起了深度学习的热潮。根据金融数据的时序特征,将深度学习中循环神经网络(RNN)引入期权定价模型,构建了一种基于长短记忆神经网络(LSTM)的新的期权定价模型,并... 深度学习(Deep Learning)在人工智能领域取得了巨大的成就,在学界和业界都激起了深度学习的热潮。根据金融数据的时序特征,将深度学习中循环神经网络(RNN)引入期权定价模型,构建了一种基于长短记忆神经网络(LSTM)的新的期权定价模型,并利用50EFT看涨期权和看跌期权进行实证分析。研究结果表明:LSTM期权定价模型比经典的Black-Scholes蒙特卡洛方法具有更高的定价精确性。 展开更多
关键词 深度学习 循环神经网络 期权定价 蒙特卡罗方法
下载PDF
Hierarchical Reinforcement Learning Adversarial Algorithm Against Opponent with Fixed Offensive Strategy
4
作者 赵英策 张广浩 +1 位作者 邢正宇 李建勋 《Journal of Shanghai Jiaotong university(Science)》 EI 2024年第3期471-479,共9页
Based on option-critic algorithm,a new adversarial algorithm named deterministic policy network with option architecture is proposed to improve agent's performance against opponent with fixed offensive algorithm.A... Based on option-critic algorithm,a new adversarial algorithm named deterministic policy network with option architecture is proposed to improve agent's performance against opponent with fixed offensive algorithm.An option network is introduced in upper level design,which can generate activated signal from defensive and of-fensive strategies according to temporary situation.Then the lower level executive layer can figure out interactive action with guidance of activated signal,and the value of both activated signal and interactive action is evaluated by critic structure together.This method could release requirement of semi Markov decision process effectively and eventually simplified network structure by eliminating termination possibility layer.According to the result of experiment,it is proved that new algorithm switches strategy style between offensive and defensive ones neatly and acquires more reward from environment than classical deep deterministic policy gradient algorithm does. 展开更多
关键词 hierarchical reinforcement learning fixed offensive strategy option architecture deterministic gradi-entpolicy
原文传递
融合机器学习算法的期权定价 被引量:3
5
作者 周仁才 《系统管理学报》 CSSCI CSCD 北大核心 2022年第3期476-485,共10页
设计了融合参数模型和非参数机器学习模型进行训练的算法,利用非参数模型拟合参数模型,将其作为先验分布,然后采用贝叶斯学习方法进行优化,并在训练中实现分布的动态调整。该方法在训练过程中有助于避免模型参数过度波动,提升模型泛化... 设计了融合参数模型和非参数机器学习模型进行训练的算法,利用非参数模型拟合参数模型,将其作为先验分布,然后采用贝叶斯学习方法进行优化,并在训练中实现分布的动态调整。该方法在训练过程中有助于避免模型参数过度波动,提升模型泛化能力。针对期权定价,在BS、Heston等参数模型及神经网络等机器学习模型基础上,构建了相应的融合模型BS_BR和HS_BR,并利用市场数据进行了实证分析。研究表明,融合模型可以较好地发挥两类模型的优势,无论是在样本内拟合效率,还是样本外预测能力方面都具有更好的表现。 展开更多
关键词 机器学习 期权定价 参数模型 神经网络 贝叶斯学习
下载PDF
基于优化子目标数的Option-Critic算法 被引量:3
6
作者 刘成浩 朱斐 刘全 《计算机学报》 EI CAS CSCD 北大核心 2021年第9期1922-1933,共12页
时间抽象是分层强化学习中的重要研究方向,而子目标是时间抽象形成的核心元素.目前,大部分分层强化学习需要人工给出子目标或设定子目标数量.然而,在很多情况下,这不仅需要大量的人工干预,而且所作设定未必适合对应场景,在动态环境未知... 时间抽象是分层强化学习中的重要研究方向,而子目标是时间抽象形成的核心元素.目前,大部分分层强化学习需要人工给出子目标或设定子目标数量.然而,在很多情况下,这不仅需要大量的人工干预,而且所作设定未必适合对应场景,在动态环境未知的指导下,这一问题尤为突出.针对此,提出基于优化子目标数的Option-Critic算法(Option-Critic algorithm based on Sub-goal Quantity Optimization,OC-SQO),增加了智能体对环境的探索部分,通过与环境的简单交互,得到适用于应用场景的初始子目标数量估值,并在此基础上识别子目标,然后利用通过策略梯度生成对应的抽象,使用初态、内部策略和终止函数构成的三元组表示,以此进行训练,根据交互得到的抽象改变当前状态,不断迭代优化.OC-SQO算法可以在任意状态下开始执行,不要求预先指定子目标和参数,在执行过程中使用策略梯度生成内部策略、抽象间策略和终止函数,不需要提供内部奖赏信号,也无需获取子目标的情况,尽可能地减少了人工干预.实验验证了算法的有效性. 展开更多
关键词 分层深度强化学习 时间抽象 子目标 强化学习 option
下载PDF
政策不确定条件下外资银行入股中资银行策略研究——基于客户信息甄别的视角 被引量:4
7
作者 刘彬 曾勇 《中大管理研究》 2009年第4期123-142,共20页
本文基于外资银行入股能够通过技术转让提高中资银行甄别技术的视角,在政策不确定性下运用实物期权方法建立了外资银行入股中资商业银行的模型。然后在有"学习效应"的情况下,得出外资银行努力程度将随着入股比例的上升而上升... 本文基于外资银行入股能够通过技术转让提高中资银行甄别技术的视角,在政策不确定性下运用实物期权方法建立了外资银行入股中资商业银行的模型。然后在有"学习效应"的情况下,得出外资银行努力程度将随着入股比例的上升而上升,随着政策出台时间增加而上升的结论。最后通过对比外资银行当前"少数股权"未来收购和未来直接收购两种策略,得出在中国市场迅速发展的情况下,外资银行倾向于当前阶段接受中资银行"少数股权"并进行技术转让的策略,印证了现实情况的观察。 展开更多
关键词 外资银行 甄别技术 政策不确定性 学习效应 实物期权
下载PDF
Autonomic discovery of subgoals in hierarchical reinforcement learning 被引量:1
8
作者 XIAO Ding LI Yi-tong SHI Chuan 《The Journal of China Universities of Posts and Telecommunications》 EI CSCD 2014年第5期94-104,共11页
Option is a promising method to discover the hierarchical structure in reinforcement learning (RL) for learning acceleration. The key to option discovery is about how an agent can find useful subgoals autonomically ... Option is a promising method to discover the hierarchical structure in reinforcement learning (RL) for learning acceleration. The key to option discovery is about how an agent can find useful subgoals autonomically among the passing trails. By analyzing the agent's actions in the trails, useful heuristics can be found. Not only does the agent pass subgoals more frequently, but also its effective actions are restricted in subgoals. As a consequence, the subgoals can be deemed as the most matching action-restricted states in the paths. In the grid-world environment, the concept of the unique-direction value reflecting the action-restricted property was introduced to find the most matching action-restricted states. The unique-direction-value (UDV) approach is chosen to form options offline and online autonomically. Experiments show that the approach can find subgoals correctly. Thus the Q-learning with options found on both offline and online process can accelerate learning significantly. 展开更多
关键词 hierarchical reinforcement learning option Q-learning SUBGOAL UDV
原文传递
新技术商业化过程中的不确定性、学习与投资决策 被引量:3
9
作者 邢小强 仝允桓 《中国管理科学》 CSSCI 北大核心 2010年第5期137-144,共8页
本文从学习视角分析新技术商业化投资过程中面临的三种不同类型不确定性及其解决方式,阐述各类不确定性及分布影响新技术商业化投资决策背后的内在机制与路径。在此基础上运用实物期权方法构建新技术商业化投资评估与决策模型并导出最... 本文从学习视角分析新技术商业化投资过程中面临的三种不同类型不确定性及其解决方式,阐述各类不确定性及分布影响新技术商业化投资决策背后的内在机制与路径。在此基础上运用实物期权方法构建新技术商业化投资评估与决策模型并导出最优投资规则,进而利用数值模拟进行比较静态分析,详细讨论各种参数变化对新技术商业化投资价值与投资门槛的影响,阐述结果的经济与管理涵义。 展开更多
关键词 新技术商业化 不确定性 学习 实物期权
原文传递
连续空间中的随机技能发现算法 被引量:2
10
作者 栾咏红 刘全 章鹏 《现代电子技术》 北大核心 2016年第10期14-17,20,共5页
针对大规模、连续空间随着状态维度指数级增加造成的"维数灾"问题,提出基于Option分层强化学习基础框架的改进的随机技能发现算法。通过定义随机Option生成一棵随机技能树,构造一个随机技能树集合。将任务目标分成子目标,通... 针对大规模、连续空间随着状态维度指数级增加造成的"维数灾"问题,提出基于Option分层强化学习基础框架的改进的随机技能发现算法。通过定义随机Option生成一棵随机技能树,构造一个随机技能树集合。将任务目标分成子目标,通过学习低阶Option策略,减少因智能体增大而引起学习参数的指数增大。以二维有障碍栅格连续空间内两点间最短路径规划为任务,进行仿真实验和分析,实验结果表明:由于Option被随机定义,因此算法在初始性能上具有间歇的不稳定性,但是随着随机技能树集合的增加,能较快地收敛到近似最优解,能有效克服因为维数灾引起的难以求取最优策略或收敛速度过慢的问题。 展开更多
关键词 强化学习 option 连续空间 随机技能发现
下载PDF
A Comparative Study of Support Vector Machine and Artificial Neural Network for Option Price Prediction 被引量:1
11
作者 Biplab Madhu Md. Azizur Rahman +3 位作者 Arnab Mukherjee Md. Zahidul Islam Raju Roy Lasker Ershad Ali 《Journal of Computer and Communications》 2021年第5期78-91,共14页
Option pricing has become one of the quite important parts of the financial market. As the market is always dynamic, it is really difficult to predict the option price accurately. For this reason, various machine lear... Option pricing has become one of the quite important parts of the financial market. As the market is always dynamic, it is really difficult to predict the option price accurately. For this reason, various machine learning techniques have been designed and developed to deal with the problem of predicting the future trend of option price. In this paper, we compare the effectiveness of Support Vector Machine (SVM) and Artificial Neural Network (ANN) models for the prediction of option price. Both models are tested with a benchmark publicly available dataset namely SPY option price-2015 in both testing and training phases. The converted data through Principal Component Analysis (PCA) is used in both models to achieve better prediction accuracy. On the other hand, the entire dataset is partitioned into two groups of training (70%) and test sets (30%) to avoid overfitting problem. The outcomes of the SVM model are compared with those of the ANN model based on the root mean square errors (RMSE). It is demonstrated by the experimental results that the ANN model performs better than the SVM model, and the predicted option prices are in good agreement with the corresponding actual option prices. 展开更多
关键词 Machine learning Support Vector Machine Artificial Neural Network PREDICTION option Price
下载PDF
有记忆专利竞赛中的期权博弈 被引量:2
12
作者 蔡强 曾勇 夏晖 《管理工程学报》 CSSCI 北大核心 2011年第2期232-238,共7页
通过引入非齐次泊松过程并考虑企业R&D活动中的"学习效应"或"记忆性",研究了两企业的专利竞赛问题。分别就单个企业的投资时机选择和两家企业在非合作博弈条件下所形成的有记忆专利竞赛进行了分析,结论表明:R&a... 通过引入非齐次泊松过程并考虑企业R&D活动中的"学习效应"或"记忆性",研究了两企业的专利竞赛问题。分别就单个企业的投资时机选择和两家企业在非合作博弈条件下所形成的有记忆专利竞赛进行了分析,结论表明:R&D活动的"记忆性"使得单个企业的投资临界值降低,且无论是连续区域企业的等待期权价值还是停止区域执行期权后的项目价值均比无记忆时有所增加;而在有记忆专利竞赛中,由于领导者价值始终大于追随者价值,占先的动机加强,投资临界值降低,最终使博弈在较低专利价值处产生双方均不愿接受的同时投资均衡。 展开更多
关键词 学习效应 有记忆专利竞赛 期权博弈 占先
下载PDF
高职院校体育选项课对学生学习兴趣的调查研究——以现代学院体育课为例 被引量:2
13
作者 马宝壮 《体育科技文献通报》 2014年第2期64-64,71,共2页
目前,我校一年级体育必修课实行的是传统的教学模式(即教师固定带领固定班级授课方式)。经过调查证明,采用"二选",(即在可支配的时间内,自由选择项目,自由选择老师)的教学方法有利于培养学生的学习兴趣,有利于最大限度地调动... 目前,我校一年级体育必修课实行的是传统的教学模式(即教师固定带领固定班级授课方式)。经过调查证明,采用"二选",(即在可支配的时间内,自由选择项目,自由选择老师)的教学方法有利于培养学生的学习兴趣,有利于最大限度地调动学生参与体育锻炼的积极性和自主性,满足学生的兴趣和身心要求,有助于学生达成目标。 展开更多
关键词 体育课 学习兴趣 选项教学
下载PDF
Hierarchical Reinforcement Learning With Automatic Sub-Goal Identification 被引量:1
14
作者 Chenghao Liu Fei Zhu +1 位作者 Quan Liu Yuchen Fu 《IEEE/CAA Journal of Automatica Sinica》 SCIE EI CSCD 2021年第10期1686-1696,共11页
In reinforcement learning an agent may explore ineffectively when dealing with sparse reward tasks where finding a reward point is difficult.To solve the problem,we propose an algorithm called hierarchical deep reinfo... In reinforcement learning an agent may explore ineffectively when dealing with sparse reward tasks where finding a reward point is difficult.To solve the problem,we propose an algorithm called hierarchical deep reinforcement learning with automatic sub-goal identification via computer vision(HADS)which takes advantage of hierarchical reinforcement learning to alleviate the sparse reward problem and improve efficiency of exploration by utilizing a sub-goal mechanism.HADS uses a computer vision method to identify sub-goals automatically for hierarchical deep reinforcement learning.Due to the fact that not all sub-goal points are reachable,a mechanism is proposed to remove unreachable sub-goal points so as to further improve the performance of the algorithm.HADS involves contour recognition to identify sub-goals from the state image where some salient states in the state image may be recognized as sub-goals,while those that are not will be removed based on prior knowledge.Our experiments verified the effect of the algorithm. 展开更多
关键词 Hierarchical control hierarchical reinforcement learning option sparse reward sub-goal
下载PDF
一种基于决策树的选项识别方法 被引量:1
15
作者 雷俊杰 张伟池 +1 位作者 余荣 张浩川 《无线互联科技》 2018年第1期113-115,138,共4页
文章将机器学习中的决策树算法和图像处理技术相结合,提出了一种基于决策树的选项识别方法,该方法首先需要通过人工标注的方式从答题卡中抽取选项构造训练集和测试集,训练集和测试集都包括填涂的选项和未填涂的选项两类,接着将训练集中... 文章将机器学习中的决策树算法和图像处理技术相结合,提出了一种基于决策树的选项识别方法,该方法首先需要通过人工标注的方式从答题卡中抽取选项构造训练集和测试集,训练集和测试集都包括填涂的选项和未填涂的选项两类,接着将训练集中的答题卡选项切割成n个大小相同的小矩形,通过计算这些小矩形的占空比并通过设定阈值的方式将其离散化成{0,1}中的其中一个值,这些值将作为选项的填涂空间信息特征,然后将n个小矩形的离散后的值相加作为表征选项整体填涂信息特征,再将这n+1个特征构成特征向量的形式,去构造选项识别的决策树,最后,用测试集测试决策树的准确率和速度。经过仿真测试,在权衡识别准确率和识别效率之后,得出选项切割的最佳个数和最佳离散化阈值,在该参数的设置下,决策树的识别性能具有满意的结果。该方法实现方便、简单、易于理解,并具有很高的准确率和很快的识别速度。 展开更多
关键词 机器学习 决策树 选项识别 特征提取 答题卡
下载PDF
基于蚂蚁优化算法的分层强化学习
16
作者 周晓柯 孙志毅 彭志平 《计算机应用研究》 CSCD 北大核心 2014年第11期3214-3216,3220,共4页
自主系统中,agent通过与环境交互来执行分配给他们的任务,采用分层强化学习技术有助于agent在大型、复杂的环境中提高学习效率。提出一种新方法,利用蚂蚁系统优化算法来识别分层边界发现子目标状态,蚂蚁遍历过程中留下信息素,利用信息... 自主系统中,agent通过与环境交互来执行分配给他们的任务,采用分层强化学习技术有助于agent在大型、复杂的环境中提高学习效率。提出一种新方法,利用蚂蚁系统优化算法来识别分层边界发现子目标状态,蚂蚁遍历过程中留下信息素,利用信息素的变化率定义了粗糙度,用粗糙度界定子目标;agent使用发现的子目标创建抽象,能够更有效地探索。在出租车环境下验证算法的性能,实验结果表明该方法可以显著提高agent的学习效率。 展开更多
关键词 蚂蚁系统优化算法 强化学习 option 瓶颈边
下载PDF
论焦循《毛诗草木鸟兽虫鱼释》对宋学之态度与取舍
17
作者 黄睿 秦跃宇 《忻州师范学院学报》 2021年第1期62-68,共7页
焦循《毛诗草木鸟兽虫鱼释》以唐前文献为主要依据,对宋元明著述观照较少。此外,该书所引宋人书目欠缺代表性,且多与《诗经》无关。造成这种现象的根本原因,是焦循有意架空理学与主张废《序》的宋儒《诗》说。焦循之所以推崇《诗序》,... 焦循《毛诗草木鸟兽虫鱼释》以唐前文献为主要依据,对宋元明著述观照较少。此外,该书所引宋人书目欠缺代表性,且多与《诗经》无关。造成这种现象的根本原因,是焦循有意架空理学与主张废《序》的宋儒《诗》说。焦循之所以推崇《诗序》,一方面是因为《诗序》乃阐明孔子之意与"风人之旨"的门径,另一方面则是因为《诗序》具有感人通情而施于礼乐教化的作用。尽管该书并未体现出明显的汉宋门户之见,但在很大程度上背离了焦循融汇众说、兼容包并的学术主张。焦循反对据守汉学之努力,也在此书架空宋代《诗》学文献的举动中有所消解。 展开更多
关键词 焦循 毛诗草木鸟兽虫鱼释 宋学 取舍
下载PDF
一种面向海量咨询语句的文法自动学习方法
18
作者 方文英 童林 朱俊武 《江苏科技大学学报(自然科学版)》 CAS 北大核心 2016年第1期65-73,共9页
问题咨询语句的自然语言理解是提高Q&A系统可用性的关键技术之一.由于人工的文法获取方式无法满足大规模文法库创建的实际需要,文中提出并实现了一种带间距限制的2-频繁序列覆盖的文法自动学习方法.首先,获取所有的带间距限制的2-... 问题咨询语句的自然语言理解是提高Q&A系统可用性的关键技术之一.由于人工的文法获取方式无法满足大规模文法库创建的实际需要,文中提出并实现了一种带间距限制的2-频繁序列覆盖的文法自动学习方法.首先,获取所有的带间距限制的2-频繁序列,根据其覆盖的广度和连续性评价词模的质量;考虑到文法的扩展性及精确性,通过文法组成结构的对比,设定文法的可选项,并根据已有的标准文法去除文法中的歧义项.与现有的方法相比,文中提出的方法不依赖文法的语法组成或结构,澄清了文法要素之间的语义关联.在海量电信咨询语料库上的实验表明,文法获取的有效率为95.2%.文中将数据挖掘与模式获取融合并应用在一起,得出了带有频繁序列具有良好的语义性的结论. 展开更多
关键词 文法学习 2-频繁序列 可选项 歧义项
下载PDF
研究性学习策略引入普通高校篮球选项课的实验研究 被引量:11
19
作者 贡建伟 曹曦东 《体育与科学》 CSSCI 北大核心 2007年第4期82-85,共4页
研究性学习是集中体现现代教学理念的一种新的学习方式,它以培养学生的创新精神和实践能力为目的,具有开放性、主体性、综合性和实践性的特点,在强调学生自主探究学习的今天,它必将成为课程与教学运行的重要理念与策略,具有重要的教学... 研究性学习是集中体现现代教学理念的一种新的学习方式,它以培养学生的创新精神和实践能力为目的,具有开放性、主体性、综合性和实践性的特点,在强调学生自主探究学习的今天,它必将成为课程与教学运行的重要理念与策略,具有重要的教学与发展价值。本文以篮球选项课为实验,证实了研究性学习策略比传统教学法,更有利于提高学生理论知识水平、技术技能和观察、分析、解决问题能力,并且可以发展学生的创造性思维,充分体现学生的主体地位和教师的主导作用。因此,研究性学习策略不但适应高校篮球选项课教学,而且也为其他运动项目的教学改革提供了参考。 展开更多
关键词 研究性学习 高校 篮球选项课 实验
下载PDF
面向Option的k-聚类Subgoal发现算法 被引量:8
20
作者 王本年 高阳 +2 位作者 陈兆乾 谢俊元 陈世福 《计算机研究与发展》 EI CSCD 北大核心 2006年第5期851-855,共5页
在学习过程中自动发现有用的Subgoal并创建Option,对提高强化学习的学习性能有着重要意义.提出了一种基于k-聚类的Subgoal自动发现算法,该算法能通过对在线获取的少量路径数据进行聚类的方法抽取出Subgoal.实验表明,该算法能有效地发现... 在学习过程中自动发现有用的Subgoal并创建Option,对提高强化学习的学习性能有着重要意义.提出了一种基于k-聚类的Subgoal自动发现算法,该算法能通过对在线获取的少量路径数据进行聚类的方法抽取出Subgoal.实验表明,该算法能有效地发现所有符合要求的Subgoal,与Q-学习和基于多样性密度的强化学习算法相比,用该算法发现Subgoal并创建Option的强化学习算法能有效提高A-gent的学习速度. 展开更多
关键词 分层强化学习 option 子目标
下载PDF
上一页 1 2 3 下一页 到第
使用帮助 返回顶部