期刊文献+
共找到15篇文章
< 1 >
每页显示 20 50 100
以ChatGPT为代表的大语言模型打开了经济学和其他社会科学研究范式的巨大新空间 被引量:5
1
作者 程兵 《计量经济学报》 CSCD 2023年第3期589-614,共26页
自从OpenAI在2022年11月推出其生成式人工智能(AIGC,artificial intelligence generative content,也有人使用generative AI)产品——ChatGPT后,整个世界都为之颠覆.生成式人工智能主要有两个主流:大型语言模型(LLM,large language mod... 自从OpenAI在2022年11月推出其生成式人工智能(AIGC,artificial intelligence generative content,也有人使用generative AI)产品——ChatGPT后,整个世界都为之颠覆.生成式人工智能主要有两个主流:大型语言模型(LLM,large language model)和扩散模型(diffusion model),新的应用和研究每天都在加速发表.在本文中,我们首先对大型语言模型表现出来的智能水平提出了一个严肃的问题:它是否真的拥有像普通人的智能能力一样的通用人工智能(AGI,artificial general intelligence)能力?在本文中,我首先提出了一个重要的假说:作为一个封闭的系统,通过一个大型的语言模型被设计成表示和存储人类的巨大知识和智能的能力和行为,并配备了最高的价值标准,即模型必须符合人类的价值,但大型语言模型内部结构和性质并没有显示其拥有通用人工智能能力.然而,作为一个开放的系统,一旦我们输入一些隐含人类知识和智能的格式化文本,我们就会突然发现,大型语言模型的输出显示出某些人类智能和行为的特征.其中格式化的输入文本被称为提示(prompt),提示的智能程度越高,模型的智能输出就越好.换句话说,大型语言模型拥有某种以prompt提示为条件的通用人工智能AGI能力.经济学研究和其他社会科学研究如政治、历史、语言学等包括了最复杂的社会形态和人类最深刻的思想,因此本文试图通过总结其他研究者最新的研究成果来探讨大语言模型的通用人工智能是事实还是错觉?以及大语言模型其他经济功能和效用,对于这个模型的类通用人工智能的能力,我们总结这些研究学者的最新研究成果,包括大语言模型的智商水平,生成式人工智能的产业经济学,生成式人工智能下的计算社会科学研究,大语言模型的商业决策制定,经济学和其他社会科学,以及虛拟生成式人工智能经济学家的范式研究等问题. 展开更多
关键词 通用人工智能 生成式人工智能 大语言模型 计量经济
原文传递
Smaller & Smarter: Score-Driven Network Chaining of Smaller Language Models
2
作者 Gunika Dhingra Siddansh Chawla +1 位作者 Vijay K. Madisetti Arshdeep Bahga 《Journal of Software Engineering and Applications》 2024年第1期23-42,共20页
With the continuous evolution and expanding applications of Large Language Models (LLMs), there has been a noticeable surge in the size of the emerging models. It is not solely the growth in model size, primarily meas... With the continuous evolution and expanding applications of Large Language Models (LLMs), there has been a noticeable surge in the size of the emerging models. It is not solely the growth in model size, primarily measured by the number of parameters, but also the subsequent escalation in computational demands, hardware and software prerequisites for training, all culminating in a substantial financial investment as well. In this paper, we present novel techniques like supervision, parallelization, and scoring functions to get better results out of chains of smaller language models, rather than relying solely on scaling up model size. Firstly, we propose an approach to quantify the performance of a Smaller Language Models (SLM) by introducing a corresponding supervisor model that incrementally corrects the encountered errors. Secondly, we propose an approach to utilize two smaller language models (in a network) performing the same task and retrieving the best relevant output from the two, ensuring peak performance for a specific task. Experimental evaluations establish the quantitative accuracy improvements on financial reasoning and arithmetic calculation tasks from utilizing techniques like supervisor models (in a network of model scenario), threshold scoring and parallel processing over a baseline study. 展开更多
关键词 large language models (llms) Smaller language models (SLMs) FINANCE NETWORKING Supervisor model Scoring Function
下载PDF
大语言模型研究现状与趋势 被引量:1
3
作者 王耀祖 李擎 +1 位作者 戴张杰 徐越 《工程科学学报》 EI CSCD 北大核心 2024年第8期1411-1425,共15页
在过去20年中,语言建模(Language models,LM)已经成为一种主要方法,用于语言理解和生成,同时作为自然语言处理(Natural language processing,NLP)领域下游的关键技术受到广泛关注.近年来,大语言模型(Large language models,LLMs),例如Ch... 在过去20年中,语言建模(Language models,LM)已经成为一种主要方法,用于语言理解和生成,同时作为自然语言处理(Natural language processing,NLP)领域下游的关键技术受到广泛关注.近年来,大语言模型(Large language models,LLMs),例如ChatGPT等技术,取得了显著进展,对人工智能乃至其他领域的变革和发展产生了深远的影响.鉴于LLMs迅猛的发展,本文首先对LLMs相关技术架构和模型规模等方面的演进历程进行了全面综述,总结了模型训练方法、优化技术以及评估手段.随后,分析了LLMs在教育、医疗、金融、工业等领域的应用现状,同时讨论了它们的优势和局限性.此外,还探讨了大语言模型针对社会伦理、隐私和安全等方面引发的安全性与一致性问题及技术措施.最后,展望了大语言模型未来的研究趋势,包括模型的规模与效能、多模态处理、社会影响等方面的发展方向.本文通过全面分析当前研究状况和未来走向,旨在为研究者提供关于大语言模型的深刻见解和启发,以推动该领域的进一步发展. 展开更多
关键词 大语言模型(llms) 自然语言处理 深度学习 人工智能 ChatGPT
下载PDF
Security Vulnerability Analyses of Large Language Models (LLMs) through Extension of the Common Vulnerability Scoring System (CVSS) Framework
4
作者 Alicia Biju Vishnupriya Ramesh Vijay K. Madisetti 《Journal of Software Engineering and Applications》 2024年第5期340-358,共19页
Large Language Models (LLMs) have revolutionized Generative Artificial Intelligence (GenAI) tasks, becoming an integral part of various applications in society, including text generation, translation, summarization, a... Large Language Models (LLMs) have revolutionized Generative Artificial Intelligence (GenAI) tasks, becoming an integral part of various applications in society, including text generation, translation, summarization, and more. However, their widespread usage emphasizes the critical need to enhance their security posture to ensure the integrity and reliability of their outputs and minimize harmful effects. Prompt injections and training data poisoning attacks are two of the most prominent vulnerabilities in LLMs, which could potentially lead to unpredictable and undesirable behaviors, such as biased outputs, misinformation propagation, and even malicious content generation. The Common Vulnerability Scoring System (CVSS) framework provides a standardized approach to capturing the principal characteristics of vulnerabilities, facilitating a deeper understanding of their severity within the security and AI communities. By extending the current CVSS framework, we generate scores for these vulnerabilities such that organizations can prioritize mitigation efforts, allocate resources effectively, and implement targeted security measures to defend against potential risks. 展开更多
关键词 Common Vulnerability Scoring System (CVSS) large language models (llms) DALL-E Prompt Injections Training Data Poisoning CVSS Metrics
下载PDF
GUARDIAN: A Multi-Tiered Defense Architecture for Thwarting Prompt Injection Attacks on LLMs
5
作者 Parijat Rai Saumil Sood +1 位作者 Vijay K. Madisetti Arshdeep Bahga 《Journal of Software Engineering and Applications》 2024年第1期43-68,共26页
This paper introduces a novel multi-tiered defense architecture to protect language models from adversarial prompt attacks. We construct adversarial prompts using strategies like role emulation and manipulative assist... This paper introduces a novel multi-tiered defense architecture to protect language models from adversarial prompt attacks. We construct adversarial prompts using strategies like role emulation and manipulative assistance to simulate real threats. We introduce a comprehensive, multi-tiered defense framework named GUARDIAN (Guardrails for Upholding Ethics in Language Models) comprising a system prompt filter, pre-processing filter leveraging a toxic classifier and ethical prompt generator, and pre-display filter using the model itself for output screening. Extensive testing on Meta’s Llama-2 model demonstrates the capability to block 100% of attack prompts. The approach also auto-suggests safer prompt alternatives, thereby bolstering language model security. Quantitatively evaluated defense layers and an ethical substitution mechanism represent key innovations to counter sophisticated attacks. The integrated methodology not only fortifies smaller LLMs against emerging cyber threats but also guides the broader application of LLMs in a secure and ethical manner. 展开更多
关键词 large language models (llms) Adversarial Attack Prompt Injection Filter Defense Artificial Intelligence Machine Learning CYBERSECURITY
下载PDF
基于大语言模型的复杂任务自主规划处理框架 被引量:1
6
作者 秦龙 武万森 +4 位作者 刘丹 胡越 尹全军 阳东升 王飞跃 《自动化学报》 EI CAS CSCD 北大核心 2024年第4期862-872,共11页
随着深度学习和自然语言处理技术的进步,大语言模型(Large language models, LLMs)展现出巨大潜力.尽管如此,它们在处理复杂任务时仍存在局限性,特别是在任务需要结合规划及外部工具调用的场合.面向这一挑战,提出国内首个以军事游戏为... 随着深度学习和自然语言处理技术的进步,大语言模型(Large language models, LLMs)展现出巨大潜力.尽管如此,它们在处理复杂任务时仍存在局限性,特别是在任务需要结合规划及外部工具调用的场合.面向这一挑战,提出国内首个以军事游戏为背景的中文的复杂任务规划与执行数据集(Complex task planning and execution dataset, CTPaE),以及一个基于LLMs的自主复杂任务规划(Complex task planning, CTP)处理框架AutoPlan.该框架可以对复杂任务进行自主规划得到元任务序列,并使用递进式ReAct提示(Progressive ReAct prompting, PRP)方法对已规划的元任务逐步执行.该框架的有效性通过在CTPaE上的实验及与其他经典算法的比较分析得到了验证.项目地址:https://github.com/LDLINGLINGLING/AutoPlan. 展开更多
关键词 大语言模型 工具调用 多步推理 深度学习
下载PDF
网络威胁技战术情报自动化识别提取研究综述
7
作者 于丰瑞 《计算机工程与应用》 CSCD 北大核心 2024年第13期1-22,共22页
当今网络威胁不断涌现,网络威胁技战术情报能够多维度挖掘网络恶意活动,细粒度展示网络安全态势,全方位刻画网络攻击行为。目前对于网络威胁技战术情报自动化识别提取任务的研究成果较多,但缺乏系统化梳理。基于传统自然语言处理、机器... 当今网络威胁不断涌现,网络威胁技战术情报能够多维度挖掘网络恶意活动,细粒度展示网络安全态势,全方位刻画网络攻击行为。目前对于网络威胁技战术情报自动化识别提取任务的研究成果较多,但缺乏系统化梳理。基于传统自然语言处理、机器学习和大语言模型三种研究思路,深入分析了相关研究进展,对应信息抽取、文本分类、文本生成三类任务,概括了一般识别提取流程框架,明确了非结构化文本、网络威胁技战术情报范围,细化了每种技术方法的处理分析实践流程及创新方向,并基于现有研究工作,提出了当前研究存在的问题及未来的研究和发展方向,为读者运用新技术新方法促进领域研究水平提升提供了文献综述支持。 展开更多
关键词 网络威胁情报 网络威胁技战术情报(TTPs) 深度学习 大语言模型 自然语言处理
下载PDF
大语言模型的中文文本简化能力研究
8
作者 杨尔弘 朱君辉 +2 位作者 朱浩楠 宗绪泉 杨麟儿 《语言战略研究》 北大核心 2024年第5期34-47,共14页
大语言模型为自动文本简化提供了新思路。为了探究大语言模型的中文文本简化能力,本研究构建了中文篇章级文本简化数据集,对其中的平行文本对进行了特征分析;在此基础上,设计大语言模型自动文本简化实验,采用零样本、少样本、少样本+词... 大语言模型为自动文本简化提供了新思路。为了探究大语言模型的中文文本简化能力,本研究构建了中文篇章级文本简化数据集,对其中的平行文本对进行了特征分析;在此基础上,设计大语言模型自动文本简化实验,采用零样本、少样本、少样本+词表和少样本+规则这4种提示策略,综合已有的和本研究特有的语言特征评估指标,测评了6种国内外常用大语言模型在不同提示策略下的中文文本简化能力。研究发现,少样本提示策略在文本特征上表现最佳,显著提高了信息保存度;在提示中加入外部词表,有助于大语言模型使用相对简单的词语;在提示中融入简化规则,能使大语言模型使用更简洁的句法结构。不同的大语言模型在难度控制和语义保留程度上各有优势与局限,但在语篇衔接与连贯和段落划分上与人类专家存在明显差距,且均出现了不同程度的幻觉现象。未来仍需构建较大规模的高质量中文简化数据集,多角度诱导语言大模型的文本简化能力。 展开更多
关键词 中文文本简化 大语言模型 语言特征分析
下载PDF
人工智能阅读工具在引文真实性审查中的应用与分析——以ChatPDF为例
9
作者 文采 《编辑学报》 北大核心 2024年第2期198-202,共5页
为提升科技论文的引文质量和引文编校的工作效率,提出采用人工智能阅读工具ChatPDF检测引文内容真实性的方法。针对不同引用对象和不同语种参考文献的引文,测试了ChatPDF在引文真实性检测中的实用效果,探讨了该工具在引文编校工作中的... 为提升科技论文的引文质量和引文编校的工作效率,提出采用人工智能阅读工具ChatPDF检测引文内容真实性的方法。针对不同引用对象和不同语种参考文献的引文,测试了ChatPDF在引文真实性检测中的实用效果,探讨了该工具在引文编校工作中的应用优势和局限性,指出合理使用ChatPDF在提高科技期刊引文内容审查工作的高效性和可靠性方面的应用价值,并强调编辑在运用人工智能技术时应持审慎反思的工作态度。 展开更多
关键词 引文审查 人工智能 大型语言模型 ChatPDF
原文传递
基于大模型的联动处置多智能代理协同框架
10
作者 吴晓宁 李瑞欣 +5 位作者 王浪 刘文杰 王宏伟 朱新立 宋江帆 袁梦 《数据采集与处理》 CSCD 北大核心 2024年第3期559-576,共18页
针对指挥员应对重大突发情况时的处置决策难题,提出一种基于大模型的联动处置多智能代理协同框架。该框架通过智能代理角色生成、多层级蒙特卡洛树与交互式提示学习等策略,优化群体决策效率与动作规划,同时引入分层机制与工作流管理理念... 针对指挥员应对重大突发情况时的处置决策难题,提出一种基于大模型的联动处置多智能代理协同框架。该框架通过智能代理角色生成、多层级蒙特卡洛树与交互式提示学习等策略,优化群体决策效率与动作规划,同时引入分层机制与工作流管理理念,通过强化学习奖励函数共享提升协同效率,设计显式与隐式通信模式确保节点状态一致。实验表明,该框架在多种场景下表现优异,与传统任务分配手段相比,大大提高了面对突发事件时的反应速度和处置效率。 展开更多
关键词 大模型 联动处置 多智能代理 处置规划
下载PDF
基于联邦分割学习与低秩适应的RoBERTa预训练模型微调方法
11
作者 谢思静 文鼎柱 《数据采集与处理》 CSCD 北大核心 2024年第3期577-587,共11页
微调后的大语言模型(Large language models,LLMs)在多任务中表现出色,但集中式训练存在用户隐私泄漏的风险。联邦学习(Federated learning,FL)通过本地训练避免了数据共享,但LLMs庞大的参数量对资源受限的设备和通信带宽构成挑战,导致... 微调后的大语言模型(Large language models,LLMs)在多任务中表现出色,但集中式训练存在用户隐私泄漏的风险。联邦学习(Federated learning,FL)通过本地训练避免了数据共享,但LLMs庞大的参数量对资源受限的设备和通信带宽构成挑战,导致在边缘网络中部署困难。结合分割学习(Split learning,SL),联邦分割学习可以有效解决这一问题。基于模型深层权重的影响更为显著,以及对部分层的训练准确率略低于整体模型训练的发现,本文按照Transformer层对模型进行分割,同时引入低秩适应(Low⁃rank adaption,LoRA)进一步降低资源开销和提升安全性。因此,在设备端,仅对最后几层进行低秩适应和训练,然后上传至服务器进行聚合。为了降低开销并保证模型性能,本文提出了基于联邦分割学习与LoRA的RoBERTa预训练模型微调方法。通过联合优化边缘设备的计算频率和模型微调的秩,在资源受限的情况下最大化秩,提高模型的准确率。仿真结果显示,仅训练LLMs最后3层的情况下,在一定范围内(1~32)增加秩的取值可以提高模型的准确率。同时,增大模型每轮的容忍时延和设备的能量阈值可以进一步提升模型的准确率。 展开更多
关键词 大语言模型 低秩适应 联邦学习 分割学习 联合优化
下载PDF
大语言模型在过程性评价中的应用:基于英语写作的评分及反馈
12
作者 黄晓婷 郭丽婷 《教育学术月刊》 北大核心 2024年第7期74-80,共7页
大语言模型在教育领域中的应用备受瞩目,为改善传统的教育评价方式提供了新的技术契机。本研究以英语写作评分与反馈为例,初步探讨了大语言模型在过程性评价中的应用,旨在评估少样本学习条件下这些模型被学校教师采用的可能性。为明确... 大语言模型在教育领域中的应用备受瞩目,为改善传统的教育评价方式提供了新的技术契机。本研究以英语写作评分与反馈为例,初步探讨了大语言模型在过程性评价中的应用,旨在评估少样本学习条件下这些模型被学校教师采用的可能性。为明确何种提示语(prompts)方案能够有效提升大语言模型在处理英语写作评分与反馈任务中的可行性与可靠性,本研究采用了梯度的提示语设计方法。结果显示,“作文题目+评分标准+人工评分样本”的提示语类型与人工评分的一致性最高。基于此,GPT-3.5和GPT-4分别对166份测试集写作样本进行评分与反馈,并通过皮尔逊相关系数、相邻一致性、精确一致性、二次加权卡帕系数等多个指标进行了验证。研究发现,GPT-4在评分的准确性和一致性方面表现均优于GPT-3.5,但鉴于其低成本优势,GPT-3.5也具有一定的可行性。此外,大语言模型可以提供详细的写作反馈,反馈质量得到专家组的一致认可。因此,本研究认为,教师在日常教学和评价中积极探索和应用大语言模型,尤其是教育资源薄弱的学校教师,可以借助这一工具,提升教育质量,以缩小与优质学校的差距。 展开更多
关键词 大语言模型 提示语工程 过程性评价 英语写作评分 英语写作反馈
原文传递
国内大语言模型在学科知识图谱自动标注上的应用--以道德与法治和数学学科为例
13
作者 寇思佳 闫凤云 马晶 《华东师范大学学报(自然科学版)》 CAS CSCD 北大核心 2024年第5期81-92,共12页
随着人工智能技术的迅猛发展,大语言模型(large language models,LLMs)在自然语言处理和各种知识应用中展现了强大的能力.研究了国内大语言模型在中小学学科知识图谱自动标注中的应用,重点以义务教育阶段道德与法治学科和高中数学学科... 随着人工智能技术的迅猛发展,大语言模型(large language models,LLMs)在自然语言处理和各种知识应用中展现了强大的能力.研究了国内大语言模型在中小学学科知识图谱自动标注中的应用,重点以义务教育阶段道德与法治学科和高中数学学科为例进行分析和探讨.在教育领域,知识图谱的构建对于整理和系统化学科知识具有重要意义,然而传统的知识图谱构建方法在数据标注方面存在效率低、耗费大量人工成本等问题.研究旨在通过大语言模型来解决这些问题,从而提升知识图谱构建的自动化和智能化水平.基于国内大语言模型的现状,探讨了其在学科知识图谱自动标注中的应用,以道德与法治和数学学科为例,阐述了相关方法和实验结果.首先,探讨了研究背景和意义.接着,综述了国内大语言模型的发展现状和学科知识图谱的自动标注技术.在方法与模型部分,尝试探索一种基于国内大语言模型的自动标注方法,力图完善其在学科知识图谱上的应用.还探讨了学科知识图谱人工标注方法模型,以此作为对比,评估自动标注方法的实际效果.在实验与分析部分,通过在道德与法治和数学学科的自动标注实验和对其结果的分析,发现两个学科的知识图谱自动标注均取得了较高的准确率和效率,与人工标注结果进行了深入比较分析,得出了一系列有价值的结论,验证了所提出方法的有效性和准确性.最后,对未来的研究方向进行了展望.总体而言,研究为学科知识图谱的自动标注提供了一种新的思路和方法,有望推动相关领域的进一步发展. 展开更多
关键词 大语言模型 知识图谱 自动标注 道德与法治 数学
下载PDF
基于大语言模型的致密砂岩储层测井含水饱和度预测
14
作者 武娟 罗仁泽 +2 位作者 雷璨如 殷疆 陈星廷 《天然气工业》 EI CAS CSCD 北大核心 2024年第9期77-87,共11页
致密砂岩储层测井含水饱和度预测是油气藏储层评价和产量预测的关键步骤,应用机器学习模型预测含水饱和度在一定程度上缓解了常规方法预测误差大的问题。但是现有的机器学习方法通常使用有限的测井数据从头开始训练模型,导致模型能力受... 致密砂岩储层测井含水饱和度预测是油气藏储层评价和产量预测的关键步骤,应用机器学习模型预测含水饱和度在一定程度上缓解了常规方法预测误差大的问题。但是现有的机器学习方法通常使用有限的测井数据从头开始训练模型,导致模型能力受限,进而阻碍了它的泛化能力。为此,基于大语言模型(LLMs)出色的泛化性能及丰富的知识信息,引入LLMs进行储层测井含水饱和度预测,提出了一种基于真实关系及表格Transformer网络(REaLTabFormer)增强的LLMs对齐框架模型(RTF-LLA),最后进行了实验对比验证。研究结果表明:(1) RTF-LLA模型由数据增强、知识蒸馏和跨模态对齐3个核心模块构成;(2)数据增强模块以原始测井数据为基础,利用REaLTabFormer捕获测井参数与储层物性参数间的内在关系,生成了高信息量的测井数据;(3)知识蒸馏模块从LLMs提取主要的知识信息,指导测井数据与LLMs文本知识进行跨模态对齐,并赋予模型准确预测储层测井含水饱和度的能力;(4)跨模态对齐模块通过词元对齐、特征对齐和序列对齐,有效地降低了模型对储层含水饱和度的预测误差。结论认为:(1)RTF-LLA模型在S气田储层饱和度实验评价中的平均绝对误差和均方根误差分别为1.332和2.207,相较于其他主流机器学习算法至少降低了3.310和3.174;(2)RTF-LLA模型可为小样本测井资料储层含水饱和度准确预测提供有效技术支撑,为储层测井含水饱和度预测提供了新思路、新方法。 展开更多
关键词 大语言模型 跨模态对齐 致密砂岩储层 测井含水饱和度预测 泛化能力
下载PDF
大语言模型对信息检索系统与用户检索行为影响研究
15
作者 郭鹏睿 文庭孝 《农业图书情报学报》 2023年第11期13-22,共10页
[目的/意义]探究大语言模型(Large Language Models,LLMs)等人工智能生成技术对用户信息检索行为产成的影响,为信息检索系统和信息资源建设建言献策。[方法/过程]以ChatGPT等LLMs的蓬勃发展为背景,结合大语言模型的技术特点与现有产品... [目的/意义]探究大语言模型(Large Language Models,LLMs)等人工智能生成技术对用户信息检索行为产成的影响,为信息检索系统和信息资源建设建言献策。[方法/过程]以ChatGPT等LLMs的蓬勃发展为背景,结合大语言模型的技术特点与现有产品的特征,从用户信息行为的视角,通过探讨现有文献和大型语言模型,分析该技术的不断普及对信息检索系统与用户检索行为的影响。[结果/结论]LLMs用作信息检索系统具有传统产品无法比拟的优势,其对用户信息检索行为的底层逻辑、行动重点与检索期望等方面都会产成影响。然而LLMs现有可靠性、准确度等缺陷仍难以使其立刻取代传统信息检索方式。建议在信息检索系统和信息资源建设中重视该技术,探索LLMs与信息服务智能结合,以应对未来用户信息需求的变化,并进一步充分利用已有信息资源的价值。 展开更多
关键词 大语言模型 ChatGPT 信息检索系统 信息行为 人工智能内容生成
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部