期刊导航
期刊开放获取
cqvip
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
3
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
人工智能生成内容的著作权客体性思考——兼论作品判定的独创性标准选择
被引量:
6
1
作者
杨利华
王诗童
《北京航空航天大学学报(社会科学版)》
2024年第2期50-62,共13页
以基于转换器的生成式预训练模型(GPT)为代表的高阶人工智能凭借其强大的智能型内容生成机制,使得内容产品生产中的技术占比不断上升,人的直接投入占比相对下降,传统著作权法作品的独创性要求、权利人本原则等基本理论受到冲击。面对人...
以基于转换器的生成式预训练模型(GPT)为代表的高阶人工智能凭借其强大的智能型内容生成机制,使得内容产品生产中的技术占比不断上升,人的直接投入占比相对下降,传统著作权法作品的独创性要求、权利人本原则等基本理论受到冲击。面对人工智能生成内容(AIGC)可作品性问题,基于自然人智力投入的创造性本质理论和闭合性作品概念显得力不从心。在过程视角下(主观标准),人工智能内容生成过程符合人类创作的思维特征;在结果视角下(客观标准),人工智能生成内容具有著作权作品的外观形式和信息消费功能,符合著作权作品的本质属性。如果人为割裂人工智能生成内容与著作权作品在产生过程和实质作用上的同质关系,强行区分人工智能生成内容和自然人创作作品的法律性质,则有悖著作权法因应技术发展调整信息消费品利益的制度旨趣,最终将导致著作权法律秩序的混乱。
展开更多
关键词
基于转换器的生成式预训练模型(
gpt
)
生成式人工智能
人工智能生成内容(AIGC)
著作权法客体
独创性标准
下载PDF
职称材料
生成式预训练Transformer模型的逻辑性优化方法
2
作者
张兆天
《信息与电脑》
2024年第4期50-52,共3页
生成式预训练Transformer(Generative Pre-Trained Transformer,GPT)模型作为一种基于Transformer架构的预训练模型,在完成自然语言处理任务方面取得了巨大的成功。由于依赖于生成下一个词的局部贪婪过程,使对任务或输出的全局理解、逻...
生成式预训练Transformer(Generative Pre-Trained Transformer,GPT)模型作为一种基于Transformer架构的预训练模型,在完成自然语言处理任务方面取得了巨大的成功。由于依赖于生成下一个词的局部贪婪过程,使对任务或输出的全局理解、逻辑推理和道德法规约束能力不够。为了提升计算的逻辑性和可靠性,结合的生成型计算过程,论述计算结果的逻辑局限性,从而引入一类和逻辑计算模型混合的优化结构。
展开更多
关键词
生成式预训练
transformer
模型(
gpt
)
逻辑性
优化结构
下载PDF
职称材料
用户粒度级的个性化社交文本生成模型
3
作者
高永兵
高军甜
+1 位作者
马蓉
杨立东
《计算机应用》
CSCD
北大核心
2023年第4期1021-1028,共8页
针对开放性的社交文本领域的文本生成技术生成的文本内容缺少个性化特征的问题,提出了一种用户级的细粒度控制生成模型,即PTG-GPT2-Chinese(Personalized Text Generation Generative Pre-trained Transformer 2-Chinese)。所提模型基于...
针对开放性的社交文本领域的文本生成技术生成的文本内容缺少个性化特征的问题,提出了一种用户级的细粒度控制生成模型,即PTG-GPT2-Chinese(Personalized Text Generation Generative Pre-trained Transformer 2-Chinese)。所提模型基于GPT2(Generative Pre-trained Transformer 2.0)结构设计了Encoder-Decoder模型框架。首先在Encoder端对用户的静态个性化信息建模并编码,在Decoder端添加了双向独立的注意力模块,用于接收该静态的个性化特征向量,并利用原始GPT2结构中的注意力模块捕获用户文本中的动态个性化特征;然后,动态加权融合各注意力模块分数并参与后续解码,从而自动生成以用户个性化特征属性作为约束的社交文本;此外,为了解决用户基本信息的语义稀疏性导致的生成文本偶尔与某些个性化特征存在矛盾的问题,采用BERT模型对Decoder端输出数据与用户个性化特征进行一致性理解的二次增强生成,最终实现个性化的社交文本生成。实验结果表明,与GPT2模型相比,所提模型的流畅度提高了0.36%~0.72%,且在不损失语言流畅度的基础上,二次生成使个性化和一致性两个评价指标分别提高了10.27%和13.24%。这验证了所提模型能够有效辅助用户创作,生成流畅且符合用户个性的社交文本。
展开更多
关键词
个性化
文本生成
预训练语言模型
gpt
2-Chinese
社交文本
下载PDF
职称材料
题名
人工智能生成内容的著作权客体性思考——兼论作品判定的独创性标准选择
被引量:
6
1
作者
杨利华
王诗童
机构
中国政法大学民商经济法学院
出处
《北京航空航天大学学报(社会科学版)》
2024年第2期50-62,共13页
基金
国家社会科学基金重大项目(17ZDA139)
国家社会科学基金一般项目(18BTQ023)。
文摘
以基于转换器的生成式预训练模型(GPT)为代表的高阶人工智能凭借其强大的智能型内容生成机制,使得内容产品生产中的技术占比不断上升,人的直接投入占比相对下降,传统著作权法作品的独创性要求、权利人本原则等基本理论受到冲击。面对人工智能生成内容(AIGC)可作品性问题,基于自然人智力投入的创造性本质理论和闭合性作品概念显得力不从心。在过程视角下(主观标准),人工智能内容生成过程符合人类创作的思维特征;在结果视角下(客观标准),人工智能生成内容具有著作权作品的外观形式和信息消费功能,符合著作权作品的本质属性。如果人为割裂人工智能生成内容与著作权作品在产生过程和实质作用上的同质关系,强行区分人工智能生成内容和自然人创作作品的法律性质,则有悖著作权法因应技术发展调整信息消费品利益的制度旨趣,最终将导致著作权法律秩序的混乱。
关键词
基于转换器的生成式预训练模型(
gpt
)
生成式人工智能
人工智能生成内容(AIGC)
著作权法客体
独创性标准
Keywords
generative
pre
-
trained
transformer
(
gpt
)
generative
artificial
intelligence
artificial
intelligence
genera-ted
content(AIGC)
object
of
copyright
law
originality
criterion
分类号
D923.41 [政治法律—民商法学]
下载PDF
职称材料
题名
生成式预训练Transformer模型的逻辑性优化方法
2
作者
张兆天
机构
中央广播电视总台技术局
出处
《信息与电脑》
2024年第4期50-52,共3页
文摘
生成式预训练Transformer(Generative Pre-Trained Transformer,GPT)模型作为一种基于Transformer架构的预训练模型,在完成自然语言处理任务方面取得了巨大的成功。由于依赖于生成下一个词的局部贪婪过程,使对任务或输出的全局理解、逻辑推理和道德法规约束能力不够。为了提升计算的逻辑性和可靠性,结合的生成型计算过程,论述计算结果的逻辑局限性,从而引入一类和逻辑计算模型混合的优化结构。
关键词
生成式预训练
transformer
模型(
gpt
)
逻辑性
优化结构
Keywords
generative
pre
-
trained
transformer
(
gpt
)
logicality
optimize
structure
分类号
TP18 [自动化与计算机技术—控制理论与控制工程]
下载PDF
职称材料
题名
用户粒度级的个性化社交文本生成模型
3
作者
高永兵
高军甜
马蓉
杨立东
机构
内蒙古科技大学信息工程学院
出处
《计算机应用》
CSCD
北大核心
2023年第4期1021-1028,共8页
基金
国家自然科学基金资助项目(62161040)
内蒙古自治区自然科学基金资助项目(2021LHMS06004)。
文摘
针对开放性的社交文本领域的文本生成技术生成的文本内容缺少个性化特征的问题,提出了一种用户级的细粒度控制生成模型,即PTG-GPT2-Chinese(Personalized Text Generation Generative Pre-trained Transformer 2-Chinese)。所提模型基于GPT2(Generative Pre-trained Transformer 2.0)结构设计了Encoder-Decoder模型框架。首先在Encoder端对用户的静态个性化信息建模并编码,在Decoder端添加了双向独立的注意力模块,用于接收该静态的个性化特征向量,并利用原始GPT2结构中的注意力模块捕获用户文本中的动态个性化特征;然后,动态加权融合各注意力模块分数并参与后续解码,从而自动生成以用户个性化特征属性作为约束的社交文本;此外,为了解决用户基本信息的语义稀疏性导致的生成文本偶尔与某些个性化特征存在矛盾的问题,采用BERT模型对Decoder端输出数据与用户个性化特征进行一致性理解的二次增强生成,最终实现个性化的社交文本生成。实验结果表明,与GPT2模型相比,所提模型的流畅度提高了0.36%~0.72%,且在不损失语言流畅度的基础上,二次生成使个性化和一致性两个评价指标分别提高了10.27%和13.24%。这验证了所提模型能够有效辅助用户创作,生成流畅且符合用户个性的社交文本。
关键词
个性化
文本生成
预训练语言模型
gpt
2-Chinese
社交文本
Keywords
personalization
text
generation
pre
-
trained
language
model
generative
pre
-
trained
transformer
2(
gpt
2)-Chinese
social
text
分类号
TP391 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
人工智能生成内容的著作权客体性思考——兼论作品判定的独创性标准选择
杨利华
王诗童
《北京航空航天大学学报(社会科学版)》
2024
6
下载PDF
职称材料
2
生成式预训练Transformer模型的逻辑性优化方法
张兆天
《信息与电脑》
2024
0
下载PDF
职称材料
3
用户粒度级的个性化社交文本生成模型
高永兵
高军甜
马蓉
杨立东
《计算机应用》
CSCD
北大核心
2023
0
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部