期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
生成式预训练Transformer模型的逻辑性优化方法
1
作者 张兆天 《信息与电脑》 2024年第4期50-52,共3页
生成式预训练Transformer(Generative Pre-Trained Transformer,GPT)模型作为一种基于Transformer架构的预训练模型,在完成自然语言处理任务方面取得了巨大的成功。由于依赖于生成下一个词的局部贪婪过程,使对任务或输出的全局理解、逻... 生成式预训练Transformer(Generative Pre-Trained Transformer,GPT)模型作为一种基于Transformer架构的预训练模型,在完成自然语言处理任务方面取得了巨大的成功。由于依赖于生成下一个词的局部贪婪过程,使对任务或输出的全局理解、逻辑推理和道德法规约束能力不够。为了提升计算的逻辑性和可靠性,结合的生成型计算过程,论述计算结果的逻辑局限性,从而引入一类和逻辑计算模型混合的优化结构。 展开更多
关键词 生成式训练transformer模型(gpt) 逻辑性 优化结构
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部