摘要
随着深度学习的快速发展,深度神经网络模型在计算机视觉、自然语言处理等多个领域大放异彩,但性能变强的同时,也伴随着模型规模的快速增长。应用大规模模型往往需要强大的计算力和足够的存储空间。为了使深度模型能够在资源受限的条件下高效运行,模型压缩技术应运而生。本文介绍了深度学习中模型压缩技术的相关背景,在此基础上简要介绍了一些代表性的模型压缩技术,包括网络剪枝、知识蒸馏、模型量化,以及神经结构搜索,并展望模型压缩技术在未来的发展前景。
出处
《人工智能》
2023年第3期40-51,共12页
Artificial Intelligence View