摘要 神经网络既是计算密集型又是内存密集型,使得它们难以在嵌入式系统上部署.此外,传统网络在训练开始之前固定架构;因此,训练无法改善架构.为了解决这些限制,我们描述了一种方法,通过仅学习重要连接,将神经网络所需的存储和计算减少一个数量级而不影响其准确性.我们的方法使用三步法修剪冗余连接.首先,我们训练网络以了解哪些连接很重要.接下来,我们修剪不重要的连接.最后,我们重新训练网络以微调剩余连接的权重.在ImageNet数据集上,我们的方法将AlexNet的参数数量从6100万减少到670万,而不会