Skip to content

Latest commit

 

History

History
71 lines (57 loc) · 9.68 KB

2017-12-26.md

File metadata and controls

71 lines (57 loc) · 9.68 KB
layout
default

嵌入式AI 双周简报 (2017-12-26)

业界新闻

开源项目

论文

  • [1712.05134] Learning Compact Recurrent Neural Networks with Block-Term Tensor Decomposition
    简评:RNN在解决序列建模,尤其是高维度的输入数据对应的很大模型,会有超大的参数量和训练时间,为解决该问题,作者提出更紧凑的结构:Block-Term tensor decomposition,该结构可降低模型参数的同时提升训练效率。相比tensor-train RNN(TT-RNN)和low-rank approximations,作者的方法在参数量更少的同时准确性更好。在视频动作识别、图像描述、图像生成三个任务中,作者的BT-RNN在准确率和收敛速度上都比TT-RNN、RNN有优势。在动作识别任务的UCF11数据集上,BT-LSTM的参数量仅为LSTM的1/17388,性能却高了15.6%。
  • [1712.04910] FFT-Based Deep Learning Deployment in Embedded Systems
    简评:作者提出基于FFT训练和推理的DNN模型,尤其适用于对于存储和计算能力有限的嵌入式平台,
  • [1707.07012] Learning Transferable Architectures for Scalable Image Recognition [code]
    简评:为解决架构工程问题,作者提出一种基于数据集自动搜寻模型block的方法。作者用该方法基于CIFAR10数据集搜寻最佳block,之后将该block堆叠出的模型应用到ImageNet上。尽管没有直接在ImangeNet上进行最佳的block搜寻,但在ImageNet上top1和top5准确率分别达到82.7%和96.2%。相比最佳的人类设计的模型,该方法的top1准确率要领先1.2%的同时参数量减少28%。在检测任务的COCO数据集上,基于该方法搭建的网络在特征学习上要超过同样模型架构Faster-RCNN,性能高于4.0%达到43.1%的mAP。
  • [1712.03351] Peephole: Predicting Network Performance Before Training
    简评:同样是解决模型设计的问题。作者提出在基于网络的架构,在训练前就预测网络性能的方法。作者将不同的层编码成向量并交给LSTM,利用RNN的表达优势可以预测各种不同网络架构的性能。作者实验证明,该方法预测出的模型性能和实验的结果一致。
  • [1611.05162] Net-Trim: Convex Pruning of Deep Neural Networks with Performance Guarantee [code] [blog]
    简评:作者提出一种用于模型剪枝的新方案——Net-Trim算法,该方法会对一个训练过的模型,将逐层地移除某些连接视为一个解决凸优化问题的过程。该过程会找保证该层输入和输出一致下的稀疏权重,此外作者提出基于该方法的并行和串行版本。两个版本后者得到的模型更轻量,但前者可以在分布式环境下使用。此外作者也给出了对剪枝前后模型的数学分析。

博文