使用baxter来实现http://pr.cs.cornell.edu/deepgrasping/的项目:
首先谈谈参加NVIDIA举办的deep learning的讲座的一些心得体会。首先,深度学习产生是由于更多的数据集,更好的模型,以及很好的GPU处理能力。现在大型的神经网络大概是10层左右。其处理的信息应是随着神经网络的层数增加,其信息量是递减的,但是这里需要将主要的信息保留来存储与处理。深度学习如同火箭,而大型的神经网络就是发动机,数据就是燃料。对于HPU也就是many GPUs的称呼。关于深度学习可以参考一篇在Nature上发表的:The learning machine。关于深度学习,相应的有谷歌大脑,百度大脑,以及tecent也有类似的项目,百度深度学习实验室。这里需要提及的是关于deep与feature,deep指代的是神经网络的多层数,而feature表示的是数据的特征。同时,这里还有confusion matrix,同时这里有个理论关于深度学习的收敛性与稳定性。同时处理时候也是sift:scale invariant feature transform 尺度不变特征转换。在这里,阿里想将其作为一种平台来帮助更多的公司来处理,也相应的产生技术业务输出:http://www.aliyun.com/act/aliyun/tech-output.html,同时也举办天池大数据竞赛和搭配算法比赛。对于这里的处理的基础可能更多的是来自Microsoft的kinect的RGBD的图像。
这里有关于deeplearning的不错的网址:
http://blog.csdn.net/zouxy09/article/details/8782018
http://blog.sina.com.cn/s/blog_593af2a70101bqyo.html
http://blog.csdn.net/abcjennifer/article/details/7826917