最后,再看一个空间变换后的案例,左边的红绿是原始空间,右侧是转化后的高纬空间的扭曲图,这个时候,所有的红绿点都被扭曲到了一侧,惊奇的发现可以线性可分了:
那么,再问一个深度的问题,当然这个是术的问题,为什么深度学习是深度,而不是宽度? 比如:
有以下论文用实验数据证明了为什么深度学习网络应该是高个子,而不是矮胖子:
为什么要分那么多层,除了激活函数更多,空间变换能力更强,还有啥奥妙?
因为,如果层数太少,可能样本也太少,如下图:
分了层后,每一层会有更多的样本,如下图:
最后,如何系统的进行深度学习的使用,下面一张图已经概括了,TensorFlow+theano+keras:
深度学习的介绍就到这里了,希望你能看到这里,遗憾的是笔者也仅仅是纸上谈兵,没有实操的经验,看得再多,也没有实际做过一个深度学习项目来得实在。
阿尔法狗采用的是卷积神经网络,如果要深入学习,可以看看其实现过程,有很多的技巧,当然,这要付出很大的代价,但道理是相通的。
希望于你有所启发。