云山雾罩的云雾 作品

第14章 一不小心站在了技术发展的最前沿(第2页)

 梯度太小,无法有效调整那些神经元的连接强度,网络的训练就会变得非常困难。

 想象你在爬一个大山,山的坡度越来越平,最终你几乎感受不到自己在上升了,这时你很难再判断该怎么继续往上爬。

 在神经网络里,梯度消失的问题就是这种感觉,网络不知道该如何继续改进。

 而梯度爆炸又是另外的一个极端。

 假设这次你站在一座非常陡的悬崖边,一不小心就滚下去了!

 因为坡度太陡了,你的速度变得非常快,失控了。

 在神经网络中,这种情况也被称为“梯度爆炸”

 当梯度太大时,参数的调整会变得过于剧烈,网络的学习变得不稳定,甚至会导致训练失败。

 这就像你在陡峭的悬崖边滑落,一下子失去了控制。

 网络的参数变化过大,导致结果变得很不稳定,甚至完全错误。

 概括地说:

 梯度消失就像在一座越来越平的山坡上,梯度变得很小,神经网络不知道该怎么调整,进而学习变得很慢,甚至无法进步。

 梯度爆炸就像从悬崖边滚下去,梯度变得很大,网络的学习变得过于剧烈,结果会非常不稳定,训练过程变得不可控。

 这两个问题经常会出现在深层神经网络中。

 而这也是马库斯所要倾诉的困扰。

 “说起来,最近的研究还卡在了‘梯度消失’的问题上。”马库斯苦笑着说道,靠在沙发上,“我们在训练一些更深层次的神经网络时,发现模型一旦超过一定的深度,反向传播算法中的梯度会逐渐趋近于零,根本无法有效更新权重。深度越大,梯度就越容易消失,整个网络的学习效率大幅下降。”

 马库斯知道林枫硕士是麻省理工学院的计算机硕士,因此也就全都用专业术语表述了。