随机梯度下降
**随机梯度下降**
1. **基本概念:从梯度下降说起**
想象你身处一座被浓雾笼罩的山中,你的目标是找到最低的谷底(即一个函数的最小值点)。梯度下降法就像是在黑暗中,每走一步前,都用脚感受一下周围最陡的下坡方向(这个方向就是函数在该点的“梯度”的负方向),然后朝这个方向迈出一小步。通过不断重复这个过程,你最终会到达一个局部的最低点。在机器学习中,这座“山”就是我们要最小化的“损失函数”,它衡量了模型预测值与真实值之间的差距。我们的目标就是找到一组模型参数,让这个损失函数的值最小。
2025-10-28 09:44:22
0