梯度下降与优化策略详解
梯度下降的优化思路挺有意思,尤其是它在机器学习里的表现,简直是调参的利器。你可以把它想象成在山坡上找最低点,梯度告诉你坡度大小和方向,下降就是往低处走。随机梯度下降(SGD)适合大数据,更新快但有点噪声,反倒让你跳出局部最优。这里还有批量和小批量梯度下降,速度和准确性之间的平衡挺巧妙。学会调整学习率关键,学得太快容易震荡,慢了又磨人,动量法、Adam 这些优化策略就像给你装了外挂,收敛更快。对实战党来说,知道这些算法背后的玩法,调参时省心不少。资料里还讲了不少变种,挺适合想往深度学习方向冲的人。如果你想扎实掌握梯度下降,尤其是随机梯度下降,这套内容挺有料。
07 随机梯度下降.zip
预估大小:17个文件
07 随机梯度下降
文件夹
课时64 损失函数及其梯度-2.mp4
63.5MB
课时65 单输出感知机梯度.mp4
51.89MB
课时60 梯度下降-简介-2.mp4
14.45MB
课时74 TensorBoard可视化-1.mp4
15.55MB
课时67 链式法则.mp4
18.26MB
课时66 多输出感知机梯度.mp4
17.71MB
课时70 函数优化实战.mp4
38.96MB
课时61 常见函数的梯度.mp4
93KB
课时59 梯度下降-简介-1.mp4
25.37MB
421.53MB
文件大小:
评论区