小批量梯度下降:一种优化算法。在每次参数更新时,不使用全部训练数据(批量 Batch),也不只用单个样本(随机/在线),而是使用一小部分样本(mini-batch)来计算梯度并更新模型参数。常用于训练神经网络等机器学习模型。(相关概念:也常与“随机梯度下降”对比;在不同语境下简称可能略有差异。)
/ˈmɪni bætʃ ˈɡreɪdiənt dɪˈsɛnt/
We trained the model with mini-batch gradient descent.
我们用小批量梯度下降来训练这个模型。
Mini-batch gradient descent often balances computation efficiency and gradient stability, especially when combined with momentum or Adam on large datasets.
在大规模数据集上,小批量梯度下降常在计算效率与梯度稳定性之间取得平衡,尤其是与动量(momentum)或 Adam 等方法结合时。
该术语由三部分构成:**mini-**(“小型的”前缀)+ batch(“一批/一组数据”)+ gradient descent(“沿梯度方向下降”,指通过梯度信息迭代最小化损失函数)。整体含义直观:用“小批”数据估计梯度并进行“下降”更新。