mlx.optimizers.Optimizer.apply_gradients

mlx.optimizers.Optimizer.apply_gradients#

Optimizer.apply_gradients(gradients: dict, parameters: dict)#

将梯度应用于参数并返回更新后的参数。

可用于通过 model.update(opt.apply_gradients(grads, model)) 来更新模型,这正是 Optimizer.update() 的实现方式。

参数:
  • gradients (dict) – 梯度的 Python 树。

  • parameters (dict) – 参数的 Python 树。它可以是梯度的超集。在这种情况下,返回的 Python 树将与梯度具有相同的结构。