mlx.optimizers.Optimizer.apply_gradients# Optimizer.apply_gradients(gradients: dict, parameters: dict)# 将梯度应用于参数并返回更新后的参数。 可用于通过 model.update(opt.apply_gradients(grads, model)) 来更新模型,这正是 Optimizer.update() 的实现方式。 参数: gradients (dict) – 梯度的 Python 树。 parameters (dict) – 参数的 Python 树。它可以是梯度的超集。在这种情况下,返回的 Python 树将与梯度具有相同的结构。