常用优化器

mlx.utils.tree_map_with_path

mlx.utils.tree_reduce

C++ API 参考

延伸阅读

MLX 中的自定义扩展

Metal 调试器

自定义 Metal 内核

在 C++ 中使用 MLX

.rst

.pdf

常用优化器#

SGD(learning_rate[, momentum, weight_decay, ...])

随机梯度下降优化器。

RMSprop(learning_rate[, alpha, eps])

RMSprop 优化器 [1]。

Adagrad(learning_rate[, eps])

Adagrad 优化器 [1]。

Adafactor([learning_rate, eps, ...])

Adafactor 优化器。

AdaDelta(learning_rate[, rho, eps])

带有学习率的 AdaDelta 优化器 [1]。

Adam(learning_rate[, betas, eps, ...])