NIUCLOUD是一款SaaS管理后台框架多应用插件+云编译。上千名开发者、服务商正在积极拥抱开发者生态。欢迎开发者们免费入驻。一起助力发展! 广告
# 定义优化器函数 接下来,我们实例化学习率为 0.001 的`theGradientDescentOptimizer`函数并将其设置为最小化损失函数: ```py learning_rate = 0.001 optimizer = tf.train.GradientDescentOptimizer(learning_rate).minimize(loss) ``` 有关梯度下降的更多详细信息,请访问以下链接:[https://en.wikipedia.org/wiki/Gradient_descent ](https://en.wikipedia.org/wiki/Gradient_descent)[https://www.analyticsvidhya.com/blog/2017/03/introduction-to-gradient-descent-algorithm-along-its-variants/](https://www.analyticsvidhya.com/blog/2017/03/introduction-to-gradient-descent-algorithm-along-its-variants/) TensorFlow 提供了许多其他优化器函数,如 Adadelta,Adagrad 和 Adam。我们将在以下章节中介绍其中一些内容。