在机器学习中,模型的训练是一个很重要的过程,它通常是对一个目标函数进行优化,从而获取模型的参数,比较常见的优化算法包括梯度下降法、牛顿法与拟牛顿法等。但在大数据的背景下,尤其对于并行实现来说,优化算法通常是越简单越好,如坐标下降法(CD)和随机梯度下降法(SCG)就比较受欢迎。本文是阅读完论文 Distributed Coordinate Descent Method for Learning with Big Data 的一则笔记,主要介绍算法 Hydra (一种分布式坐标下降法)的算法框架、收敛性理论、参数选取和并行实现细节。
作者: peghoty
出处: http://blog.csdn.net/itplus/article/details/28329603
欢迎转载/分享, 但请务必声明文章出处.
一种适合于大数据的并行坐标下降法
时间: 2024-10-12 16:53:29