NIPS2018 腾讯AI Lab入选20篇论文,含2篇Spotligh
2018年10月16日 - 网易
研究者还发展了该方法的一种方差减小的变种,在强凸条件下可以证明它具有线性收敛性。研究者使用logistic损失函数进行了求解分类问题的数值实验,结果表明新方法在高维问题上的收敛速度优于SGD、SVRG、SAGA等经典算法。每次迭代成本为O(1)的随机原始-对偶方法(SPD1)使用了方差缩减的SPD118.方差缩减的...
详情
研究者还发展了该方法的一种方差减小的变种,在强凸条件下可以证明它具有线性收敛性。研究者使用logistic损失函数进行了求解分类问题的数值实验,结果表明新方法在高维问题上的收敛速度优于SGD、SVRG、SAGA等经典算法。每次迭代成本为O(1)的随机原始-对偶方法(SPD1)使用了方差缩减的SPD118.方差缩减的...