你在2018年读过的最好的机器学习论文是什么?
我不知道绝对最好,但对我来说最难忘的是:公平分类的减少方法,发表于ICML 2018。
我非常喜欢这篇论文的原因是它通过拉格朗日将约束学习转化为正常的学习问题。约束学习对于许多现实世界的应用是重要的,在这些应用中我们希望学习的预测器除了具有高精度之外还满足各种约束。在上面的论文中,研究的具体约束是公平约束。
通过拉格朗日,我们可以调用标准学习理论结果来推断我们满足约束的程度。例如,我们可以使用泛化误差界来推断我们对看不见的测试数据的满足程度。这是我见过的最优雅和原则性的黑盒约束学习方法之一。
本站所有相关知识仅供大家参考、学习之用,部分来源于互联网,其版权均归原作者及网站所有,如无意侵犯您的权利,请与小编联系,我们将会在第一时间核实并给予反馈。



















