1. 公式推導一定要會
2. 邏輯回歸的基本概念
這個最好從廣義線性模型的角度分析,邏輯回歸是假設y服從Bernoulli分布。
3. L1-norm和L2-norm
其實稀疏的根本還是在于L0-norm也就是直接統計參數不為0的個數作為規則項,但實際上卻不好執行于是引入了L1-norm;而L1norm本質上是假設參數先驗是服從Laplace分布的,而L2-norm是假設參數先驗為Gaussian分布,我們在網上看到的通常用圖像來解答這個問題的原理就在這。
但是L1-norm的求解比較困難,可以用坐標軸下降法或是最小角回歸法求解。
4. LR和SVM對比
首先,LR和SVM最大的區別在于損失函數的選擇,LR的損失函數為Log損失(或者說是邏輯損失都可以)、而SVM的損失函數為hinge loss。
其次,兩者都是線性模型。
最后,SVM只考慮支持向量(也就是和分類相關的少數點)
5. LR和隨機森林區別
隨機森林等樹算法都是非線性的,而LR是線性的。LR更側重全局優化,而樹模型主要是局部的優化。