1、模型目標函數
Linear SVM的目標是最大化間隔,即在滿足分類約束的條件下,尋找間隔最大的超平面。而邏輯回歸的目標是最小化對數損失,通過估計樣本屬于某一類的概率。
2、決策邊界
Linear SVM尋找間隔最大的超平面進行分類,確保每個類別的支持向量到決策邊界的距離最大化。邏輯回歸則通過估計概率來得到決策邊界,形成一個平滑的sigmoid函數。
3、對異常值敏感度
Linear SVM對異常值比較敏感,因為支持向量直接影響決策邊界。邏輯回歸則相對對異常值不太敏感,因為它基于整體樣本來估計概率。
4、計算復雜度
Linear SVM通常計算復雜度較高,需要解決二次規劃問題。而邏輯回歸使用梯度下降等優化方法,計算復雜度相對較低。
5、模型解釋性
邏輯回歸具有良好的解釋性,可以直接通過權重解釋每個特征的重要性。Linear SVM的解釋性相對較差,因為它關注的是支持向量而非整個數據集。
常見問答
Linear SVM和LR在分類效果上哪個更好?沒有統一答案,取決于具體數據和任務。Linear SVM對某些非線性可分問題更有效,LR則可能在需要概率輸出時更合適。
Linear SVM是否適合多分類問題?是的,通過一對多或一對一的策略,Linear SVM可以應用于多分類問題。
邏輯回歸的計算復雜度是否總是低于Linear SVM?不一定,取決于優化算法和具體數據集。
Linear SVM的異常值敏感度高是否意味著在噪聲數據上表現差?可能是的,高敏感度可能使Linear SVM在噪聲數據上的性能下降。
邏輯回歸的解釋性是否總是比Linear SVM強?通常情況下是這樣,但取決于具體情況和需求。