SGD分類器とロジスティック回帰の違いは何ですか?

私の理解では、SGD分類器とロジスティック回帰は似ているようです。損失= “log”のSGD分類器はロジスティック回帰を実装し、損失= “ヒンジ”は線形SVMを実装します。また、ロジスティック回帰では最適化関数として最急降下法が使用され、SGDでははるかに速く収束する確率的勾配降下法が使用されることも理解しています。しかし、どのシナリオで使用する2つのアルゴリズムのどちらですか?また、SGDとロジスティック回帰はどのように類似しており、どのように異なりますか?

コメント

回答

SE:DataScienceへようこそ。

SGDは最適化手法であり、ロジスティック回帰(LR)は機械学習アルゴリズム/モデルです。機械学習モデルは損失関数を定義し、最適化手法はそれを最小化/最大化すると考えることができます。

一部の機械学習ライブラリは、ユーザーが2つの概念について混乱する可能性があります。たとえば、 scikit-learn には、SGDClassifierというモデルがあり、SGDが分類子であると誤解させる可能性があります。ただし、「SGDによって最適化された線形分類器です。

一般に、SGDは、LRや線形モデルだけでなく、さまざまな機械学習アルゴリズムに使用できます。LRは、次のような他のオプティマイザーを使用できます。 L-BFGS、共役勾配、またはニュートンのような方法。

コメント

  • つまり、clf = SGDClassifier( class_weight='balanced', alpha=i, penalty='l2', loss='hinge', random_state=42)これは線形SVMの実装であり、clf = SGDClassifier( class_weight='balanced', alpha=i, penalty='l2', loss='log', random_state=42)と書くと、ロジスティクス回帰の実装になります。正しいですか?
  • @AkashDubeyはい

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です