'二項回帰とロジスティック回帰の違いは何ですか?

私は常に、ロジスティック回帰を、リンク関数がロジスティック関数(たとえば、プロビットではなく)である二項回帰の単なる特殊なケースと考えてきました。関数)。

別の質問に対する回答を読んだところ、混乱しているようで、ロジスティック回帰とロジスティックリンクを使用した二項回帰の違い。

違いは何ですか?

回答

ロジスティック回帰は、「ロジスティック」リンク関数を使用した二項回帰です。

$$ g(p)= \ log \ left(\ frac {p} {1-p} \ right)= X \ beta $$

ロジスティック回帰は通常、二項数ではなく二項比率に適用されると思いますが。

コメント

  • ロジスティック回帰が通常、カウントではなく比率に適用されるとはどういう意味ですか? '人々がパーティーに参加するかどうかを予測しようとしていて、特定のパーティーについて、9人が参加し、1人が参加しなかったことがわかっているとします。ロジスティック回帰では、これを1つのトレーニング例(つまり、このパーティの成功率は0.9)と見なしますが、リンクを使用した2項回帰では、これを10のトレーニング例(9つの成功、1つの失敗)と見なしますか?
  • @ raehtin-どちらの場合も$ 1 $のサンプル/トレーニングの場合で、それぞれ$(n_i、f_i)=(10,0.9)$と$(n_i、x_i)=(10,9)$です。違いは、平均関数と分散関数の形式です。二項式の場合、平均は$ \ mu_i = n_ip_i $であり、正規リンクは$ \ log \ left(\ frac {\ mu_i} {n_i- \ mu_i} \ right)$(自然パラメータ")、分散関数は$ V(\ mu_i)= \ frac {\ mu_i(n_i- \ mu_i)} {n_i} $です。分散パラメーター$ \ phi_i = 1 $。ロジスティックの場合、平均$ \ mu_i = p_i $、上記のリンク、$ V(\ mu_i)= \ mu_i(1- \ mu_i)$の分散関数、および$ \ phi_i = \ frac {1} {n_iに等しい分散があります。 } $。
  • ロジスティックを使用すると、$ n_i $は平均関数と分散関数から分離されるため、重み付けによってより簡単に考慮に入れることができます
  • ああ、わかりました。 考えるなるほど。これは、同等の結果が得られることを意味しますか(単に別の方法で到達しただけです)?
  • @ raegtin-そう思います。 GLMの重み、$ w_ {i} ^ {2} = \ frac {1} {\ phi_i V(\ mu_i)[g '(\ mu_i)] ^ {2} } $はどちらの場合も等しく、リンク関数は同じロジット値を生成します。 X変数も同じである限り、同じ結果が得られるはずです。

回答

二項回帰は、分散が$ \ mbox {var}(Y)= \ hat {Y}(1- \ hat {Y})$で与えられる二項平均分散関係を使用する任意のタイプのGLMです。ロジスティック回帰では、$ \ hat {Y} = \ mbox {logit} ^ {-1}(\ mathbf {X} \ hat {\ beta})= 1 /(1- \ exp {(\ mathbf {X} \ 「リンク」関数と呼ばれるロジット関数を使用したhat {\ beta})})$。ただし、二項回帰モデルの一般的なクラスは、$ [0,1] $の範囲外の範囲を出力する関数であっても、任意のタイプのリンク関数で定義できます。たとえば、プロビット回帰は逆正規CDFのリンクを取り、相対リスク回帰は対数関数をリンクとして取り、加法リスクモデルはアイデンティティリンクモデルを取ります。

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です