指数関数の無限級数展開により、動径基底カーネルは入力特徴空間を無限特徴空間に投影することを学びました。このカーネルをSVMで頻繁に使用するのは、この事実によるものですか?無限次元空間に投影すると、データは常に線形分離可能になりますか?
コメント
- これは役立つかもしれません: stats.stackexchange.com/questions/80398/ …
- 実際には、任意の2つのクラスを作成するには+1次元を追加する必要がありますデータは分離可能です。
- 詳しくは、 stats.stackexchange.com/questions/131138/ … をご覧ください。直感的な説明
回答
RUser4512が正解しました:RBFカーネルは実際にはうまく機能し、比較的簡単です調整します。これは、OLS回帰を推定するために「誰も解雇されたことがない」と同等のSVMです。「妥当なデフォルトの方法として受け入れられています。明らかにOLSは、すべての(または多くの)シナリオで完全ではありませんが、」同様に、RBFカーネルは十分に研究され、広く理解されており、多くのSVMパッケージにはデフォルトの方法として含まれています。
しかし、RBFカーネルには他にも多くの方法があります。これらのタイプの質問では、誰かが「なぜこのように物事を行うのか」について質問するとき、コンテキストを開発するために他の方法との対比を描くことも重要だと思います。
これは固定カーネル。これは、変換に対して不変であることを意味します。 $ K(x、y)。$を計算していると仮定します。定常カーネルは$ K(x + c、y + c)$に対して同じ値$ K(x、y)$を生成します。ここで、$ c $はベクトルです。 -入力に一致する次元の値。 RBFの場合、これは2つのベクトルの差異に取り組むことで実現されます。対照的に、線形カーネルには定常性プロパティがないことに注意してください。
RBFカーネルの単一パラメーターバージョンには、等方性であるというプロパティがあります。 、つまり$ \ gamma $によるスケーリングは、すべての方向で同じ量で発生します。ただし、これはRBFカーネルを$ K(x、y)= \ exp \ left(-(xy) “\ Gamma(xy)\ right)$に微調整することで簡単に一般化できます。ここで、$ \ Gamma $はpsdです。マトリックス。
RBFカーネルのもう1つの特性は、無限にスムーズであるということです。これは見た目に美しいです。 、そして視覚的にはやや満足のいくものですが、おそらくそれは最も重要なプロパティではありません。RBFカーネルをMaternカーネルと比較すると、いくつかのカーネルがかなりギザギザになっていることがわかります!
ストーリーは、カーネルベースのメソッドは非常に豊富で、少しの作業で、特定のニーズに適したカーネルを開発することは非常に実用的です。ただし、デフォルトとしてRBFカーネルを使用している場合は、比較のための妥当なベンチマークがあります。
回答
RBFカーネルを使用する正当な理由は、実際にうまく機能することだと思います。また、他のカーネルとは対照的に、キャリブレーションは比較的簡単です。
多項式カーネルには3つのパラメーター(オフセット、スケーリング、次数)があります。 RBFカーネルには1つのパラメーターがあり、それを見つけるための優れたヒューリスティックがあります。たとえば、次を参照してください。 SVMrbfカーネル-ガンマを推定するための発見的方法
特徴空間の線形分離可能性が理由ではない場合があります。実際、ガウスカーネルを使用すると、列車セットに分離可能性と完全な精度を適用するのは簡単です($ \ gamma $を大きな値に設定します)。ただし、これらのモデルの一般化は非常に悪いです。
編集。
この短いビデオは、帯域幅パラメーターの増加が決定境界に与える影響を示しています。