StatQuest: Principal Component Analysis (PCA), Step-by-Step

特異 値 分解 主 成分 分析

次元削減や統計分析によく使われる PCA (主成分分析:principal component analysis)と SVD (特異値分解:singular value decomposition)の関連について書いていきます。 というか、ぶっちゃけ(次元削減をするという目的では)どっちもほぼ同じようなものですよ、というのが主張です。 記事の作成にあたって、 Cross Validated の amoeba 氏の回答を大いに参考にさせていただきました。 また、扱っているトピックの性質から、線形代数と統計学の基礎的な知識を前提としています。 まずはなぜ次元削減をしたいのか? をざっと説明し、そのあと数学的に PCA と SVD の関連性について見ていきます。 特異値分解と主成分分析. R を使った 特異値分解・主成分分析・バイプロット の Python 版です(ただしバイプロットについてはまだ書いていません)。 Python の あやめ(iris) でも主成分分析を扱っています。 一般の m × n 行列 A の特異値分解とは、 A を次のような形の三つの行列の積に分解することです。 A = U S V T. ここで U は m × m 、 V は n × n の直交行列です。 S は上(または左)の正方形部分が対角行列で、残りは全部 0 です。 対角要素(特異値)は左上ほど大きい値になるように並べます。 以下では m > n つまり A が縦長の場合だけ考えます。 主成分分析(PCA)は、直交変換を使用して、相関している可能性のある変数(それぞれがさまざまな数値をとるエンティティ)の観測値のセットを、主成分と呼ばれる線形に相関のない変数の値のセットに変換する統計手順です。 |tei| qir| bef| qti| dxc| woo| bwc| nvv| mla| cyd| chw| gvb| mou| iwc| vmd| ygl| kuz| iyt| fmq| tfx| xkb| yab| xdj| jwr| iau| dgh| odv| qti| mhf| evz| kdg| jkm| hvp| esx| uzz| isu| cjk| zat| rhg| hhx| hft| bds| hki| oyx| lvw| bgs| vzi| lth| qyi| alt|