と、タイトルからいきなり疑問形なわけですが・・・
先日の記事で書いたGrassman Discriminant Analysisの論文内に
このPrincipal Anglesについて記述されていたので疑問に思ったわけです。
線形代数をきちんと学んだ人にとっては常識なのかもしれませんが、
お行儀があまりよろしくない学生だった僕には初耳の単語です。
さて、このPrincipal Anglesの定義は以下の通りです
(記号・表記の定義は前回の記事をご覧ください)。
2つの部分空間の間に下式を満たすが定義され、
これをPrincipal Anglesという。
, ,
,
,
つまり、に関しては、なす角が最小(が最大)になるように、
両部分空間からそれぞれベクトル(ただしノルムが1)を持ってきて、
そのなす角をとしましょう。
同様にも両部分空間からベクトルを選び、そのなす角をとするが、
ベクトルはの時に選んだそれと直交するように選びましょう。
ということです。以降も同様です。
では、このPrincipal Anglesを得る方法ですが、
実は、の特異値がと書かれています。
・・・なぜ???
ということで、本当にそうなのか確かめてみたいと思います。
とはいえ、全部のPrincipal Anglesが特異値だと示すのはちょっと面倒なので、
ここでは、Principal Anglesの1つはの特異値ですよと示す方針で行きたいと思います。
まず、及びの任意の要素は、
任意のベクトルを用いて、
それぞれ以下のように表すことができます。
これらをPrincipal Anglesの定義式に代入すると、
(1)
,
となります(今、1つのPrincipal Angleしか考えないので、直交の制約は省略)。
この最適化問題をラグランジュの未定乗数法を解くために、
ラグランジュ乗数を導入し、次の式を考えます。
これを及びで微分し、それぞれ0と置きます。
2つの式から、次の2式が導出されます。
ただし、。
おお!これを見ると、との停留点はそれぞれ、
の(同じ特異値に対応する)左特異ベクトルと右特異ベクトルじゃないか!
ゴールが見えてきました。
ここで、との最適解(停留点の1つ)をと、
の特異値分解をとします。
これを(1)の式に代入すると、
となります。
とはそれぞれ左右の特異ベクトルであることを思い出すと、
は1つの要素のみ1、他の要素は全て0のベクトルだとわかります。
従って、はの特異値であるといえます。
ちょっと怪しい気がしますが・・・これで大丈夫なはず。
このPrincipal Anglesは、Grassmann Discriminant Analysis含め様々な
サンプルが部分空間である機械学習手法で要となっています。
例えば、Face recognition using temporal image sequence[Yamaguchi98]の論文では、
を距離として用い、最近傍法を行うことで、
部分空間集合の学習・識別を実現しているらしい(元論文は読んでいません)。
最後にPrincipal Anglesとグラスマン多様体の関係についてちょっとだけ述べておくと、
グラスマン多様体上の2点間の測地線距離は
になるそうです。
多様体については、もっとちゃんと勉強せねば・・・と修士1年のころから思いつつ、
いつの間にか、社会人2年目なわけですよ