2014-09-22 8 views
0

Действительно ли это справедливая мера, чтобы найти косинус-подобие собственных векторов двух очень больших матриц, чтобы сравнить, насколько они похожи?Косинус сходства собственных векторов двух разных матриц

У меня две очень большие матрицы А и В. Я нашел:

-> ковариационной матрицы C A и C B,

-> Топ 20 собственных векторов С A и C B,

-> Косинус Сходство между 20 верхними векторами.

Правильно ли на основании значений косинуса заключить, что матрицы А и В аналогичны/различны?

ответ

1

Короткий ответ: нет, вы, безусловно, должны учитывать также собственные значения.

Если вы считаете квадратную матрицу N-на-N как линейный оператор, который отображает N-векторы в N-векторы, действие матрицы на таких векторных пространствах сильно зависит от всей спектральной структуры матрицы: собственные векторы и связанные с ними собственные значения.

Наибольшие собственные значения, как правило, наиболее важны, поскольку они представляют направления в пространстве N-векторов, к которым матрица более чувствительна (собственные векторы).

В хорошем сценарии спектр большой матрицы (т. Е. Набор ее собственных значений) хорошо отделим на несколько крупнейших собственных значений и множество мелких. В этом случае можно определить меру подобия, основанную на таком наборе доминирующих собственных значений и связанных собственных векторов.

Чтобы сделать пример из моего собственного опыта, для матриц, возникающих при моделировании упругих структур, это действительно типичный случай, поскольку доминирующие собственные значения/собственные векторы «конденсируют» общие свойства упругой структуры.

Это, как говорится, нет предела тому, насколько хуже может быть патологический конкретный случай. Это зависит в значительной степени от конкретной рассматриваемой проблемы, и, на мой взгляд, уверенное предположение о «сходстве матриц» очень сильно зависит от физического понимания по проблеме.

Другие популярные критериев для определения «» аналогичные матрицы на основе сингулярного разложения (SVD), или анализа главных компонент (PCA).

+0

Немного поздно для вечеринки, кроме +1 для ответа. Не могли бы вы подробнее остановиться на последнем предложении? Вы имеете в виду, что SVD или PCA могут использоваться для такого сравнения? Если да, то как? –