Короткий ответ: нет, вы, безусловно, должны учитывать также собственные значения.
Если вы считаете квадратную матрицу N-на-N как линейный оператор, который отображает N-векторы в N-векторы, действие матрицы на таких векторных пространствах сильно зависит от всей спектральной структуры матрицы: собственные векторы и связанные с ними собственные значения.
Наибольшие собственные значения, как правило, наиболее важны, поскольку они представляют направления в пространстве N-векторов, к которым матрица более чувствительна (собственные векторы).
В хорошем сценарии спектр большой матрицы (т. Е. Набор ее собственных значений) хорошо отделим на несколько крупнейших собственных значений и множество мелких. В этом случае можно определить меру подобия, основанную на таком наборе доминирующих собственных значений и связанных собственных векторов.
Чтобы сделать пример из моего собственного опыта, для матриц, возникающих при моделировании упругих структур, это действительно типичный случай, поскольку доминирующие собственные значения/собственные векторы «конденсируют» общие свойства упругой структуры.
Это, как говорится, нет предела тому, насколько хуже может быть патологический конкретный случай. Это зависит в значительной степени от конкретной рассматриваемой проблемы, и, на мой взгляд, уверенное предположение о «сходстве матриц» очень сильно зависит от физического понимания по проблеме.
Другие популярные критериев для определения «» аналогичные матрицы на основе сингулярного разложения (SVD), или анализа главных компонент (PCA).
Немного поздно для вечеринки, кроме +1 для ответа. Не могли бы вы подробнее остановиться на последнем предложении? Вы имеете в виду, что SVD или PCA могут использоваться для такого сравнения? Если да, то как? –