|
👍 +3 👎 |
Суть собственных векторовПомогите навести порядок с понятием собственного вектора. Формальное определение вроде бы знаю, но совершенно не ощущаю реальную суть. Вопросы сумбурные, пока по другому не могу.
Собственный вектор (СВ) какой то матрицы – тот, кто не изменяет своего направления после воздействия этой матрицы. Но если мы пишем Ах, то вроде бы как мы никак не меняем вектор х (собственный он не собственный), а всего лишь находим его координаты в базисе А? Матрица описывает преобразование, т.е. получается, что СВ инвариантен к преобразованию, но тогда получается, что если изменить значения матрицы, то и СВ поменяются?, т.е. СВ инвариантен не к самому преобразованию (например, к вращению ), а к его параметрам? Тогда на каком принципе строятся собственные вектора некоторого образцового изображения и в дальнейшем это изображение находится в любой ориентации, масштабе? С другой стороны часто встречается понятие СВ корреляционной матрицы. Но корреляционная матрица не является преобразованием, особенно если речь идет о АКМ, просто взяли хх’. Каков физический смысл СВ КМ?
математика квантовая механика физика обучение
Сергей
|
|
👍 −1 👎 |
Собственные векторы вводятся для описания, так называемых, стационарных состояний в квантовой механике. Советую почитать том "Квантовая механика. Нерелятивистская теория" из 10-и томнику курса теоретической физики Ландау и Лифшица.
|
|
👍 +1 👎 |
Собственные числа не меняются при переходе к другому базису:
A`= SA(S)(^-1), где S- неособая матрица перехода к другому базису. То есть собственные значения подобных матриц равны, но о собственных этого не скажешь. Однако для подобных матриц справедливы интересные свойства, например : !A!=!A`! ; Sp A=Sp A` |
|
👍 0 👎 |
Собственные числа не меняются при переходе к другому базису:
A`= SA(S)(^-1), где S- неособая матрица перехода к другому базису. То есть собственные значения подобных матриц равны, но о собственных этого не скажешь. Однако для подобных матриц справедливы интересные свойства, например : !A!=!A`! ; Sp A=Sp A` |
|
👍 0 👎 |
Спасибо за ответы, но к сожаленью они не внесли ясность в мои недопонимания.
Попробую вопрос конкретизировать на одном из материалов Вначале идет формальное определение собственного вектора (СВ) и собственного значения (СЗ) выражением (14.78). Далее (14.79) и (14.80) рассматривается их нахождение. Абстрактно, чисто с формальной, математической точки зрения вроде бы понятно – есть что-то, какая-то операция, приводящая при определенных условиях к некому результату. Но на данном этапе совершенно не понятно, в чем же реально заключается крутизна СВ и СЗ, когда и в каком виде этот аппарат может быть применен в реальных задачах. В прилагаемом материале автор вроде бы пытается тут же связать абстрактную математику и реальную жизнь (… simple example to demonstrate of eigenvectors …) и начинает рассматривать случай комплексной экспоненты в АБГШ (14.81). Ну и соответственно начинается :( Общая мысль, которая проводится – типа рассчитаем АКФ, сформировать матрицу, найдем СВ и СЗ и будем счастливы (будем знать шум и сигнал). Несмотря на то, что понятие АКФ мне понятно и математически и его реальный приклад, здесь возникают непонятки – а с какого перепугу автор принял решение, что ему для решения задачи кровь из носа требуется взять АКФ. Затем из АКФ ему почему то потребовалось поиметь матрицу (АКМ) да еще именно только при -1 0 +1 сдвигах. Затем он начинает рассматривать АКМ через призму СВ и СЗ. Откуда у него такая предварительная уверенность, что если он разложит АКМ на СВ, то СВ с наименьшим СЗ будет шумом, а с максимальным СЗ сигналом? Ведь по идее, чисто формально, я предположим беру 5 отсчетов смеси сигнал+шум и записываю их в одну строку, беру следующие 5 отсчетов и записываю во вторую строку и т.д. в итоге формирую матрицу 5х5. Затем нахожу “магические” СВ и СЗ ну и т.д., почему этот подход ни к чему не приведет? Итого: 1. При решении различных вопросов что является признаком того, что применение аппарата СВ необходимо, оправданно, выгодно? 2. Почему именно корреляционная функция (авто или взаимо) является объектом разложения на СВ? |
|
👍 +5 👎 |
Полный сумбур.
Дело в том, что у вас неправильное понимание, того, что делает оператор (и его представление в базисе --- матрица, с вектром). Оператор может делать с вектром многое, поворачивать, проецировать, паралельный перенос и т. д. Собственные вектора не зависят от матрицы оператора, а только от самого оператора. Т. е. у подобных матриц одни и те же собственные вектора и числа. На собственных векторах оператор действует, как гомотетия с коэффициентом соответствующим собственному числу. Т. е. вдоль собственных направлений происходит только растяжение или сжатие пространства, а саму прямую собственных векторов оператор оставляет на месте. Т. о., зная действие оператора на собственных направлениях мы можем полностью описать его действие на всем пространстве. Это и происходит, когда мы строим жорданов базис из собственных векторов. В этом базисе, в простейшем случае, (если количество собственных векторов равно размерности пространства) получится диагональная матрица, которая и будет растягивать и сжимать базисные вектора в соответствии с собственными числами. В более сложном случае будет чуть интереснее. Попробуйте нарисовать на клетчатом листке бумаги две прямые (лучше не перпендикулярные) собственных направлений, придумайте собственные числа и посмотрите, что будет происходить с другими векторами при действии на них этим оператором раскладывая их по этому базису. Запишите матрицу этого оператора в этом, и в каком-нибудь другом базисе, удостоверьтесь, что действуют эти матрицы одинаково. |
|
👍 +1 👎 |
Действительно, сумбур.
У подобных матриц одни и те же собственные вектора ??? Рассмотрим матрицы ((1,0),(0,2)) и ((0,-1),(2,3)) с одинаковыми характеристическими уравнениями: l^2-3l+2=0, равными собственными числами {1,2}, но с разными собственными векторами, которые им соответствуют. Другое дело, что на эти наборы и в том, и в другом случаях натянуто L2. |
|
👍 +3 👎 |
Естественно одни и те же --- это две матрицы одного и того же оператора, но в разных базисах. Сообтветственно и представление этих векторов в разных базисах разное.
|
|
👍 +1 👎 |
Несмотря на то, качество моего понимания СВ и СЗ требует дальнейшего длительного совершенствования, сейчас вопросы о СВ и СЗ стоят не абстрактно математически, а в их возможном прикладе (для меня в области сигналов, изображений).
Когда я рассматриваю СВ абстрактно, то проблем то больших нет – есть определение, есть свойства, есть правила и вперед. Но как их к реальным задачам привязать тут полный нуль спэйс. Например, если в качестве каких-либо выкладок всплывает что-то, что можно представить матрицей и это что-то надо как-то преобразовать, то здесь переход от “первичной” матрицы к ее диагональному представлению через СВ и СЗ и более простые в дальнейшем вычисления вполне логично и понятно. Более менее логично и понятно когда СВ интерпретируются как базис для сжатия. Но часто встречаются ситуации, когда необходимо решить задачу и кто-то из авторов начинает пользоваться аппаратом СВ и СЗ. Например, есть смесь сигнала и шума. Надо определить мощность шума. Обычно я решаю эту задачу просто – окно, Фурье, энергетический спектр ну и т.д. Это мне понятно, я понимаю какой параметр подстроить если что не так, если изменится условие задачи. Автор (да и не только он и не только в этом материале) же в приведенной ссылке каким то шаманским (для меня) чутьем говорит, что ща быстренько найдем минимальное СЗ и оно то и будет оценкой шума. Как я понимаю, максимальное СЗ будет соответствовать сигналу в этом раскладе. Где логическая связка, что при задаче когда S+N будет два СВ и один из них будет соответствовать N, а другой S? , почему он счел возможным привлечь СВ и СЗ, где в условии задачи есть предпосылка намек об этом подходе? А что должно и почему измениться в решении задачи если известно, что смесь состоит из трех гармонических сигналов и АБГШ – в этом случае тоже имеет право подход на разложение по СВ?, почему? Или уже нельзя? А если смесь состоит не из суммы АБГШ и гармонических сигналов, а АБГШ и речевого сигнала – в этом случае опять нам СВ помогут?, почему и какой размерности АКМ необходимо брать тогда? Или здесь аппарат СВ бессилен? Сколько я не читал литературы, везде либо формальное описание, либо безаппеляционные заявления – а вот давайте возьмем как то сформируем матрицу, а в этой матрице и ранг такой то, и сингулярнасть и симметричность и т.д. Если что то не так то ай ай плохо, затем находим СВ, СЗ и ура задача решена. И нигде не встречается логических рассуждений о том, что именно СВ на самом деле как то соотносятся с каким либо элементом, свойством сигнала, изображения. Почему при решении оценки шума через энергетический спектр совершенно не встают вопросы ни о ранге, ни о сингулярности, ни о симметричности? А как только задачу переводим в эквивалентный матричный вид, то в этом эквивалентном представлении появляется куча головняка, которого в исходном представлении не было? С другой стороны другой вопрос непонятен. Рассмотрим плоскость. На ней изображены квадраты, прямоугольники, треугольники, трапеции, окружности разных размеров, ориентаций, расположений. Задача разобрать, разложить квадраты к квадратам, трапеции к трапециям и т.д. По условию задачи вроде бы видно – есть вращение, есть перемещение, есть масштабирование, при этом суть фигур не меняется, т.е. что то похоже на поведение СВ – их преобразуешь, а они кроме масштабирования не поддаются. Вроде бы напрашивается аппарат СВ, но что в этом случае и почему под СВ понимать совершенно непойму. Прошу прощения за такой “роман”, но просто бесит когда не чувствуешь вопроса, хоть в ряде случаев как попугай с умным видом тупо повторяю некие решения на базе СВ. И литературы и нашей и забугорной перерыл, но :( |
|
👍 0 👎 |
Сергей, здравствуйте. Вот уже почти 10 лет прошло с момента Ваших разбирательств. Спрошу Вас как человека, судя по всему, смотрящего в суть. Получилось разобраться? Мне интересно как я могу поставить аппарат спектрального разложения матриц себе на службу. В первую очередь интересно: ОМП на фоне АБГШ, примеры элегантного решения матричных уравнений. И главное: наиболее используемые аналитические трюки.
|
|
👍 +1 👎 |
Найдите здесь тему "Метод главных компонент", там я приводил пример практического применения собственных векторов.
|
|
👍 0 👎 |
Читал, там в принципе применительно к тому классу задач общий смысл и логика понятны, хотя не без нюансов.
|
|
👍 −3 👎 |
Уважаемый Сергей, присоединяюсь к Вашему вопросу. Похоже, что или никто до конца не понимает, или не умеет объяснить. Очень помогло бы изложение, откуда вообще такой мат.аппарат появился, как теорема Пифагора — для измерения расстояний, или графы — на примере мостов Кенигсберга. Похоже, что происхождение СВ/СЧ кануло в лету, и его применяют по принципу "здесь так принято, и оно работает".
|
|
👍 −2 👎 |
Почему пост Ирины заминусовали? Лучше бы минусующие объяснили по существу поднятые в этой ветке и годами не разрешенные вопросы (тоже застрял на этой теме).
|
|
👍 +1 👎 |
Артур, здравствуйте!
Попытаюсь добавить свои 5 копеек к тому, что здесь сказано (хотя по сути я, конечно, ничего нового не скажу). Не буду обсуждать те специфические проблемы, которые волновали Сергея 7 лет назад, просто скажу пару слов о собственных векторах. 1) По поводу "здесь так принято, и оно работает", о чём писала Ирина. Да, это так, и это вполне достойная причина изучить эту тематику. Если какой-то инструмент позволяет решать широкий круг задач, то стоит приложить усилия к тому, чтобы его освоить. 2) Второе, и не менее важное: язык собственных векторов и собственных чисел очень удобен для того, чтобы понять и осмыслить, как действует та или иная матрица или тот или иной оператор. Собственные векторы — это векторы, на которые матрица действует самым простым образом: либо не изменяет его направления (растягивает, сжимает либо оставляет без изменения), либо меняет на противоположное (и опять-таки после этого растягивает-сжимает-оставляет), либо обращает в ноль. И если, предположим, в трёхмерном пространстве мы знаем, что один вектор под действием матрицы растягивается втрое, другой превращается в противоположный, а третий обнуляется, то мы примерно уже и представляем, как этот оператор действует на любой вектор пространства: этот вектор нужно разложить по базису из упомянутых собственных векторов, каждое слагаемое умножить либо на 3, либо на -1, либо на 0, а потом всё сложить. Это удобное и наглядное представление — во всяком случае, более наглядное (обычно), чем исходное определение, описывающее умножение матрицы на вектор. На всякий случай: собственные векторы не всегда образуют базис, но если, например, матрица симметричная, то в этом случае уже всегда найдётся ортонормированный базис из собственных векторов. В частности, в механике так называемый тензор инерции, который, действуя на вектор угловой скорости, даёт вектор момента количества движения, задаётся именно такой матрицей. А её собственные векторы определяют направления осей, при вращении вокруг которых векторы угловой скорости и момента импулься сонаправлены. |