Что такое симметричная матрица
Перейти к содержимому

Что такое симметричная матрица

  • автор:

Линейная алгебра для исследователей данных

Иллюстрация: UCI

Иллюстрация: UCI

«Наша [Ирвинга Капланского и Пола Халмоша] общая философия в отношении линейной алгебры такова: мы думаем в безбазисных терминах, пишем в безбазисных терминах, но когда доходит до серьезного дела, мы запираемся в офисе и вовсю считаем с помощью матриц».

Ирвинг Капланский

Для многих начинающих исследователей данных линейная алгебра становится камнем преткновения на пути к достижению мастерства в выбранной ими профессии.

kdnuggets

kdnuggets

В этой статье я попытался собрать основы линейной алгебры, необходимые в повседневной работе специалистам по машинному обучению и анализу данных.

Произведения векторов

Для двух векторов x, y ∈ ℝⁿ их скалярным или внутренним произведением xy

называется следующее вещественное число:

Как можно видеть, скалярное произведение является особым частным случаем произведения матриц. Также заметим, что всегда справедливо тождество

Для двух векторов x ∈ ℝᵐ, y ∈ ℝⁿ (не обязательно одной размерности) также можно определить внешнее произведение xyᵀ ∈ ℝᵐˣⁿ. Это матрица, значения элементов которой определяются следующим образом: (xy)ᵢⱼ = xy, то есть

Следом квадратной матрицы A ∈ ℝⁿˣⁿ, обозначаемым tr(A) (или просто trA), называют сумму элементов на ее главной диагонали:

След обладает следующими свойствами:

Для любой матрицы A ∈ ℝⁿˣⁿ: trA = trAᵀ.

Для любой матрицы A ∈ ℝⁿˣⁿ и любого числа t ∈ ℝ: tr(tA) = t trA.

Для любых матриц A,B, таких, что их произведение AB является квадратной матрицей: trAB = trBA.

Для любых матриц A,B,C, таких, что их произведение ABC является квадратной матрицей: trABC = trBCA = trCAB (и так далее — данное свойство справедливо для любого числа матриц).

Нормы

Норму ∥x∥ вектора x можно неформально определить как меру «длины» вектора. Например, часто используется евклидова норма, или норма l₂:

Заметим, что ‖x‖₂²=xᵀx.

Более формальное определение таково: нормой называется любая функция f : ℝn → ℝ, удовлетворяющая четырем условиям:

Для всех векторов x ∈ ℝⁿ: f(x) ≥ 0 (неотрицательность).

f(x) = 0 тогда и только тогда, когда x = 0 (положительная определенность).

Для любых вектора x ∈ ℝⁿ и числа t ∈ ℝ: f(tx) = |t|f(x) (однородность).

Для любых векторов x, y ∈ ℝⁿ: f(x + y) ≤ f(x) + f(y) (неравенство треугольника)

Другими примерами норм являются норма l

Все три представленные выше нормы являются примерами норм семейства lp, параметризуемых вещественным числом p ≥ 1 и определяемых как

Нормы также могут быть определены для матриц, например норма Фробениуса:

Линейная независимость и ранг

Множество векторов <x₁, x₂, . xₙ> ⊂ ₘ называют линейно независимым, если никакой из этих векторов не может быть представлен в виде линейной комбинации других векторов этого множества. Если же такое представление какого-либо из векторов множества возможно, эти векторы называют линейно зависимыми. То есть, если выполняется равенство

для некоторых скалярных значений α₁,…, αₙ-₁ ∈ , то мы говорим, что векторы x₁, . x ₙ линейно зависимы; в противном случае они линейно независимы. Например, векторы

линейно зависимы, так как x₃ = −2xₙ + x₂.

Столбцовым рангом матрицы A ∈ ℝᵐˣⁿ называют число элементов в максимальном подмножестве ее столбцов, являющемся линейно независимым. Упрощая, говорят, что столбцовый ранг — это число линейно независимых столбцов A. Аналогично строчным рангом матрицы является число ее строк, составляющих максимальное линейно независимое множество.

Оказывается (здесь мы не будем это доказывать), что для любой матрицы A ∈ ℝᵐˣⁿ столбцовый ранг равен строчному, поэтому оба этих числа называют просто рангом A и обозначают rank(A) или rk(A); встречаются также обозначения rang(A), rg(A) и просто r(A). Вот некоторые основные свойства ранга:

Для любой матрицы A ∈ ℝᵐˣⁿ: rank(A) ≤ min(m,n). Если rank(A) = min(m,n), то A называют матрицей полного ранга.

Для любой матрицы A ∈ ℝᵐˣⁿ: rank(A) = rank(Aᵀ).

Для любых матриц A ∈ ℝᵐˣⁿ, Bn×p: rank(AB) ≤ min(rank(A),rank(B)).

Ортогональные матрицы

Два вектора x, yⁿ называются ортогональными, если xy = 0. Вектор xⁿ называется нормированным, если ||x||₂ = 1. Квадратная м

атрица Uⁿˣⁿ называется ортогональной, если все ее столбцы ортогональны друг другу и нормированы (в этом случае столбцы называют ортонормированными). Заметим, что понятие ортогональности имеет разный смысл для векторов и матриц.

Непосредственно из определений ортогональности и нормированности следует, что

Другими словами, результатом транспонирования ортогональной матрицы является матрица, обратная исходной. Заметим, что если U не является квадратной матрицей (U ∈ ℝᵐˣⁿ, n < m), но ее столбцы являются ортонормированными, то UU = I, но UUᵀ ≠ I. Поэтому, говоря об ортогональных матрицах, мы будем по умолчанию подразумевать квадратные матрицы.

Еще одно удобное свойство ортогональных матриц состоит в том, что умножение вектора на ортогональную матрицу не меняет его евклидову норму, то есть

для любых вектора x ∈ ℝⁿ и ортогональной матрицы U ∈ ℝⁿˣⁿ.

TimoElliott

TimoElliott

Область значений и нуль-пространство матрицы

Линейной оболочкой множества векторов <x₁, x₂, . xₙ> является множество всех векторов, которые могут быть представлены в виде линейной комбинации векторов <x₁, . xₙ>, то есть

Областью значений R(A) (или пространством столбцов) матрицы A ∈ ℝᵐˣⁿ называется линейная оболочка ее столбцов. Другими словами,

Нуль-пространством, или ядром матрицы A ∈ ℝᵐˣⁿ (обозначаемым N(A) или ker A), называют множество всех векторов, которые при умножении на A обращаются в нуль, то есть

Квадратичные формы и положительно полуопределенные матрицы

Для квадратной матрицы A ∈ ℝⁿˣⁿ и вектора xквадратичной формой называется скалярное значение xAx. Распишем это выражение подробно:

Симметричная матрица A ∈ ��ⁿ называется положительно определенной, если для всех ненулевых векторов xⁿ справедливо неравенство xAx > 0. Обычно это обозначается как

(или просто A > 0), а множество всех положительно определенных матриц часто обозначают

Симметричная матрица A ∈ ��ⁿ называется положительно полуопределенной, если для всех векторов справедливо неравенство xAx ≥ 0. Это записывается как

(или просто A ≥ 0), а множество всех положительно полуопределенных матриц часто обозначают

Аналогично симметричная матрица A ∈ ��ⁿ называется отрицательно определенной

, если для всех ненулевых векторов xⁿ справедливо неравенство xAx < 0.

Далее, симметричная матрица A ∈ ��ⁿ называется отрицательно полуопределенной (

), если для всех ненулевых векторов xⁿ справедливо неравенство xAx ≤ 0.

Наконец, симметричная матрица A ∈ ��ⁿ называется неопределенной, если она не является ни положительно полуопределенной, ни отрицательно полуопределенной, то есть если существуют векторы x₁, x₂ ∈ ⁿ такие, что

Собственные значения и собственные векторы

Для квадратной матрицы Aⁿˣⁿ комплексное значение λ ∈ ℂ и вектор x ∈ ℂⁿ будут соответственно являться собственным значением и собственным вектором, если выполняется равенство

На интуитивном уровне это определение означает, что при умножении на матрицу A вектор x сохраняет направление, но масштабируется с коэффициентом λ. Заметим, что для любого собственного вектора x ∈ ℂⁿ и скалярного значения с ∈ ℂ справедливо равенство A(cx) = cAx = cλx = λ(cx). Таким образом, cx тоже является собственным вектором. Поэтому, говоря о собственном векторе, соответствующем собственному значению λ, мы обычно имеем в виду нормализованный вектор с длиной 1 (при таком определении все равно сохраняется некоторая неоднозначность, так как собственными векторами будут как x, так и –x, но тут уж ничего не поделаешь).

Перевод статьи был подготовлен в преддверии старта курса «Математика для Data Science». Также приглашаем всех желающих посетить бесплатный демоурок, в рамках которого рассмотрим понятие линейного пространства на примерах, поговорим о линейных отображениях, их роли в анализе данных и порешаем задачи.

Значение словосочетания «симметричная матрица»

Это означает, что она равна её транспонированной матрице:

симметричная матрица

1. матем. квадратная матрица, сохраняющая свой вид при транспонировании

Делаем Карту слов лучше вместе

/>Привет! Меня зовут Лампобот, я компьютерная программа, которая помогает делать Карту слов. Я отлично умею считать, но пока плохо понимаю, как устроен ваш мир. Помоги мне разобраться!

Спасибо! Я стал чуточку лучше понимать мир эмоций.

Вопрос: сбитенщик — это что-то нейтральное, положительное или отрицательное?

Ассоциации к слову «матрица&raquo

Синонимы к словосочетанию «симметричная матрица&raquo

Сочетаемость слова «симметричный&raquo

Сочетаемость слова «матрица&raquo

Понятия, связанные со словосочетанием «симметричная матрица»

В математике (общей алгебре) многочлен от нескольких переменных над полем называется гармоническим, если лапласиан этого многочлена равен нулю.

В классической механике ско́бки Пуассо́на (также возможно ско́бка Пуассо́на и скобки Ли) — это оператор, играющий центральную роль в определении эволюции во времени динамической системы. Эта операция названа в честь С.-Д. Пуассона.

Симметричная матрица

Симметричной называют квадратную матрицу, элементы которой симметричны относительно A <\displaystyle A>, что ∀ i , j : a i j = a j i <\displaystyle \forall i,j:a_=a_> .

Это означает, что она равна её транспонированной матрице:

Примеры [ ]

Свойства [ ]

Симметричная матрица всегда:

  • квадратная
  • имеет действительные a i j ∗ a j i = 0 <\displaystyle a_*a_=0>
Формула Это незавершённая статья по алгебре. Вы можете помочь проекту, исправив и дополнив её.

Эта страница использует содержимое раздела Википедии на русском языке. Оригинальная статья находится по адресу: Симметричная матрица. Список первоначальных авторов статьи можно посмотреть в истории правок. Эта статья так же, как и статья, размещённая в Википедии, доступна на условиях CC-BY-SA .

Симметричная матрица

Матрица имеет вид $$ A=\left( \begin a_ <11>& \colora_ <12>& \colora_ <13>& \dots & \colora_ <1n>\\ \colora_ <12>& a_ <22>& \colora_ <23>& \dots & \colora_ <2n>\\ \colora_ <13>& \colora_ <23>& a_ <33>& \dots & a_ <3n>\\ \vdots & & & \ddots & \vdots \\ \colora_ <1n>& \colora_ <2n>& a_ <3n>& \dots & a_ \end \right) ; $$ характеризуется свойством $$ A^<\top>=A \ . $$ Для задания симметричной матрицы порядка $ n_<> $ необходимо, в общем случае, задать $ C_n^2=n(n-1)/2 $ ее элементов — стоящих на главной диагонали и выше ее (или ниже).

Теорема. Для любой матрицы $ A_<> $ матрицы $ A_<>A^ <\top>$ и $ A^ <\top>A $ — симметричны. Для любой квадратной матрицы $ A_<> $ матрица $ A_<>+A^ <\top>$ — симметрична.

Определитель

Теорема [Кэли]. В полном разложении определителя симметричной матрицы порядка $ n $ обозначим $ \mathfrak s_n $ число слагаемых, $ \mathfrak s_n^ <(+)>$ — число слагаемых с положительным знаком, $ \mathfrak s_n^ <(-)>$ — число слагаемых с отрицательным знаком, а $ \mathfrak d_n =\mathfrak s_n^ <(+)>— \mathfrak s_n^ <(-)>$. Имеют место соотношения:

$$ \mathfrak s_=(n+1)\mathfrak s_n- C_n^2 \mathfrak s_ \ ; $$ $$ \mathfrak d_=-(n-1)\mathfrak d_n- C_n^2 \mathfrak d_ \ . $$

Имеют место пределы:

Миноры: тождества Кронекера

Теорема [Кронекер]. Для симметричной матрицы $ A_<> $ порядка $ n \ge k+1 $ имеет место тождество

$$ A\left(\begin 1 & 2 & \dots & k-2 & k \\ 2 & 3 & \dots & k-1 & k+1 \end \right)- A\left(\begin 2 & 3 & \dots & k-1 & k \\ 1 & 2 & \dots & k-2 & k+1 \end \right)= $$ $$ = A\left(\begin 1 & 2 & \dots & k-3 & k-2 & k-1 \\ 2 & 3 & \dots & k-2 & k & k+1 \end \right) \ , $$ связывающее три ее минора порядка $ k-1 $.

Пример. Для $ k=4 $:

В настоящем разделе минор матрицы $ A $ $$ A\left( \begin j_1 & \dots & j_k \\ j_1 & \dots & j_k \end \right) = \left|\begin a_ & a_ & \dots & a_ \\ a_ & a_ & \dots & a_ \\ \vdots & & \ddots & \vdots \\ a_ & a_ & \dots & a_ \end \right| , \quad 1\le j_1<j_2< \dots < j_k \le n $$ составленный из элементов матрицы, стоящих в строках и столбцах с одинаковыми номерами, будет называться ведущим минором $ k $-го порядка матрицы $ A $. В частном случае $ j_1=1, j_2=2,\dots,j_k=k $ этот минор будет называться главным минором $ k $-го порядка матрицы $ A $.

Теорема. Если $ \mathfrak r = \operatorname (A)\ge 1 $, то в матрице $ A $ существует ненулевой ведущий минор порядка $ \mathfrak r $.

Произведение

Теорема. Для того, чтобы произведение симметричных матриц $ A $ и $ B $ было симметричной матрицей необходимо и достаточно, чтобы матрицы $ A $ и $ B $ коммутировали: $ AB = BA $.

Обратная матрица

Теорема. Обратная к симметричной матрице (если существует) будет симметричной матрицей.

Характеристический полином, собственные числа, собственные векторы

Теорема 1. Все собственные числа симметричной матрицы вещественны.

Доказательство ☞ ЗДЕСЬ.

Если $ \lambda=0 $ корень кратности $ \mathfrak m $ характеристического полинома симметричной матрицы $ A $, т.е.

$$ \det (A-\lambda E)\equiv(-1)^n \lambda^n+a_1\lambda^+\dots+a_ \lambda^ <\mathfrak m>\quad npu \ a_\ne 0 $$ то $ \operatorname (A)=n-\mathfrak m $.

Если в характеристическом полиноме некоторый коэффициент $ a_j $ при $ j \not\in \ <0,n\>$ обращается в нуль, то соседние с ним в нуль не обращаются и имеют различные знаки: $ a_ a_ < 0 $.

Теорема 2. Собственные векторы, принадлежащие различным собственным числам симметричной матрицы $ A_<> $, ортогональны, т.е. если $ \mathfrak X_1 $ принадлежит собственному числу $ \lambda_ <1>$, а $ \mathfrak X_2 $ принадлежит собственному числу $ \lambda_ <2>$ и $ \lambda_1 \ne \lambda_2 $, то

Локализация собственных чисел

Теорема 3 [Коши]. Для симметричной матрицы $ A_<> $ число ее собственных чисел, лежащих на интервале $ ]a,b_<>[ $, определяется по формуле:

Доказательство и примеры ☞ ЗДЕСЬ.

Согласно этой теореме, главные миноры матрицы $ A-\lambda\, E $ играют роль системы полиномов Штурма для характеристического полинома симметричной матрицы $ A_<> $.

$$ A_1,A_2,\dots,A_ $$ симметричной матрицы $ A_<> $ отличны от нуля, то число положительных собственных чисел матрицы $ A_<> $ равно числу знакопостоянств, а число отрицательных собственных чисел — числу знакоперемен в ряду $ 1,A_1,\dots,A_n $:

Численные методы нахождения собственных чисел

QR-алгоритм поиска всех собственных чисел ☞ ЗДЕСЬ.

Часто в приложениях требуется вычислить значения не всех собственных чисел симметричной матрицы, а только небольшого (по сравнению с порядком матрицы) количества максимальных по модулю. Численный метод решения этой задачи изложен ☞ ЗДЕСЬ.

Диагонализуемость

Теорема 4. Существует ортогональная матрица $ P_<> $, приводящая симметричную матрицу $ A_<> $ к диагональному виду:

Доказательство особенно просто в случае когда все собственные числа $ \lambda_1,\dots, \lambda_n $ различны. На основании теоремы 1 матрица $ A_<> $ диагонализуема над множеством вещественных чисел и на основании теоремы 2 матрица $ P $, приводящая к диагональному виду, может быть выбрана ортогональной.

Для общего случая доказательство производится индукцией по порядку $ n $ матрицы $ A $. Окончание доказательства ☞ ЗДЕСЬ. ♦

Теорема утверждает что даже при наличии кратных корней у характеристического полинома $$ f(\lambda)=(-1)^n(\lambda — \lambda_1)^<<\mathfrak m>_1> \times \dots \times (\lambda — \lambda_<\mathfrak r>)^<<\mathfrak m>_<\mathfrak r>>, \quad <\mathfrak m>_1+\dots+<\mathfrak m>_<<\mathfrak r>>=n, \ \lambda_k \ne \lambda_ <\ell>\ npu \ k \ne \ell $$ алгебраическая кратность собственного числа $ \lambda_j $ совпадает с его геометрической кратностью: $$\operatorname \, (A-\lambda_j\, E)= <\mathfrak m>_j\, npu \quad \forall j\in \ <1,\dots,\mathfrak r\>.$$ Или, что то же: размерность собственного подпространства $$ \left\ \right\> $$ равна $ <\mathfrak m>_j $. При нахождении фундаментальной системы решений (ФСР) указанной системы уравнений мы получим $ <\mathfrak m>_j $ линейно независимых собственных векторов $ \<<\mathfrak X>_,\dots, <\mathfrak X>__j> \> $ , принадлежащих $ \lambda_j $. Однако при традиционных способах построения ФСР вовсе не гарантирована ортогональность этих векторов. Как построить ФСР так, чтобы она удовлетворяла условию теоремы, т.е. была ортонормированной? Воспользуемся для этого процессом ортогонализации Грама-Шмидта, применив его к системе $ \<<\mathfrak X>_,\dots, <\mathfrak X>__j> \> $. Результатом процесса будет новая система векторов $ \<<\mathfrak Y>_,\dots, <\mathfrak Y>__j> \> $ такая что ее линейная оболочка совпадает с линейной оболочкой исходной системы: $$ <\mathcal L>\left(<\mathfrak Y>_,\dots, <\mathfrak Y>__j> \right)= <\mathcal L>\left(<\mathfrak X>_,\dots, <\mathfrak X>__j> \right) \quad \mbox < и >\quad \langle <\mathfrak Y>_,<\mathfrak Y>_ \rangle =0 \ \mbox < при >\ k \ne \ell \, , $$ т.е. векторы $ <\mathfrak Y>_,\dots, <\mathfrak Y>__j> $ остаются собственными векторами, принадлежащими $ \lambda_j $. Но теперь эти новые векторы попарно ортогональны. Нормировав их, мы получим требуемую теоремой систему из $ <\mathfrak m>_j $ ортогонормированных столбцов матрицы $ P $, соответствующих кратному собственному числу $ \lambda_j $.

Пример. Диагонализовать матрицу

Решение. Имеем: $$ \det (A-\lambda E) \equiv (\lambda-3)(\lambda+3)(\lambda-1)^3(\lambda+1)^3 \, . $$ Ищем собственные векторы. Для простых собственных чисел: $$ \lambda_1=-3 \ \Rightarrow \ \mathfrak X_1=\left[1,-1,1,,-1,-1,1,-1,1\right]^ <\top>\ ; $$ $$ \lambda_2=3 \ \Rightarrow \ \mathfrak X_2=\left[-1,-1,-1,-1,1,1,1,1\right]^ <\top>\ . $$ Эти столбцы войдут в состав матрицы $ P $, только их надо нормировать: $ \mathfrak X_ /|\mathfrak X_| $. Для кратных собственных чисел $ \lambda_j \in \ <-1,1\>$ сначала находим произвольные ФСР $$ \lambda_3=1 \ \Rightarrow \ \left\<\begin x_1&-x_2 & &-x_4 & & & &+x_8 & =0 \\ & x_2 &-x_3 & +x_4 & & -x_6 & & & =0 \\ & & x_3 & +x_4 & & & -x_7 &-x_8& =0 \\ & & & 3\,x_4 &+x_5 & -x_6 & -2\,x_7 & -x_8 & =0 \\ & & & & x_5 & -x_6 & +x_7 & -x_8 & =0 \end \right. $$ $$ \Rightarrow \mathfrak X_ <3,1>=\left[1,1,0,0,1,1,0,0 \right]^<\top>\ ;\mathfrak X_ <3,2>=\left[ 0,-1,0,1,-1,0,1,0 \right]^<\top>;\ \mathfrak X_ <3,3>=\left[0,1,1,0,1,0,0,1 \right]^ <\top>\ . $$ $$ \lambda_4=-1 \ \Rightarrow \quad \left\< \begin \mathfrak X_ <4,1>=\left[-1,1,0,0,-1,1,0,0 \right]^<\top>\\ \mathfrak X_ <4,2>=\left[ 0,1,-1,0,-1,0,0,1 \right]^ <\top>\\ \mathfrak X_ <4,3>=\left[0,1,0,-1,-1,0,1,0 \right]^ <\top>\end \right\>\, . $$ Применяем к каждой из них алгоритм ортогонализации Грама-Шмидта: $$\mathfrak Y_<3,1>=\mathfrak X_<3,1>=\left[1,1,0,0,1,1,0,0 \right]^<\top>; $$ $$ \mathfrak Y_<3,2>=\mathfrak X_<3,2>+ <\color\alpha > \mathfrak Y_<3,1>, \quad \langle \mathfrak Y_<3,2>,\mathfrak Y_ <3,1>\rangle =0 \quad \Rightarrow \ <\color\alpha >=-\frac<\langle \mathfrak X_<3,2>,\mathfrak Y_ <3,1>\rangle><\langle \mathfrak Y_<3,1>,\mathfrak Y_ <3,1>\rangle >=\frac<1> <2>\quad \Rightarrow $$ $$ \Rightarrow \mathfrak Y_<3,2>=\left[\frac<1><2>,-\frac<1><2>,0,1,-\frac<1><2>,\frac<1><2>,1,0 \right]^ <\top>; $$ $$ \mathfrak Y_<3,3>=\mathfrak X_<3,3>+ <\color\beta > \mathfrak Y_<3,1>+ <\color\gamma > \mathfrak Y_<3,2>, \quad \langle \mathfrak Y_<3,3>,\mathfrak Y_ <3,1>\rangle =0, \langle \mathfrak Y_<3,3>,\mathfrak Y_ <3,2>\rangle =0 \quad \Rightarrow \ $$ $$ <\color\beta > =-\frac<\langle \mathfrak X_<3,3>,\mathfrak Y_ <3,1>\rangle><\langle \mathfrak Y_<3,1>,\mathfrak Y_ <3,1>\rangle>=-\frac<1><2>,\ <\color\gamma > =-\frac<\langle \mathfrak X_<3,3>,\mathfrak Y_ <3,2>\rangle ><\langle \mathfrak Y_<3,2>,\mathfrak Y_ <3,2>\rangle >=\frac<1> <3>\quad \Rightarrow \ $$ $$ \Rightarrow \mathfrak Y_<3,3>=\left[-\frac<1><3>,\frac<1><3>,1,\frac<1><3>,\frac<1><3>,-\frac<1><3>,\frac<1><3>,1 \right]^ <\top>\, . $$ $$ \mathfrak Y_<4,1>=\mathfrak X_<4,1>=\left[-1,1,0,0,-1,1,0,0 \right]^<\top>, \mathfrak Y_<4,2>=\left[\frac<1><2>,\frac<1><2>,-1,0,-\frac<1><2>,-\frac<1><2>,0,1 \right]^<\top>, $$ $$ \mathfrak Y_<4,3>=\left[\frac<1><3>,\frac<1><3>,\frac<1><3>,-1,-\frac<1><3>,-\frac<1><3>,1,-\frac<1> <3>\right]^ <\top>\, . $$ После нормирования, составляем из этих векторов ортогональную матрицу: $$ P= \left(\begin -\sqrt<2>/4 & \sqrt<2>/4 & 1/2 & \sqrt<3>/6 & -\sqrt<6>/12 & -1/2 & \sqrt<3>/6 & \sqrt<6>/12 \\ -\sqrt<2>/4 & -\sqrt<2>/4 & 1/2 & -\sqrt<3>/6 & \sqrt<6>/12 & 1/2 & \sqrt<3>/6 & \sqrt<6>/12 \\ -\sqrt<2>/4 & \sqrt<2>/4 & 0 & 0 & \sqrt<6>/4 & 0 & -\sqrt<3>/3 & \sqrt<6>/12 \\ -\sqrt<2>/4 & -\sqrt<2>/4 & 0 & \sqrt<3>/3 & \sqrt<6>/12 & 0 & 0 & -\sqrt<6>/4 \\ \sqrt<2>/4 & -\sqrt<2>/4 & 1/2 & -\sqrt<3>/6 & \sqrt<6>/12 & -1/2 & -\sqrt<3>/6 & -\sqrt<6>/12 \\ \sqrt<2>/4 & \sqrt<2>/4 & 1/2 & \sqrt<3>/6 & -\sqrt<6>/12 & 1/2 & -\sqrt<3>/6 & -\sqrt<6>/12 \\ \sqrt<2>/4 & -\sqrt<2>/4 & 0 & \sqrt<3>/3 & \sqrt<6>/12 & 0 & 0 & \sqrt<6>/4 \\ \sqrt<2>/4 & \sqrt<2>/4 & 0 & 0 & \sqrt<6>/4 & 0 & \sqrt<3>/3 & -\sqrt<6>/12 \end \right) \, . $$ $$ P^<\top>AP= \left( \begin 3&&&&&&& \\ &-3&&&&&& \\ &&1&&&&& \\ &&&1&&&& \\ &&&&1&&& \\ &&&&&-1&& \\ &&&&&&-1& \\ &&&&&&&-1 \end \right) \, . $$ ♦

Квадратичная форма

Экстремальное свойство собственных чисел

Пусть уравнение $ X^<^<\top>>A X=1 $ задает эллипсоид в $ \mathbb R^3 $, т.е. квадратичная форма положительно определена. Построить посылочный ящик минимального объема (минимальный параллелепипед), содержащий данный эллипсоид.

Решение. Если уравнение эллипсоида приведено к каноническому виду $$ \frac+\frac+\frac=1, $$ то ответ геометрически очевиден: эллипсоид «шире всего» в направлении оси, соответствующей максимальному из трех чисел $ a,b,c $, и «уже всего» в направлении оси, соответствующей минимальному из этих чисел. То есть размер оптимального посылочного ящика — $ (2\,a, 2\,b, 2\,c) $. В случае, если уравнение $ X^<^<\top>>A X=1 $ не приведено к каноническому виду, его можно привести к нему с помощью ортогональной замены переменных. Такая замена оставляет инвариантными размеры эллипсоида, а результатом ее становится уравнение эллипсоида в каноническом виде $$ \lambda_1 y_1^2+\lambda_2 y_2^2+\lambda_3 y_3^2=1 \, . $$ Здесь $ \lambda_1,\lambda_2,\lambda_3 $ — собственные числа матрицы $ A $, они являются положительными ввиду предположения о положительной определенности этой матрицы. Соответствующие собственные векторы матрицы определяют главные оси эллипсоида 1) . Сравнивая два канонических вида уравнения эллипсоида, можем размеры посылочного ящика сформулировать в терминах собственных чисел матрицы: максимальный размер эллипсоид имеет равным $ 2/\sqrt<\min \<\lambda_1,\lambda_2,\lambda_3\>> $, а минимальный — равным $ 2/\sqrt<\max \<\lambda_1,\lambda_2,\lambda_3\>> $. Если эллипсоид нельзя поворачивать вокруг начала координат, то для того, чтобы поместить его в ящик размеров $ 2/\sqrt<\lambda_1>, 2/\sqrt<\lambda_2>, 2/\sqrt <\lambda_3>$ последний надо ориентировать в пространстве: рёбра должны быть параллельны собственным векторам матрицы $ A $. ♦

Замеченное свойство собственных чисел симметричной матрицы распространяется и в многомерное пространство. Традиционно его формулируют в несколько ином виде — хотя и менее наглядном, но более ориентированном на приложения в задачах механики и статистики.

Задача. Найти условные экстремумы квадратичной формы $ F(X)=X^<^<\top>>A X $ на единичной сфере $$ \mathbb S= \< X\in \mathbb R^n \mid x_1^2+\dots+ x_n^2=1 \>\, . $$

В курсе математического анализа показывается, что, во-первых, указанные экстремумы существуют 2) , и, во-вторых, могут быть найдены применением метода множителей Лагранжа.

Теорема. Если $ \lambda_ <\max>$ — максимальное, а $ \lambda_ <\min>$ — минимальное собственные числа матрицы $ A $, то

$$ \max_ X^<^<\top>>A X =\lambda_<\max>, \qquad \min_ X^<^<\top>>A X =\lambda_ <\min>\, . $$ Указанные экстремумы квадратичная форма достигает на соответствующих собственных векторах матрицы $ A $ единичной длины.

Доказательство. Применяем метод множителей Лагранжа, т.е. составляем функцию $$L(X,\lambda) = F(X)- \lambda (X^<\top>X-1)$$ и ищем ее абсолютные экстремумы (как функции $ (n+1) $-го аргумента). На основании теоремы о стационарных точках полинома эти экстремумы должны достигаться на вещественных решениях системы уравнений $$ \left\< \begin <\partial L >\big/<\partial x_1 >=&2\left(a_<11>x_1+a_<12>x_2+\dots+a_<1n>x_n \right)-2 \lambda x_1 &=0, \\ \dots & & \dots \\ <\partial L >\big/<\partial x_n>=&2\left(a_x_1+a_x_2+\dots+a_x_n \right)-2 \lambda x_n &=0, \\ <\partial L >\big/<\partial \lambda >=&x_1^2+\dots +x_n^2-1 &= 0 \, . \end \right. $$ Решаем эту систему. Первые $ n $ уравнений перепишем в матричном виде $$AX-\lambda X=\mathbb O \ \iff \ (A-\lambda \, E) X=\mathbb O \, . $$ Из последнего уравнения системы следует, что $ X \ne \mathbb O $. Следовательно, решениями системы будут исключительно только собственные векторы $ <\mathfrak X>_j $ матрицы $ A $, при $ \lambda $ равном соответствующему собственному числу $ \lambda_j $ этой матрицы. При $ X=<\mathfrak X>_j $ и $ \lambda=\lambda_j $ получаем экстремальные значения функции $ F(X) $: $$F(<\mathfrak X>_j)=<\mathfrak X>_j^<^<\top>>A <\mathfrak X>_j = \lambda_j <\mathfrak X>_j^<^<\top>><\mathfrak X>_j=\lambda_j \, . $$ Откуда и следует утверждение теоремы. ♦

Еще один вариант экстремального свойства симметричной матрицы излагается ☞ ЗДЕСЬ.

Кососимметричная матрица

Эрмитова матрица

Обобщение понятия симметричной матрицы на матрицы с комплексными элементами можно было бы формально произвести по той же определяющей формуле $ A=A^ <\top>$. Однако такое обобщение практически не используется ввиду потери ряда полезных свойств вещественных симметричных матриц. Вместо этого используют матрицы вида $$ A=P+ \mathbf i Q \quad \mbox <при>\ \ \in \mathbb R^, \ P=P^<\top>, \ Q=-Q^ <\top>\ , $$ т.е. матрица $ P $ — симметричная, а $ Q $ — кососимметричная. Такие матрицы удовлетворяют равенству $$ \overline^<\top>= A \, $$ где $ \overline $ означает комплексное сопряжение всех элементов матрицы $ A $. Матрицы такого вида называются эрмитовыми. Они рассматривается ☞ ЗДЕСЬ.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *