Jacobiho matice (třídiagonální)

Možná hledáte: Jacobiho matice a determinant, matici parciálních derivací vektorové funkce.

Jacobiho matice je reálná symetrická třídiagonální matice s kladnými prvky na horní a dolní sekundární diagonále.

Definice

Reálnou čtvercovou matici řádu k {\displaystyle k} ve tvaru

J = ( α 1 β 2 β 2 α 2 β 3 β 3 β k β k α k ) , β i > 0 , i = 2 , , k , {\displaystyle {\boldsymbol {J}}={\begin{pmatrix}\alpha _{1}&\beta _{2}&&&\\\beta _{2}&\alpha _{2}&\beta _{3}&&\\&\beta _{3}&\ddots &\ddots &\\&&\ddots &\ddots &\beta _{k}\\&&&\beta _{k}&\alpha _{k}\end{pmatrix}},\qquad \beta _{i}>0,\quad i=2,\ldots ,k,}

nazýváme Jacobiho maticí. Speciálním (triviálním) případem je Jacobiho matice J = ( α 1 ) {\displaystyle {\boldsymbol {J}}=(\alpha _{1})} , k = 1 {\displaystyle k=1} . Jacobiho matice mají řadu specifických vlastností.

Spektrální vlastnosti

Vlastní čísla

Vlastní čísla Jacobiho matic mají násobnost jedna. Stačí si uvědomit, že pro libovolné číslo λ {\displaystyle \lambda } jsou druhý až poslední řádek v matici J k λ I {\displaystyle {\boldsymbol {J}}_{k}-\lambda \mathbf {I} } lineárně nezávislé:

( β 2 α 2 λ β 3 β 3 β k β k α k λ ) {\displaystyle {\begin{pmatrix}\beta _{2}&\alpha _{2}-\lambda &\beta _{3}&&\\&\beta _{3}&\ddots &\ddots &\\&&\ddots &\ddots &\beta _{k}\\&&&\beta _{k}&\alpha _{k}-\lambda \end{pmatrix}}}

Odtud plyne, že rank ( J λ I ) k 1 {\displaystyle \operatorname {rank} ({\boldsymbol {J}}-\lambda \mathbf {I} )\geq k-1} . Protože matice je symetrická, odpovídá její hodnost počtu nenulových vlastních čísel (včetně násobností). Každé vlastní číslo λ {\displaystyle \lambda } má tudíž násobnost jedna.

Protože matice je symetrická, vlastní čísla jsou navíc reálná a můžeme je seřadit

λ 1 ( J ) < λ 2 ( J ) < < λ k ( J ) . {\displaystyle \lambda _{1}({\boldsymbol {J}})<\lambda _{2}({\boldsymbol {J}})<\cdots <\lambda _{k}({\boldsymbol {J}}).}

Označíme-li J {\displaystyle {\boldsymbol {J}}'} vedoucí hlavní podmatici matice J {\displaystyle {\boldsymbol {J}}} řádu k 1 {\displaystyle k-1} , neboli

J = ( J 0 0 β k 0 0 β k α k ) {\displaystyle {\boldsymbol {J}}=\left({\begin{array}{c|c}{\boldsymbol {J}}'&\left.{\begin{array}{c}0\\\vdots \\0\\\beta _{k}\end{array}}\right.\\\hline \left.{\begin{array}{cccc}0&\cdots &0&\beta _{k}\end{array}}\right.&\alpha _{k}\end{array}}\right)} ,

pak J {\displaystyle {\boldsymbol {J}}'} je také Jacobiho matice. Vlastní čísla těchto dvou „po sobě jdoucích“ Jacobiho matic J {\displaystyle {\boldsymbol {J}}} a J {\displaystyle {\boldsymbol {J}}'} se striktně prokládají

λ 1 ( J ) < λ 1 ( J ) < λ 2 ( J ) < λ 2 ( J ) < < λ k 1 ( J ) < λ k ( J ) {\displaystyle \lambda _{1}({\boldsymbol {J}})<\lambda _{1}({\boldsymbol {J}}')<\lambda _{2}({\boldsymbol {J}})<\lambda _{2}({\boldsymbol {J}}')<\cdots <\lambda _{k-1}({\boldsymbol {J}}')<\lambda _{k}({\boldsymbol {J}})} .

Charakteristické polynomy dvou po sobě jdoucích Jacobiho matic nemají žádný společný kořen. To lze dokázat sporem; rozvojem determinantu det ( J k λ I ) {\displaystyle \det({\boldsymbol {J}}_{k}-\lambda \mathbf {I} )} podle posledního řádku a indukcí podle rozměru matice.

Mimo jiné také platí, že Jacobiho matice J {\displaystyle {\boldsymbol {J}}} a J {\displaystyle {\boldsymbol {J}}'} nemohou být obě singulární.

Vlastní vektory

Jsou-li λ , v {\displaystyle \lambda ,{\boldsymbol {v}}} vlastní číslo a jemu příslušný vlastní vektor Jacobiho matice J {\displaystyle {\boldsymbol {J}}} , kde

v = ( v 1 , v 2 , v 3 , , v k ) T , v 0 , {\displaystyle {\boldsymbol {v}}=(v_{1},v_{2},v_{3},\ldots ,v_{k})^{\mathrm {T} },\qquad \|{\boldsymbol {v}}\|\neq 0,}

pak

  • první prvek vlastního vektoru je nenulový, v 1 0 {\displaystyle v_{1}\neq 0} ,
  • poslední prvek vlastního vektoru je nenulový, v k 0 {\displaystyle v_{k}\neq 0} ,
  • libovolný dvouprvkový podvektor ( v , v + 1 ) {\displaystyle (v_{\ell },v_{\ell +1})} , = 1 , , k 1 {\displaystyle \ell =1,\ldots ,k-1} , je nenulový.

Všechna tři tvrzení lze dokázat sporem, prostým porovnáním prvků vektorů na obou stranách rovnosti

( α 1 β 2 β 2 α 2 β 3 β 3 β k β k α k ) ( v 1 v 2 v 3 v k ) = ( v 1 v 2 v 3 v k ) λ {\displaystyle {\begin{pmatrix}\alpha _{1}&\beta _{2}&&&\\\beta _{2}&\alpha _{2}&\beta _{3}&&\\&\beta _{3}&\ddots &\ddots &\\&&\ddots &\ddots &\beta _{k}\\&&&\beta _{k}&\alpha _{k}\end{pmatrix}}{\begin{pmatrix}v_{1}\\v_{2}\\v_{3}\\\vdots \\v_{k}\end{pmatrix}}={\begin{pmatrix}v_{1}\\v_{2}\\v_{3}\\\vdots \\v_{k}\end{pmatrix}}\lambda } .

Z předpokladu v 1 = 0 {\displaystyle v_{1}=0} a porovnání prvních prvků

α 1 v 1 + β 2 v 2 = v 1 λ {\displaystyle \alpha _{1}v_{1}+\beta _{2}v_{2}=v_{1}\lambda }

plyne v 2 = 0 {\displaystyle v_{2}=0} (neboť β 2 > 0 {\displaystyle \beta _{2}>0} ). Indukcí pak vyplývá v 1 = v 2 = = v k = 0 {\displaystyle v_{1}=v_{2}=\ldots =v_{k}=0} , což je ve sporu s v 0 {\displaystyle \|{\boldsymbol {v}}\|\neq 0} .

Užití k výpočtu vlastních čísel symetrických a hermitovských matic

Pro každou reálnou symetrickou matici A R k × k {\displaystyle {\boldsymbol {A}}\in \mathbb {R} ^{k\times k}} , A = A T {\displaystyle {\boldsymbol {A}}={\boldsymbol {A}}^{\mathrm {T} }} , existuje ortogonální matice G R k × k {\displaystyle {\boldsymbol {G}}\in \mathbb {R} ^{k\times k}} , G 1 = G T {\displaystyle {\boldsymbol {G}}^{-1}={\boldsymbol {G}}^{\mathrm {T} }} , taková, že

G A G T = J , kde J = ( J 1 J 2 J s ) , J R k × k , = 1 s k = k {\displaystyle {\boldsymbol {GAG}}^{\mathrm {T} }={\boldsymbol {J}}_{\oplus },\qquad {\text{kde}}\qquad {\boldsymbol {J}}_{\oplus }=\left({\begin{array}{cccc}{\boldsymbol {J}}_{1}\\&{\boldsymbol {J}}_{2}\\&&\ddots \\&&&{\boldsymbol {J}}_{s}\end{array}}\right),\quad {\boldsymbol {J}}_{\ell }\in \mathbb {R} ^{k_{\ell }\times k_{\ell }},\quad \sum _{\ell =1}^{s}k_{\ell }=k}

a kde J {\displaystyle {\boldsymbol {J}}_{\ell }} jsou Jacobiho matice. Matici G {\displaystyle {\boldsymbol {G}}} lze přitom zkonstruovat v konečném čase, tj. pomocí konečného počtu elementárních aritmetických operací (sčítání, odečítání, násobení, dělení a výpočtu druhé odmocniny).

Obdobně pro každou hermitovskou matici A C k × k {\displaystyle {\boldsymbol {A}}\in \mathbb {C} ^{k\times k}} , A = A H {\displaystyle {\boldsymbol {A}}={\boldsymbol {A}}^{\mathrm {H} }} , existuje unitární matice G C k × k {\displaystyle {\boldsymbol {G}}\in \mathbb {C} ^{k\times k}} , G 1 = G H {\displaystyle {\boldsymbol {G}}^{-1}={\boldsymbol {G}}^{\mathrm {H} }} taková, že

G A G H = J {\displaystyle {\boldsymbol {GAG}}^{\mathrm {H} }={\boldsymbol {J}}_{\oplus }}

je stejná matice jako v předchozím případě. Speciálně je matice J {\displaystyle {\boldsymbol {J}}_{\oplus }} reálná symetrická i v případě komplexní hermitovské matice A {\displaystyle {\boldsymbol {A}}} .

Vlastnosti matice J {\displaystyle {\boldsymbol {J}}_{\oplus }}

Matice J {\displaystyle {\boldsymbol {J}}_{\oplus }} je stále třídiagonální, obecně však už není Jacobiho maticí, protože prvky bezprostředně nad diagonálou nebo bezprostředně pod ní mohou být nulové. Transformační matici G {\displaystyle {\boldsymbol {G}}} lze vždy zvolit tak, že

k 1 k 2 k s a sp J 1 sp J 2 sp J s {\displaystyle k_{1}\geq k_{2}\geq \cdots \geq k_{s}\qquad {\text{a}}\qquad \operatorname {sp} {\boldsymbol {J}}_{1}\supseteq \operatorname {sp} {\boldsymbol {J}}_{2}\supseteq \cdots \supseteq \operatorname {sp} {\boldsymbol {J}}_{s}} ,

kde sp M {\displaystyle \operatorname {sp} {\boldsymbol {M}}} značí spektrum matice M {\displaystyle {\boldsymbol {M}}} . Jacobiho matice J 1 {\displaystyle {\boldsymbol {J}}_{1}} obsahuje všechna vlastní čísla původní matice A {\displaystyle {\boldsymbol {A}}} , přičemž každé jen jednou, jak plyne z vlastností Jacobiho matic. Číslo s {\displaystyle s} je dimenzí největšího vlastního podprostoru (eigenspace), tj. s {\displaystyle s} je největší násobností některého z vlastních čísel matice A {\displaystyle {\boldsymbol {A}}} .

Konstrukce matice G {\displaystyle {\boldsymbol {G}}} v konečném čase

Význam Jacobiho matic spočívá v možnosti spočítat ortogonální, resp. unitární matice G {\displaystyle {\boldsymbol {G}}} v konečném čase. Přestože je diagonalizovatelnost matice A {\displaystyle {\boldsymbol {A}}} vždy zaručena, protože symetrické, resp. hermitovské matice jsou normální a proto ortogonálně, resp. unitárně diagonalizovatelné, tato diagonalizace však obecně není proveditelná v konečném čase. Např. už jen z toho důvodu, že vlastní čísla coby kořeny charakteristického polynomu nemusí být možné vyjádřit v radikálech pro polynomy stupně alespoň 5 (viz též základní věta algebry).

Význam třídiagonalizace lze spatřovat v provedení dílčího výpočtu při hledání vlastních čísel symetrické, resp. hermitovské matice

A J D = d i a g ( λ 1 , , λ k ) , {\displaystyle {\boldsymbol {A}}\;\longmapsto \;{\boldsymbol {J}}_{\oplus }\;\longmapsto \;{\boldsymbol {D}}=\mathrm {diag} (\lambda _{1},\ldots ,\lambda _{k}),}

který lze provést v přesné aritmetice v konečném čase. Následná diagonalizace třídiagonální matice J {\displaystyle {\boldsymbol {J}}_{\oplus }} však obecně vyžaduje iterační algoritmus s limitní konvergencí, typicky některou z variant QR algoritmu.

Matice G {\displaystyle {\boldsymbol {G}}} a J {\displaystyle {\boldsymbol {J}}_{\oplus }} lze zkonstruovat např. pomocí dobře známého Lanczosova algoritmu (Lanczosovy tridiagonalizace).

Souvislosti

Jacobiho matice hrají klíčovou v řadě teoretických i praktických aplikací[1][2][3][4][5]

Reference

  1. W. Gautschi: Orthogonal Polynomials: Computation and Approximation, Oxford University Press, New York, 2004.
  2. G. H. Golub, G. Meurant: Matrices, Moments and Quadrature with Appliations, Princeton University Press, 2010.
  3. N. B. Parlett: The Symmetric Eigenvalue Problem, Prentice-Hall Inc., Englewood Cliffs, 1980.
  4. Z. Strakoš, J. Liesen: Krylov Subspace Methods: Principles and Analysis, Oxford University Press, Oxford, 2012.
  5. G. Teschl: "Jacobi Operators and Completely Integrable Nonlinear Lattices", Amer. Math. Soc., Providence, 2000. ISBN 0-8218-1940-2

Literatura

  • DUINTJER TEBBENS, Erik Jurjen; HNĚTYNKOVÁ, Iveta; PLEŠINGER, Martin; STRAKOŠ, Zdeněk; TICHÝ, Petr. Analýza metod pro maticové výpočty: Základní metody. 1. vyd. Praha: Matfyzpress, 2012. xvi+308 s. ISBN 978-80-7378-201-6.