Osnove matrične analize Avtorica Tatjana Petek Oktober 2024 Naslov Osnove matrične analize Title Fundamentals of Matrix Analysis Avtorica Tatjana Petek Author (Univerza v Mariboru, Fakulteta za elektrotehniko, računalništvo in informatiko) Recenzija Dominik Benkovič Review (Univerza v Mariboru, Fakulteta za naravoslovje in matematiko) Bojan Kuzma (Univerza na Primorskem, Fakulteta za matematiko, naravoslovje in informacijske tehnologije) Lektoriranje Gordana Radić Language editing (Univerza v Mariboru, Fakulteta za elektrotehniko, računalništvo in informatiko) Tehnična urednika Tatjana Petek Technical editors (Univerza v Mariboru, Fakulteta za elektrotehniko, računalništvo in informatiko) Jan Perša (Univerza v Mariboru, Univerzitetna založba) Oblikovanje ovitka Jan Perša Cover designer (Univerza v Mariboru, Univerzitetna založba) Grafike na ovitku Cover graphics Matrix Code, pixabay.com, 2024 Grafične priloge Slika 6.1, pixabay.com, 2024. Viri so lastni, razen če ni navedeno drugače. Graphic material Petek (avtorica), 2024 Založnik Univerza v Mariboru Published by Univerzitetna založba Slomškov trg 15, 2000 Maribor, Slovenija https:/ press.um.si, zalozba@um.si Izdajatelj Univerza v Mariboru Issued by Fakulteta za elektrotehniko, računalništvo in informatiko Koroška cesta 46, 2000 Maribor, Slovenija https://feri.um.si, feri@um.si Izdaja Edition Prva izdaja Vrsta publiakcije Publication type E-knjiga Izdano Published at Maribor, Slovenija, oktober 2024 Dostopno na Available at https:/ press.um.si/index.php/ump/catalog/book/916 Ime projekta NOO, Razvoj prožnih učnih pristopov z mikrodokazili za digitalno in zeleno preobrazbo izobraževanja za Project name prehod v Družbo 5.0 – Univerza v Mariboru, Fakulteta za elektrotehniko, računalništvo in informatiko Izdajo sofinancirata Evropska unija – NextGenerationEU in Republika Slovenija, Ministrstvo za visoko šolstvo, znanost in inovacije. CIP - Kataložni zapis o publikaciji Univerzitetna knjižnica Maribor 004.422.632:004.422.632(0.034.2) PETEK, Tatjana Osnove matrične analize [Elektronski vir] / avtorica Tatjana Petek. - 1. izd. - E-knjiga. - Maribor : Univerza v Mariboru, Univerzitetna založba, 2024 Način dostopa (URL): https://press.um.si/index.php/ump/catalog/book/916 ISBN 978-961-286-911-3 (PDF) doi: 10.18690/um.feri.7.2024 COBISS.SI-ID 212044803 © Univerza v Mariboru, Univerzitetna založba / University of Maribor, University Press Besedilo © Petek (avtorica), 2024 To delo je objavljeno pod licenco Creative Commons Priznanje avtorstva 4.0 Mednarodna. / This work is licensed under the Creative Commons Attribution 4.0 International License. Uporabnikom je dovoljeno tako nekomercialno kot tudi komercialno reproduciranje, distribuiranje, dajanje v najem, javna priobčitev in predelava avtorskega dela, pod pogojem, da navedejo avtorja izvirnega dela. Vsa gradiva tretjih oseb v tej knjigi so objavljena pod licenco Creative Commons, razen če to ni navedeno drugače. Če želite ponovno uporabiti gradivo tretjih oseb, ki ni zajeto v licenci Creative Commons, boste morali pridobiti dovoljenje neposredno od imetnika avtorskih pravic. https:/ creativecommons.org/licenses/by/4.0/ ISBN 978-961-286-911-3 (pdf) DOI https:/ doi.org/10.18690/um.feri.7.2024 Cena Brezplačni izvod Odgovorna oseba založnika Prof. dr. Zdravko Kačič For publisher rektor Univerze v Mariboru Citiranje Petek, T. (2024). Osnove matrične analize. Univerza v Mariboru, Univerzitetna založba doi: Attribution 10.18690/um.feri.7.2024 Kazalo Predgovor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 Uvodna poglavja . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.1 Matrike . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.1.1 Matrike in raˇ cunske operacije z njimi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.1.2 Bloˇ cne matrike . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 1.1.3 Posebni razredi matrik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 1.1.4 Posebne ekvivalenˇ cne relacije na matrikah . . . . . . . . . . . . . . . . . . . . . . . . 14 1.2 Sistemi linearnih enaˇ cb . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 1.2.1 Determinanta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 1.3 Naloge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 2 Algebrska struktura vektorski prostor . . . . . . . . . . . . . . . . . . . 33 2.1 Definicija in lastnosti vektorskega prostora . . . . . . . . . . . . . . . . . . . . . 33 2.2 Podprostori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 2.3 Linearna neodvisnost . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 2.4 Baza vektorskega prostora . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 2.4.1 Stolpec koeficientov razvoja po urejeni bazi . . . . . . . . . . . . . . . . . . . . . . . 45 2.4.2 Uporaba elementarnih transformacij Gaussove metode . . . . . . . . . . . . . 46 2.5 Razsežnost vektorskega prostora . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 2.5.1 Sprememba matriˇ cnega stolpca ob spremembi baze . . . . . . . . . . . . . . 52 2.6 Znaˇ cilni podprostori matrike . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 2.6.1 Niˇ celni, vrstiˇ cni in stolpˇ cni prostor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 2.7 Naloge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 3 Linearne preslikave . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 3.1 Aditivnost, homogenost in linearnost . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 3.2 Matrika prirejena linearni preslikavi . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 3.2.1 Sprememba matrike ob spremembi baz . . . . . . . . . . . . . . . . . . . . . . . . . . 70 3.3 Izomorfizmi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73 3.3.1 Jedro in slika linearne preslikave . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 3.4 Naloge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79 i KAZALO -1 4 Vektorski prostori s skalarnim produktom . . . . . . . . . . . . . . . 83 4.1 Evklidski in unitaren prostor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83 4.1.1 Normiran in metriˇ cen prostor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 4.1.2 Ortogonalni komplement in ortogonalna projekcija . . . . . . . . . . . . . . . . . 91 4.2 Ortogonalnost in matrike . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94 4.2.1 Predoloˇ ceni sistemi linearnih enaˇ cb – metoda najmanjših kvadratov. . . 98 4.3 Naloge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100 5 Spektralna teorija matrik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 5.1 Problem lastnih vrednosti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 5.1.1 Diagonalizacija . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 5.1.2 Raˇ cunanje lastnih parov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 5.1.3 Pogoji za diagonalizabilnost . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 5.2 Trikotljivost matrike . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112 5.2.1 Polinomske funkcije matrik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113 5.2.2 Jordanova normalna oblika . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 5.2.3 Uporaba pri sistemih diferencialnih enaˇ cb . . . . . . . . . . . . . . . . . . . . . . . . 123 5.3 Naloge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126 6 Spektralne lastnosti posebnih matrik . . . . . . . . . . . . . . . . . . . 129 6.1 Kvadratne forme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131 6.1.1 Diagonalizacija kvadratne forme. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132 6.1.2 Pozitivno ali negativno definitne kvadratne forme . . . . . . . . . . . . . . . . . 133 6.2 Razcep s singularnimi vrednostmi (SVD) . . . . . . . . . . . . . . . . . . . . . . 134 6.2.1 Uporaba razcepa SVD pri stiskanju slik . . . . . . . . . . . . . . . . . . . . . . . . . . . 136 6.2.2 Operatorska norma matrike in število pogojenosti . . . . . . . . . . . . . . . . . 137 6.2.3 Posplošeni inverzi matrik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138 6.3 Naloge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140 ii Predgovor Učbenik, ki je pred vami, je namenjen študentom treh univerzitetnih programov prve stopnje na Fakulteti za elektrotehniko, računalništvo in informatiko Univerze v Mariboru in pokriva vsebino predmeta Linearna algebra, ki se izvaja v drugem letniku študijskih programov Elektrotehnika, Informatika in podatkovne tehnologije ter Računalništvo in informacijske tehnologije. Delo ni povsem klasičen učbenik linearne algebre, zato ima tudi drugačen naslov. Čeprav se ukvarja tudi s standardnimi področji linearne algebre, je vsebina zelo osredotočena na matrike, saj je učbenik ciljno napisan za študente inženirskih smeri. Inženirji pri svojem modeliranju pogosto matrike ustvarijo že sami, potem pa je potrebna še kaka analiza. Tako so nekatera poglavja, na primer linearne preslikave, predstavljena le na kratko, saj se pogosto vsa analiza prevede na obravnavo lastnosti matrik. Linearno algebro predavam že vrsto let in izkušnje kažejo, da je za študente precej zahtevna, saj je bolj abstraktna kot "matematika", ki so je vajeni iz predhodnega izobraževanja. Iskreno upam, da bo učbenik koristen pripomoček študentom pri študiju. Vesela bom vsake povratne informacije, tudi opozorila na kako napako, saj bo to pripomoglo k nadaljnjemu izboljšanju učbenika in učnega procesa. Iskreno se zahvaljujem recenzentoma prof. dr. Bojanu Kuzmi s Fakultete za matematiko, naravoslovje in informacijske tehnologije Univerze na Primorskem in prof. dr. Dominiku Benkoviču s Fakultete za naravoslovje in matematiko Univerze v Mariboru za skrben strokovni pregled in predlagane spremembe, ki so v veliki meri izboljšale prvotno besedilo. Od srca sem hvaležna tudi svoji kolegici doc. dr. Gordani Radić za branje zelo zgodnje različice, nazadnje pa še za strokovni in jezikovni pregled dela ter koristne pripombe. Nenazadnje bi se rada zahvalila tudi svojemu partnerju in družini za neomajno podporo in razumevanje med celotnim procesom pisanja. 1. Uvodna poglavja 1.1 Matrike Tukaj bomo le na kratko navedli najosnovnejše lastnosti, ki jih bomo potrebovali v nadaljevanju. Za bolj podrobne razlage napotimo bralca npr. v [1], [4]. 1.1.1 Matrike in računske operacije z njimi Matrike so osnovno sredstvo za zapisovanje objektov, s katerimi računamo v linearni algebri. Matrika velikosti m × n (tudi reda m × n ali tudi m × n matrika) je tabela realnih ali kompleksnih števil z m vrsticami in n stolpci. Številom, ki v matriki nastopajo, rečemo elementi matrike. Kadar ima matrika le eno vrstico, govorimo o matrični vrstici, če pa ima le en stolpec, ji rečemo matrični stolpec. Izključno bomo uporabljali matrike z elementi iz množice realnih ali iz množice kompleksnih števil; v tem smislu bomo govorili o realnih oziroma kompleksnih matrikah. Če ne bo pomembno, od kod so elementi matrike, bomo izbrano številsko množico označili z F; simbol F torej predstavlja bodisi množico realnih števil R bodisi kompleksnih števil C. Številom iz množice F bomo rekli skalarji. Množico vseh m × n matrik z elementi iz m,n F bomo označili z F (v literaturi najdemo tudi oznako m×n F ). Kadar je m = n, rečemo, da je matrika kvadratna, množico vseh n × n matrik z elementi iz F pa bomo označili z Mn(F). Če matrika nima posebnega pomena (npr. iz področja uporabe), jo označimo z veliko tiskano črko, njene elemente pa z malo in jih indeksiramo glede na pozicijo z dvema indeksoma. Prvi indeks pomeni vrstico, drugi pa stolpec in tega dogovora se vedno držimo. Zapis A = a m,n i j ∈ F je kratek zapis matrike   a11 a12 . . . a1n  a21 a22 . . . a2n  A =  . . . .  .  .. .. . . ..    am1 am2 . . . amn Na primer, element a2n leži v 2. vrstici in n-tem stolpcu. Običajne algebrske operacije na matrikah so: seštevanje, skaliranje (ali množenje s skalarjem), matrično množenje, transponiranje in adjungiranje. Preden navedemo vse računske operacije, povejmo še, da sta matriki enaki, kadar sta iste velikosti in se ujemata v vseh istoležnih elementih. Računske operacije so definirane na naslednji način. (1) [ai j] + [bi j] := [ai j + bi j], seštevanje istoležnih elementov matrik iste velikosti. 4 Poglavje 1. Uvodna poglavja (2) α[ai j] := [αai j], skaliranje, vsak element matrike pomnožimo s skalarjem α. (3) A − B = [ai j] − [bi j] := [ai j − bi j], odštevanje matrik iste velikosti. (4) [ p a i j][bi j] := ∑ a , matrično množenje, definirano le za posebne pare matrik k=1 ikbk j glede na njihovo velikost: število stolpcev (p) prve matrike [ai j] mora biti enako številu vrstic druge matrike [b m,p p,n i j]. Če vzamemo matriki A ∈ F , B ∈ F , je produkt AB definiran in rezultat je matrika velikosti m × n. Omenimo še, da je produkt kvadratnih matrik iste velikosti vedno definiran in rezultat tega množenja je matrika iste velikosti. Rečemo, da je matrični produkt v Mn(F) notranja operacija. (5) Matriko A ∈ Mn(F) lahko potenciramo z naravnim eksponentom; navajamo induktivno definicijo: A1 := A, Ak+1 := AAk, k = 1, 2, . . . , ki se ujema s tem, da je k-ta potenca matrike produkt k kopij te matrike. (6) [ai j]T := [a ji], transponiranje je zamenjava vloge vrstic in stolpcev matrike – indeksa sta se zamenjala. Matriki AT ∈ n,m m,n F rečemo transponiranka matrike A ∈ F . (7) [ai j] := [ai j], kompleksno konjugiranje po elementih, a + ib = a − ib, a + ib ∈ C. (8) A∗ := (A)T = AT , adjungiranje ali tudi konjugirano transponiranje, sestavljeno iz kompleksnega konjugiranja in transponiranja v poljubnem vrstnem redu. Omenimo še dve posebni matriki, ničelno in enotsko matriko. Ničelna matrika ali tudi matrična ničla, 0 ∈ m,n F je matrika, katere elementi so vsi enaki 0. Kvadratna matrika   1 0 . . . 0 0 0 1 . . . 0 0  . . . .  I = .  .. .. . . .. ..  ∈ Mn(F)   0 0 . . . 1 0   0 0 . . . 0 1 se imenuje enotska matrika ali identiteta, tudi identična matrika. Včasih jo označimo z In, kjer n določa njeno velikost. Na primeru pokažimo, kako se izvaja matrično množenje. ■ Zgled 1.1 Podani sta matriki   3 0 1 −1 1 2 3 A = ∈ 2,3 in B = −1 1 0 2 ∈ 3,4. 2 0 −1 R   R 2 1 −1 0 Matrični produkt AB je definiran, ker ima matrika A isto število stolpcev kot ima matrika B vrstic. Produkt BA pa ne obstaja, saj ima B štiri stolpce, A pa le dve vrstici. Tako lahko po pravilu za množenje matrik (4) na strani 4 izračunamo AB = [ci j], kjer je c11 = 1 · 3 + 2 · (−1) + 3 · 2 = 7 c12 = 1 · 0 + 2 · 1 + 3 · 1 = 5 c21 = 2 · 3 + 0 · (−1) + (−1) · 2 = 4 c22 = 2 · 0 + 0 · 1 + (−1) · 1 = −1 c13 = 1 · 1 + 2 · 0 + 3 · (−1) = −2 c14 = 1 · (−1) + 2 · 2 + 3 · 0 = 3 c23 = 2 · 1 + 0 · 0 + (−1) · (−1) = 3 c24 = 2 · (−1) + 0 · 2 + (−1) · 0 = 2 in je tako 7 5 −2 3 AB = . 4 −1 3 2 ■ 1.1 Matrike 5 Izrek 1.2 — Lastnosti matričnih operacij. Za vse zgoraj omenjene algebrske operacije z matrikami A, B,C, 0 ustreznih velikosti in poljubna skalarja α, β ∈ F, veljajo naslednje lastnosti. (1) A + B = B + A; (2) (A + B) +C = A + (B +C); (3) A + 0 = 0 + A = A za vsako matriko A ∈ m,n F ; (4) Za vsako matriko A obstaja nasprotna matrika (−A), za katero velja: A + (−A) = 0; (5) α(β A) = (αβ )A; (6) (α + β )A = αA + β A; (7) α(A + B) = αA + β B; (8) (AB)C = A(BC); (9) (A + B)C = AC + BC; (10) A(B +C) = AB + AC; (11) (αA)B = α(AB) = A(αB); (12) I m,n mA = A in AIn = A za vsako matriko A ∈ F ; (13) InA = AIn = A za vsako matriko A ∈ Mn(F); (14) (A + B)T = AT + BT ; (15) (αA)T = αAT ; (16) (AB)T = BT AT ; (17) (A + B)∗ = A∗ + B∗; (18) (αA)∗ = αA∗; (19) (AB)∗ = B∗A∗; (20) Množenje matrik ni komutativno: vrstnega reda v produktu namreč ne smemo zamenjati. (21) (A + B)2 = A2 + AB + BA + B2; (22) (AB)2 = ABAB; (23) Lahko je AB = 0 in nobena od matrik A, B ni ničelna matrika. (24) Za kvadratno matriko A je lahko Ak = 0 za neko naravno število k ≥ 2 in hkrati A ni ničelna matrika. Dokaz. Preverjanje vseh lastnosti prepustimo bralcu. ■ Komentar k lastnostim (20)-(22): matriki A, B sta lahko taki, da vsaj eden od produktov AB ali BA zaradi neustreznih velikosti matrik sploh ni definiran. Lahko sta definirana oba produkta, vendar sta različnih velikosti in tako ne moreta biti enaka. Nazadnje, če imamo kvadratni matriki A, B iste velikosti, sta produkta v obeh vrstnih redih definirana in se ujemata v velikosti, a z veliko verjetnostjo, če bi matriki A, B naključno izbirali, produkta AB in BA ne bi bila enaka. Kljub temu pa lahko v množici Mn(F) najdemo veliko parov A, B, za katere velja AB = BA; v tem primeru rečemo, da matriki A in B, ki morata biti nujno kvadratni iste velikosti, komutirata. Če matriki A in B ne komutirata, izrazov (21) in (22) ni mogoče zapisati tako, kot smo sicer vajeni pri številih! ■ Zgled 1.3 Izračunajmo produkte AB, BA, AC in CA za matrike 1 2 1 −2 1 2 A = , B = , C = . 0 3 0 −1 3 4 6 Poglavje 1. Uvodna poglavja Dobimo 1 −4 7 10 1 8 AB = = BA, AC = , CA = 0 −3 9 12 3 18 in ugotovimo, da A in B komutirata, medtem ko A in C ne komutirata. ■ Naslednji zgled osvetli točko (23). ■ Zgled 1.4 Za spodnji matriki A in B je AB = 0 = BA. 1 1 1 −2 1 1  A = 1 1 1 , B =  1 −2 1  . 1 1 1 1 1 −2 ■ V množici matrik deljenje, kot ga poznamo pri številih, ni definirano, namesto tega pa vpeljemo pojem inverzne matrike. Definicija 1.5 Matrika A−1 je inverzna k matriki A, kadar zadošča enakostima AA−1 = A−1A = I. Iz definicije se takoj vidi, da ima lahko le kvadratna matrika inverzno matriko, po drugi strani pa nekatere kvadratne matrike imajo inverzne matrike in druge ne. Matrika A se imenuje obrnljiva, kadar ima inverzno matriko, v nasprotnem primeru rečemo, da je singularna. Za obrnljivo matriko je v uporabi tudi izraz nesingularna matrika. Trditev 1.6 Za obrnljivo matriko A ∈ Mn(F) je inverzna matrika enolično določena. Dokaz. Denimo, da sta matriki A1 in A2 inverzni k matriki A. Potem zanju velja AA1 = I = A1A in AA2 = I = A2A. Pomnožimo prvo enakost z matriko A2 z leve A2AA1 = A2I = A2, po drugi strani pa je A2AA1 = (A2A)A1 = IA1 = A1 in tako dobimo A1 = A2. ■ Navedimo še, kako se inverzna matrika oziroma obrnljivost povezuje z ostalimi račun-skimi operacijami. Trditev 1.7 Če je matrika A obrnljiva, so obrnljive tudi A−1, AT in A∗ ter velja (A−1)−1 = A, (AT )−1 = (A−1)T , (A∗)−1 = (A−1)∗. (1.1) Če pa sta obrnljivi matriki A in B, je obrnljiva tudi matrika AB in za inverzno matriko produkta velja (AB)−1 = B−1A−1. (1.2) 1.1 Matrike 7 Dokaz. Preverjanje enakosti (1.1) prepustimo bralcu. Za (1.2) pa poiščimo neznano matriko X = (AB)−1. Zanjo zagotovo mora veljati (AB)X = I. To enakost zaporedoma pomnožimo najprej z A−1 z leve: A−1ABX = A−1I, od koder sledi BX = A−1. Postopek ponovimo še z B−1 in dobimo, da je X = B−1A−1. Preverimo še, da izračunana matrika X zadošča enakosti X (AB) = I. Res, X AB = B−1A−1AB = B−1B = I. Enoličnost inverzne matrike sedaj zagotovi, da je X = B−1A−1 res inverzna k AB. ■ 1.1.2 Bločne matrike Pogosto se zgodi, da ima matrika naravno strukturo, ki omogoča, da jo gledamo kot matriko matrik. Takim matrikam rečemo bločne matrike. Elemente bločnih matrik imenujemo bloki. Na primer, matriko  1 0 0 2 0 0   0 1 0 0 2 0     0 0 1 0 0 2  A =    0 0 0 3 0 0     0 0 0 0 3 0  0 0 0 0 0 3 lahko v veliko bolj pregledni obliki zapišemo kot I A = 3 2I3 . 0 3I3 Bloki matrike A so matrike I3, 2I3, matrika 0 ∈ M3(F) in 3I3. V tem konkretnem zgledu so vsi bloki kvadratne matrike, v splošnem to ne bi bilo potrebno. Bločni matriki z istim razrezom sta enaki natanko takrat, ko se ujemata v vseh blokih. Bločne matrike seštevamo in odštevamo kot običajno, prav tako jih lahko množimo, le paziti moramo, kako jih razrežemo na bloke. Denimo, da želimo matriki A in B ∈ m,n F sešteti. Na bloke ju razdelimo tako,  A    11 A12 . . . A1q B11 B12 . . . B1q  A   B  A = 21 A22 . . . A2q 21 B22 . . . B2q   , B =   ,  . . . . . . . . . . . .   . . . . . . . . . . . .  Ap1 Ap2 . . . Amq Bp1 Bp2 . . . Bpq da so istoležni bloki Ai j in Bi j iste velikosti, recimo mi × n j, kjer je m1 + · · · + mp = m in n 1 + · · · + nq = n. Potem se zlahka prepričamo, da velja pravilo Ai j + Bi j = Ai j + Bi j , kar pomeni, da preprosto seštevamo istoležne bloke. Za množenje bločnih matrik pa mora razrez slediti drugemu pravilu. Biti mora tak, da bodo vsi relevantni bloki take velikosti, da bodo njihovi produkti definirani. Prikažimo primer takega razreza za bločno matriko A z dvema bločnima vrsticama in dvema bločnima stolpcema ter matriko B z dvema bločnima vrsticama in enim bločnim stolpcem. A B A AB = 11 A12 11 = 11B11 + A12B21 A21 A22 B21 A21B11 + A22B21 Torej morajo biti velikosti ustreznih matrik za izračun produkta usklajene takole: m p A : 1 × p1 m1 × p2 , B : 1 × n1 , m2 × p1 m2 × p2 p2 × n1 8 Poglavje 1. Uvodna poglavja velikosti blokov produkta AB pa so m 1 × n1 . m2 × n1 Navedimo še nekaj primerov produktov bločnih matrik. Ob ustreznih velikostih matrik A, B, C, in D velja: C A B = CA CB , A AC C = , B BC C A B = [AC + BD] , D C CA CB A B = . D DA DB Za vse omenjene produkte ni težko preveriti, da dobimo enak rezultat, kot če bi običajno množili matrike. Formalnemu preverjanju se tukaj izognimo. Povzemimo: ob primernih razrezih v računske operacije vpletenih matrik lahko z njimi računamo podobno kot z običajnimi matrikami. Pozornost je potrebna le še na račun nekomutativnosti matričnega produkta. ■ Zgled 1.8 Za bločno matriko I A = n B ∈ M 0 2I 3n(F) 2n izračunajmo inverzno matriko. Inverzno matriko poiščimo z nastavkom U V X = , U ∈ M n,2n, Z ∈ 2n,n F , T ∈ M Z T n(F), V ∈ F 2n(F). Veljati mora I U V I U V I AX = n B = n 0 = n B = X A. 0 2I2n Z T 0 I2n Z T 0 2I2n Z množenjem bločnih matrik (preveri, da so razrezi ustrezni!) dobimo U + BZ V + BT I U UB + 2V = n 0 = , 2Z 2T 0 I2n Z ZB + 2T od koder s primerjavo istoležnih blokov sledi, da je T = (1/2)I2n, Z = 0, U = In, in nazadnje še, iz enačbe V + BT = U B + 2V dobimo V = −(1/2)B. Tako smo izračunali, da je I A−1 = n −(1/2)B . 0 (1/2)I2n ■ 1.1 Matrike 9 1.1.3 Posebni razredi matrik V matrični analizi pogosto srečamo raznovrstne matrike, ki jih poimenujemo. Definicija 1.9 Matrika A ∈ m,n F se imenuje stopničasta, če izpolnjuje pogoja (1) Če ima A kako ničelno vrstico, so vse vrstice za njo ničelne. (2) Za neničelne vrstice velja, da ima vsaka kasnejša (šteto od zgoraj navzdol) na začetku več ničel kot njej predhodna vrstica. Pri tem prvi neničelni element v vsaki vrstici imenujemo pivot. Za matriko A ∈ m,n F rečemo, da je kanonična stopničasta ali reducirana stopničasta, če zanjo velja: (1) je stopničasta; (2) vsi pivoti so enaki 1; (3) v vsakem stolpcu so nad pivotom same ničle. ■ Zgled 1.10 Matriki spodaj sta stopničasti, druga je kanonična stopničasta. Pivoti so zapisani v modri barvi. 2 3 −1 2 5  1 3 0 0 5  0 0 7 1 −2 , 0 0 1 0 −2 . 0 0 0 −1 1 0 0 0 1 1 ■ Kvadratne matrike imajo med vsemi matrikami posebno vlogo. Ena od zelo pomembnih lastnosti je, da je v množici kvadratnih matrik matrično množenje notranja operacija. To pomeni, da kvadratni matriki A in B lahko vedno zmnožimo v obeh vrstnih redih, in oba produkta, AB in BA sta spet kvadratni matriki iste velikosti. V množici kvadratnih matrik imamo veliko posebnih, tukaj seveda ne bomo našteli vseh. Mnogo takih, ki jih tukaj ne bomo navajali, srečamo v numerični linearni algebri, ki pa ni tema tega dela. Pri kvadratnih matrikah ima smisel pojem diagonale. Diagonala kvadratne matrike A = a i j so elementi a11, . . . , ann na diagonali od levega zgornjega do desnega spodnjega kota matrike. Druga diagonala od spodnjega levega do zgornjega desnega kota za nas ne bo relevantna. Definicija 1.11 Matrika A = a i j je • skalarna, kadar so vsi elementi na diagonali enaki: a11 = a22 = ··· = ann, vsi izven diagonale pa ničelni: ai j = 0 za vse i ̸= j. Enotska matrika I, na primer, je skalarna matrika. Skalarno matriko običajno zapišemo v obliki αI, α ∈ F. • diagonalna, kadar so vsi elementi izven diagonale ničelni: aij = 0 za vse i ̸= j. Za diagonalno matriko se uporablja zapis diag (d1, d2, . . . , dn), ki pomeni diagonalno matriko z vrednostmi d1, d2, . . . , dn po vrsti na diagonali. • zgoraj trikotna, ko so vsi elementi pod diagonalo enaki 0: aij = 0 za vse i > j. • spodaj trikotna, ko so vsi elementi nad diagonalo enaki 0: aij = 0 za vse i < j. Analogno lahko vpeljemo bločno diagonalne matrike, bločno zgoraj trikotne in bločno spodaj trikotne matrike, kjer morajo pogoji iz definicije 1.11 veljati pač za bloke. Matrike v zgledu 1.8 so bile bločno zgoraj trikotne. Nalednjo skupino matrik odlikujejo določene simetrijske lastnosti oz. geometrijske lastnosti. Tukaj ločimo definiciji za realne in za kompleksne matrike. 10 Poglavje 1. Uvodna poglavja Definicija 1.12 Realna matrika A ∈ Mn(R) je • simetrična, če je AT = A; • poševno simetrična, če je AT = −A; • ortogonalna, če je AAT = AT A = I. ■ Zgled 1.13 Matrika A je simetrična, B pa je primer poševno simetrične matrike. Opazimo, da je A simetrična glede na diagonalo, B ima na diagonali ničle, na mestih (i, j) in ( j, i) pa nasprotne elemente. 1 2 3  0 2 3  A = − 2 4 5 = AT , B =  2 0 −5 = −BT . 3 5 6 −3 5 0 ■ Ni težko videti, da je vsota simetričnih (poševno simetričnih) matrik spet simetrična (poševno simetrična) matrika, z realnim skalarjem pomnožena pa prav tako ohrani vsako od teh dveh lastnosti. To pa ne velja za matrični produkt! Produkt simetričnih (poševno simetričnih) v splošnem ni simetrična (poševno simetrična) matrika. Hitro se da videti, da je kvadrat poševno simetrične matrike simetrična matrika. Res, naj bo BT = −B poševno simetrična matrika. Potem za B2 velja (B2)T = (BT )2 = (−B)2 = B2. Ime ortogonalna matrika izvira iz dejstva, da ima vedno normirane in paroma pravokotne stolpce ter normirane in paroma pravokotne vrstice, to bomo bolj natančno obdelali v poglavju 4. Spodnji zgled pa lahko razumemo z elementarno prostorsko linearno algebro, potrebujemo le običajni skalarni produkt v 3 R , za poljubna vektorja ⃗a = (a1, a2, a3) in ⃗b = (b1, b2, b3) definiran z ⃗a ·⃗b = a1b1 + a2b2 + a3b3 ter dolžino vek- √ q torja ∥⃗a∥ = ⃗a ·⃗a = a2 + a2 + a2. 1 2 3 ■ Zgled 1.14 Podana je matrika  1 √ − 1 √ 1 √  3 3 3  1  Q = √ 0 − 1 √  2 2  ,  q  1 √ 2 1 √ 6 3 6 za katero se zlahka prepričamo, da res zadošča pogoju QQT = QT Q = I. Nadalje, če npr. v izračunu QQT pogledamo izračun elementa na poziciji (2, 3): množimo 2. vrstico matrike Q s 3. stolpcem matrike QT (t.j. s 3. vrstico matrike Q).  1 √ − 1 √ 1 √   1 √ 1 √ 1 √    3 3 3 3 2 6 1 0 0 q  1    QQT = √ 0 − 1 √ 2  2 2  − 1 √ 0 = 0 1 0 3    .  q   3  1 √ 2 1 √ 1 √ − 1 √ 1 √ 0 0 1 6 3 6 3 2 6 To pomeni, da smo dejansko izračunali skalarni produkt na naraven način iz 2. in 3. vrstice dobljenih vektorjev ! r 1 1 1 2 1 √ , 0, −√ · √ , , √ = 0, 2 2 6 3 6 1.1 Matrike 11 torej sta v tem smislu 2. in 3. vrstica matrike Q pravokotni. S podobnim argumentom dobimo vse izvendiagonalne elemente produkta QQT enake 0. Za izračun elementov na diagonali produkta QQT , npr. (1, 1)-elementa, bomo v resnici √ √ √ računali dolžino vektorja (1/ 3, −1/ 3, 1/ 3), √ √ √ √ √ √ (1/ 3, −1/ 3, 1/ 3) · (1/ 3, −1/ 3, 1/ 3) = 1/3 + 1/3 + 1/3 = 1 in tako ima 1. vrstica matrike Q, gledana kot vektor v 3 R , dolžino 1; rečemo, da je normirana. Podobno preverimo, da sta normirani tudi 2. in 3. vrstica. Analogni računi veljajo za stolpce matrike Q. ■ Navedimo še nekaj lastnosti ortogonalnih matrik. Trditev 1.15 • Če je matrika Q ∈ Mn(R) ortogonalna, sta ortogonalni tudi −Q in QT . • Matrika Q ∈ Mn(R) je ortogonalna natanko tedaj, ko je obrnljiva in Q−1 = QT . • Produkt ortogonalnih matrik je ortogonalna matrika. Dokaz. Naj bo Q ortogonalna matrika in označimo R1 = −Q, R2 = QT . Izračunajmo R1RT1 = (−Q)(−Q)T = QQT = I, RT1 R1 = (−Q)T (−Q) = QT Q = I R2RT2 = QT (QT )T = QT Q = I, RT2 R2 = (QT )T QT = QQT = I, torej sta R1 in R2 ortogonalni matriki. Druga alineja je le na drug način zapisana definicija ortogonalne matrike. Bodita sedaj P in Q ortogonalni matriki, seveda iste velikosti. Naj bo R = PQ. Spet izračunajmo RRT = PQ(PQ)T = P(QQT )PT = PPT = I, RT R = (PQ)T PQ = QT (PT P)Q = QT Q = I. Produkt PQ torej ustreza zahtevanemu pogoju in je ortogonalna matrika. ■ Videti je, da je mogoče inverzno matriko ortogonalne matrike zelo preprosto izračunati, saj je inverzna matrika take matrike kar njena transponiranka. To drži, vendar je običajno potrebno vložiti precej truda, npr. izvesti Gramm-Schmidtov postopek (gl. izrek 4.16), da do take matrike sploh pridemo. Za kompleksne matrike vzporedno z definicijo 1.12 vpeljemo še nekaj razredov matrik. Spomnimo se operacije ∗, ki je sestavljena iz transponiranja in kompleksnega konjugiranja vseh elementov matrike, a ∗ T i j = ai j . Definicija 1.16 Kompleksna matrika A ∈ Mn(C) je • hermitska ali sebi-adjungirana, če je A∗ = A; • poševno hermitska, če je A∗ = −A; • unitarna, če je AA∗ = A∗A = I; • normalna, če je AA∗ = A∗A. 12 Poglavje 1. Uvodna poglavja Vzporednica k trditvi 1.15 je Trditev 1.17 • Če je matrika U ∈ Mn(C) unitarna, je tudi U∗ unitarna. Naj bo µ ∈ C tako število, da je |µ| = 1. Pri tem pogoju je unitarna tudi matrika µU . • Matrika U ∈ Mn(C) je unitarna natanko tedaj, ko je obrnljiva in U−1 = Q∗. • Produkt unitarnih matrik je unitarna matrika. Dokaz. Je zelo podoben dokazu trditve 1.15, le namesto lastnosti (14) in (15) izreka 1.2, ki smo jih v dokazu omenjene trditve implicitno uporabili, uporabimo pravili (17) in (18). ■ Naslednji razredi matrik so vezani na potenciranje. Definicija 1.18 Matrika N ∈ Mn(F) je nilpotentna, kadar je za nek eksponent k ∈ N izpolnjeno Nk = 0. Najmanjši eksponent r ∈ N, pri katerem za nilpotentno matriko N velja Nr = 0, se imenuje red nilpotentnosti matrike N. Definicija 1.19 Matrika P ∈ Mn(F) je idempotentna, kadar je P2 = P. Če je idempotentna matrika P hkrati hermitska/simetrična, ji rečemo projektor. Očitno je 0 nilpotentna matrika reda 1 in edina taka. Hkrati je očitno, da sta matriki 0 in I idempotentni in hkrati projektorja. Med vsaj 2 × 2 velikimi matrikami pa najdemo še veliko drugih nilpotentnih in idempotentnih matrik ter projektorjev. ■ Zgled 1.20 Pomemben primer nilpotentnih matrik so matrike Nn ∈ Mn(F), ki imajo enice na prvi vzporednici k diagonali nad diagonalo, povsod drugod pa same ničle. Zapišimo N4 in izračunajmo njene potence. 0 1 0 0 0 0 1 0 0 0 0 1 0 0 1 0 0 0 0 1 0 0 0 0 N4 =   , N2 4 =   , N3 = , 4   N4 4 = 0. 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 Ugotovimo, da je N4 ∈ M4(F) nilpotentna reda 4. Podobno se da videti, da je matrika Nn ∈ Mn(F) nilpotentna reda n. ■ ■ Zgled 1.21 Primer idempotentne n × n matrike, ki ni projektor, je I P = r B , 0 0 kjer je 0 ̸= B ∈ r,n−r F poljubna matrika. Z neposrednim računom je mogoče preveriti, da je P2 = P. P ni projektor, saj ni hermitska/simetrična matrika. Zelo generičen primer projektorja pa je matrika I P = r 0 , 0 0 ki je hermitska/simetrična in idempotentna. ■ V naslednjih zgledih bomo videli, kako iz nilpotentnih in idempotentnih matrik iz prejšnjih primerov ustvarimo nove istovrstne matrike. 1.1 Matrike 13 ■ Zgled 1.22 Denimo, da je N ∈ Mn(F) poljubna nilpotentna matrika in S ∈ Mn(F) poljubna obrnljiva matrika. Potem je SNS−1 spet nilpotentna matrika istega reda. Res, (SNS−1)2 = SNS−1SNS−1 = SN2S−1 (SNS−1)3 = (SNS−1)2SNS−1 = SN2S−1SNS−1 = SN3S−1 ... (SNS−1)k = SNkS−1, k = 1, 2, . . . , kjer bi morala biti v razmislek vključena matematična indukcija, a detajle izpustimo. Torej, Nk = 0 natanko takrat, ko je (SNS−1)k = 0, očitno pa se tudi red nilpotentnosti ohrani. ■ ■ Zgled 1.23 Denimo, da je P ∈ Mn(F) idempotentna matrika in S ∈ Mn(F) poljubna obrnljiva matrika. Potem je SPS−1 spet idempotentna matrika. Res, (SPS−1)2 = (SPS−1)(SPS−1) = SP(S−1S)PS−1 = SP2S−1 = SPS−1. Če je P = P∗ = P2 projektor, je za vsako unitarno/ortogonalno matriko U matrika U PU ∗ spet projektor. Očitno, ker je U ∗ = U −1, je U PU ∗ idempotentna matrika. Je pa tudi hermitska/simetrična: (U PU ∗)∗ = (U ∗)∗P∗U ∗ = U PU ∗. ■ 1.1.3.1 Elementarne matrike Kot zadnjo skupino matrik omenimo elementarne matrike, ki so povezane s sistemi linearnih enačb, pa tudi z determinanto, bolj natančno z Gaussovo eliminacijo, ki jo bomo omenili v naslednjem poglavju. Definicija 1.24 Kvadratna matrika je elementarna, če je enega od treh tipov: • tipa I: Eij, i ̸= j, je matrika, ki jo dobimo tako, da v enotski matriki zamenjamo i-to in j-to vrstico (ekvivalentno, i-ti in j-ti stolpec); • tipa II: Ei(α), 0 ̸= α ∈ F, je matrika, ki jo iz enotske matrike dobimo tako, da i-to enico na diagonali zamenjamo z α. • tipa III: Eij(β), i ̸= j, nastane tako, da enotski matriki na (i, j)-tem mestu ničlo zamenjamo z β . Za ilustracijo naj bo nekaj primerov takih 4 × 4 matrik. ■ Zgled 1.25 1 0 0 0 1 0 0 0 1 0 0 0 0 0 0 1 0 1 0 0 0 1 β 0 E24 =   , E3(α) =   , in E23(β ) =   . 0 0 1 0 0 0 α 0 0 0 1 0 0 1 0 0 0 0 0 1 0 0 0 1 ■ Naslednja trditev poda pomembno lastnost elementarnih matrik. Trditev 1.26 Vse elementarne matrike so obrnljive, inverzne matrike elementarnih matrik pa so spet elementarne matrike, pri čemer se tudi tip ohrani. Natančneje, za poljubna ustrezna indeksa i in j velja: • E−1 = E i j ji, 14 Poglavje 1. Uvodna poglavja • Ei(α)−1 = Ei(1/α), • Eij(β)−1 = Eij(−β). Dokaz. Preverjanje teh lastnosti prepustimo bralcu. Direktno je pač potrebno preveriti, da velja Ei jE ji = I, Ei(α)Ei(1/α) = I in Ei j(β )Ei j(−β ) = I. ■ S kombinacijo trditev 1.26 in 1.7 izvemo naslednje. Posledica 1.27 Produkt končno mnogo elementarnih matrik je vedno obrnljiva matrika. Poglejmo še, kako množenje poljubne matrike A ∈ m,n F z elementarno matriko E ∈ Mm(F) z leve (EA) ali z elementarno matriko E′ ∈ Mn(F) z desne (AE′) vpliva na to matriko. Trditev 1.28 Množenje z elementarno matriko ima naslednji učinek. • tip I: z leve (desne): zamenjava i-te in j-te vrstice (zamenjava i-tega in j-tega stolpca); • tip II: z leve (desne): i-ta vrstica (stolpec) se pomnoži z α ̸= 0; • tip III: z leve (desne): k i-ti vrstici (stolpcu) se prišteje β-kratnik j-te vrstice. Dokaz. Spet se izognimo tehničnim detajlom zapisa in to preverjanje izpustimo. ■ 1.1.4 Posebne ekvivalenčne relacije na matrikah V tem razdelku bomo srečali več posebnih relacij med matrikami, ki nas bodo spremljale skozi tekst v nadaljevanju. 1.1.4.1 Ekvivalenčna relacija Najprej se spomnimo, kaj pomeni pojem relacija. Dvočlena (binarna) relacija R med elementi nepraznih množic A in B je katerakoli podmnožica kartezičnega produkta A × B = {(a,b); a ∈ A , b ∈ B}. V dveh skrajnih primerih je R lahko tudi prazna ali pa cela množica A × B. Nas bodo zanimale t. i. relacije na množici A , to so podmnožice A × A . Če je torej urejeni par (a1, a2) ∈ R ⊆ A × A , rečemo, da je a1 v relaciji R z a2, zapišemo pa tudi v obliki a1 R a2. Iz a1Ra2 ne sledi nujno, da je a2Ra1. Pogosto, tudi v primerih, ki jih bomo mi obravnavali, se relacijo namesto s črko označi s simbolom npr. ≃, ≡, ∼, ipd. Znanih je veliko lastnosti relacij na množici, a mi bomo omenili le štiri. Definicija 1.29 Relacija R ⊆ A × A je • refleksivna, kadar za vsak a ∈ A velja aRa; (vsak a ∈ A je v relaciji s samim seboj); • simetrična, ko za poljubna a,b ∈ A velja: aRb ⇒ bRa; (če je a v relaciji R z b, je tudi b v relaciji R z a.) • tranzitivna; aRb in bRc ⇒ aRc; (relacija med a in b preko relacije med b in c preide na relacijo med a in c); • ekvivalenčna, kadar je refleksivna, simetrična in tranzitivna. Generičen primer ekvivalenčne relacije je relacija enakosti, ki ima gotovo vse tri zahtevane lastnosti. Ekvivalenčna relacija je po definiciji simetrična, zato za elementa, za katera velja a R b rečemo, da sta v relaciji R, saj je zaradi simetričnosti izpolnjeno tudi b R a. 1.1 Matrike 15 Ekvivalenčni razred elementa a ∈ A ekvivalenčne relacije R na množici A je [a] := {b ∈ A ; a R b}. (1.3) Naslednji izrek je glavna strukturna značilnost ekvivalenčne relacije. Izrek 1.30 Naj bo R ekvivalenčna relacija na neprazni množici A . (1) [a] = [b] natanko takrat, ko a R b; (razreda sta enaka, kadar sta elementa v relaciji) (2) [a] ∩ [b] = {} natanko takrat, ko a, b ∈ A nista v relaciji; (razreda sta disjunktna, ko elementa nista v relaciji) (3) A = ∪a∈A [a]; (A je unija vseh disjunktnih ekvivalenčnih razredov relacije R). Dokaz. (1) Če je a R b, je potrebno pokazati, da je [a] ⊆ [b], nato je zaradi simetričnosti tudi [b] ⊆ [a]. Najprej je zaradi refleksivnosti a ∈ [a]. Naj bo sedaj c ∈ [a], po (1.3) to pomeni, da je a R c. Uporabimo še, da je b R a in a R c, zaradi tranzitivnosti je potem tudi b R c, kar je po (1.3) isto kot c ∈ [b], kar je bil naš cilj. Obratno, če sta razreda [a] in [b] enaka, velja tudi, da je [a] ⊆ [b]. Torej so vsi elementi, ki so v relaciji z a tudi v relaciji z b. Ker je a R a, je tako tudi a R b. (2) Če sta a in b v relaciji R, sta razreda po točki (1) enaka in tako presek ni prazen. Če pa a in b nista v relaciji, pa njuna razreda ne moreta imeti skupnih elementov. Res, če bi bil neki c ∈ [a] ∩ [b], bi veljalo a R c in c R b in posledično po tranzitivnosti tudi a R b, kar je protislovje. (3) Gotovo je ∪a∈A [a] ⊆ A. Po drugi strani pa za vsak a ∈ A velja a ∈ [a], zato je A ⊆ ∪a∈A [a]. ■ Ekvivalenčno relacijo pogosto obravnavamo kot posplošitev (abstrakcijo) relacije enakosti. Elemente istega ekvivalenčnega razreda smatramo kot "enake", čeprav morda sploh niso enaki. Vendar so lahko "enaki" v smislu določenih lastnosti, ki so odvisne od izbrane ekvivalenčne relacije. 1.1.4.2 Relacije na matrikah V nadaljevanju tega dela bodo imele pomembno vlogo določene dvočlene relacije na množicah matrik. Za posebne matrike, ki bodo omenjene v definiciji, napotimo bralca na razdelek 1.1.3. Definicija 1.31 Vpeljimo dvočlene relacije na množicah matrik iste velikosti, m,n F ali Mn(F). • Matrika B ∈ m,n m,n F je vrstično ekvivalentna matriki A ∈ F , kadar je B = SA za neko obrnljivo matriko S ∈ Mm(F). • Matrika B ∈ m,n m,n F je stolpčno ekvivalentna matriki A ∈ F , kadar je B = AT za neko obrnljivo matriko T ∈ Mn(F). • Matrika B ∈ m,n m,n F je ekvivalentna matriki A ∈ F , kadar je B = SAT za neki obrnljivi matriki S ∈ Mm(F) in T ∈ Mn(F). • Matrika B ∈ m,n m,n F je unitarno ekvivalentna matriki A ∈ F , kadar je B = UAV za neki unitarni (če je F = C) oz. ortogonalni (če je F = R) matriki U ∈ Mm(F) in V ∈ Mn(F). • Matrika B ∈ Mn(F) je podobna matriki A ∈ Mn(F), kadar je B = SAS−1 za neko obrnljivo matriki S ∈ Mn(F). 16 Poglavje 1. Uvodna poglavja • Matrika B ∈ Mn(F) je unitarno podobna matriki A ∈ Mn(F), kadar je B = UAU∗ in je U unitarna matrika v primeru F = C, oziroma ortogonalna matrika, kadar je F = R. Trditev 1.32 Vsaka od relacij iz prejšnje definicije je ekvivalenčna relacija (gl.1.29). Dokaz. Za vsako od relacij je treba preveriti, da je refleksivna, simetrična in tranzitivna (gl. definicijo1.29). Vse relacije so refleksivne, ker je v vsakem od primerov lahko enotska matrika I v vlogi matrik S, T,U oz. V , saj je ne le obrnljiva, temveč tudi unitarna. Npr. za relacijo ekvivalence, je A = ImAIn, kjer smo pri enotskih matrikah podpisano označili njuno velikost. Simetričnost pokažimo za podobnost, za ostale je analogno. Če je B podobna A, je B = SAS−1. Iz te enakosti izračunamo A = S−1BS, kar zapišemo drugače kot A = T BT −1 z izbiro T = S−1, ki je očitno obrnljiva. Torej je tudi A podobna matriki B. Tranzitivnost preverimo le za unitarno ekvivalenco. Naj bo A unitarno ekvivalentna B in B unitarno ekvivalentna C, torej je A = U1BV1 in B = U2CV2 za unitarni (ortogonalni) matriki U1, U2 ∈ Mm(F) in unitarni (ortogonalni) matriki V1, V2 ∈ Mn(F). Izrazimo matriko A z matriko C in dobimo A = U1BV1 = U1(U2CV2)V1 = (U1U2)C(V2V1). Nazadnje upoštevamo še, da sta produkta unitarnih (ortogonalnih) matrik U1U2 in V2V1 unitarni (ortogonalni) matriki, gl. trditvi 1.17 in 1.15. Torej je tudi A unitarno ekvivalentna C. ■ Zaradi simetričnosti omenjenih relacij rečemo tudi, da sta matriki A in B ustreznih velikosti vrstično ekvivalentni, stolpčno ekvivalentni, (unitarno) ekvivalentni oz. (unitarno) podobni. Kot že vemo, (gl. izrek 1.30), ekvivalenčna relacija, ki je definirana na neki množici, to množico porazdeli (ali razbije) na disjunktne ekvivalenčne razrede. Za vsakega od razredov želimo določiti prav posebej odlikovane in/ali preproste predstavnike. Zanimajo nas tudi t. i. invariante, to so skupne lastnosti, ki ves razred natanko določajo. V nadaljevanju, do konca tega teksta, bomo za vse omenjene relacije opisali specifične matrike, ki bodo posamezen ekvivalenčni razred natanko določale. 1.2 Sistemi linearnih enačb Sistemi linearnih enačb so osnovno računsko orodje linearne algebre. Skoraj pri vsakem računanju v tej matematični disciplini se na nekem nivoju pojavi sistem linearnih enačb. V naslednjem razdelku jih bomo obravnavali predvsem iz vidika računanja, manj s stališča analize rešljivosti. O tem bo tekla beseda kasneje v razdelku 2.6. Naj bo n ≥ 1 neko naravno število. Linearna enačba z neznankami x1, x2, . . . , xn je enačba oblike a1x1 + a2x2 + · · · + anxn = b, (1.4) kjer so koeficienti te enačbe a1, a2, . . . , an in število b podana števila iz množice F. Tudi neznanke so iskana števila iz množice F. Sistem linearnih enačb, rečemo tudi linearen sistem, je nabor m, m ≥ 1, linearnih enačb z istimi neznankami. Enačb je lahko več, manj ali enako kot neznank. Vnaprej se 1.2 Sistemi linearnih enačb 17 glede tega nič ne omejimo. Zapišimo sedaj splošen sistem m enačb z n neznankami, kjer koeficiente označimo malce drugače, indeksirajmo jih tudi glede na enačbo in ne le na neznanke. a11x1 + a12x2 + · · · + a1nxn = b1 a21x1 + a22x2 + · · · + a2nxn = b2 (1.5) . . . . . . am1x1 + am2x2 + · · · + amnxn = bm. Že sam zapis nas navede na misel, da je najbrž povezan z matrikami. Na kratko lahko sistem linearnih enačb zapišemo z eno samo matrično enačbo Ax = b, (1.6) kjer je A = [a m,n i j] ∈ F matrika koeficientov sistema (ali krajše kar matrika sistema), matrični stolpec x ∈ n,1 m,1 F vsebuje vseh n neznank in b ∈ F je matrični stolpec desnih strani enačb v zapisu (1.5)     x1 b1 x2  b2  x =  .  , b =  .  .  ..   ..      xn bm Poseben sistem linearnih enačb, sistem Ax = 0, imenujemo homogen sistem. V splošnem bomo za sistem linearnih enačb videli, da je izpolnjena natanko ena od spodnjih možnosti. (a) Ima eno samo rešitev, takrat rečemo, da je enolično rešljiv; en sam matrični stolpec x reši enačbo (1.6). (b) Ima neskončno množico rešitev. (c) Nima nobene rešitve; rečemo, da je nekonsistenten ali protisloven. Za reševanje linearnih sistemov bo pomembno preoblikovanje sistema na preprostejšega, vendar z isto množico vseh rešitev. Definicija 1.33 Sistema linearnih enačb Ax = b in Cx = d sta ekvivalentna, kadar imata isto množico rešitev ali pa sta oba nekonsistentna. Ekvivalentna sistema linearnih enačb imata lahko različno število enačb. Matriki A in C v zgornji definiciji imata namreč lahko različno število vrstic, seveda pa isto število stolpcev. Preoblikovanje linearnega sistema na ekvivalentnega, a takega, ki ga bo enostavno rešiti ali pač ugotoviti, da ni rešljiv, bo srž računske metode za reševanje sistemov. Trditev 1.34 Naj bo D ∈ Mm(F) poljubna obrnljiva matrika. Sistema DAx = Db in Ax = b sta ekvivalentna. Dokaz. Naj bo najprej x rešitev sistem Ax = b. To enačbo z leve pomnožimo z D in očitno je sedaj DAx = Db. Obratno, denimo sedaj, da je x rešitev sistema DAx = Db. Tukaj pa potrebujemo obrnljivost matrike D, saj moramo z leve enačbo pomnožiti z inverzno matriko D−1, ki obstaja le za obrnljive matrike D. Potem dobimo D−1DAx = D−1Db, kar pove, da x reši enačbo Ax = b. ■ 18 Poglavje 1. Uvodna poglavja ? Katere sisteme lahko razumemo kot preproste? Odgovor na zgornje vprašanje sicer ni enoznačen, oglejmo pa si nekaj zgledov. ■ Zgled 1.35 V sistemu enačb, ki ga najprej navajamo, je enako število enačb kot neznank, kvadratna matrika pa spodaj trikotna. V obliki matrične enačbe je podan sistem  1 0 0 0  x    1 −1  2 3 0 0  x2  1   = , −       1 1 2 0  x3  2  1 −1 4 −1 x4 −4 od koder iz prve enačbe razberemo, da je x1 = −1, nato iz druge, da je x2 = 1, iz tretje je x3 = 0 in nazadnje je x4 = 2. ■ ■ Zgled 1.36 Če bi bila matrika obravnavanega sistema zgoraj trikotna, bi lahko postopali podobno, le, da bi morali enačbe sistema reševati zaporedoma od zadnje proti prvi. ■ Naslednji zgled bo najpomembnejši. ■ Zgled 1.37 Matrika sistema linearnih enačb bo sedaj stopničasta. x  1 2 1 −1 2 5    x2 5   0 0 3 1 −2 x3 = 3 . 0 0 0 −1 1   x4 3 x5 Sedaj postopamo na naslednji način. Neznanke, ki ustrezajo stolpcem matrike sistema, v katerih so pivoti, imenujemo vodilne neznanke. To so v našem primeru x1, x3 in x4. Ostale neznanke imenujmo proste neznanke. Sistem sedaj prepišimo tako, da na levi ohranimo le vodilne neznanke. 2x1 − x3 + 2x4 = 5 − x2 − 5x5 3x3 + x4 = 3 + 2x5 −x4 = 3 − x5. Sistem lahko sedaj rešimo od zadnje enačbe proti prvi; to pomeni, da izrazimo vodilne neznanke s prostimi, in tako dobimo x4 = −3 + x5 1 x3 = 2 + x5 3 13 1 10 x1 = − x2 − x5, x2, x5 ∈ F. 2 2 3 Števili x2 in x5 sta poljubni, zato jih lahko izrazimo (vsaj v tem primeru) tudi tako, da se znebimo ulomkov: postavimo x2 = 2c, x5 = 3d in tako dobimo še eno dvoparametrično rešitev sistema x4 = −3 + 3d x3 = 2 + d 13 x1 = − c − 10d, c, d ∈ F. 2 Tako smo dobili dve parametrizaciji splošne rešitve sistema. ■ 1.2 Sistemi linearnih enačb 19 Dodajmo še zgled nekonsistentnega sistema. ■ Zgled 1.38 Za sistem linearnih enačb x  1 2 1 −1 2 5    x2 5   0 0 3 1 −2 x3 = 3 0 0 0 0 0   x4 1 x5 opazimo, da je zadnja enačba sistema 0x5 = 1, ki ni za noben x5 rešljiva. Tako tudi podani sistem nima nobene rešitve. ■ Videli bomo, da lahko sistem linearnih enačb vedno prevedemo na ekvivalentnega s stopničasto matriko sistema. Še več, dosežemo lahko celo kanonično stopničasto obliko. Orodje, ki ga bomo za to uporabili, je znamenita Gaussova eliminacijska metoda, reče se ji tudi Gaussova eliminacija ali kar Gaussova metoda. Gaussova eliminacija na vrsticah matrike Sistematično uporabljamo elementarne transformacije na vrsticah. Na začetku je tekoča matrika (t.m.) podana matrika. (1) Začnemo s prvim neničelnim stolpcem t. m.; ta je tekoči stolpec. (2) Po potrebi zamenjamo vrstici t. m., da dobimo ustrezen (gl. opombo spodaj) neničeln element na prvo mesto v stolpcu, ta bo pivot. (3) Pivotiranje: s prištevanjem prve vrstice t. m., pomnožene z ustreznim faktorjem, zaporedoma k vsem nižje ležečim vrsticam (če kakšna sploh obstaja) z elementarno transformacijo tipa III, dose- žemo ničle na vseh pozicijah prvega stolpca t. m. pod pivotom. (4) S tem smo zaključili delo na prvem stolpcu; t. m. izbrišemo prvo vrstico in nastane nova t. m. Ponavljamo korake od (1) do (4), dokler ne zmanjka neničelnih stolpcev. Po želji lahko vrednosti nekaterih ali vseh pivotov z elementarnimi transformacijami tipa II postavimo na 1. Po končanem postopku zložimo zaporedoma izbrisane vrstice in dodamo zadnjo tekočo matriko, če obstaja. Tako dobljena matrika je stopničasta. Pivot lahko izbiramo na različne načine. Za "peš" računanje z matrikami, ki imajo elemente iz množice celih števil, v izogib ulomkom, dokler gre, ponavadi postavimo za pivot največji skupni delitelj elementov v tekočem stolpcu ali pa ga s kako kombinacijo elementarnih transformacij izračunamo. Za numerično reševanje sistemov linearnih enačb (delno pivotiranje) pa izbiramo po absolutni vrednosti največji element v tekočem stolpcu. To se izkaže kot učinkovita metoda za obvladovanje zaokrožitvenih in drugih napak, ki so značilne za numerično računanje.  2 1 1  4 −6 0 ■ Zgled 1.39 Matriko  z Gaussovo eliminacijo pretvorimo na stopničasto. −   2 7 2 2 1 2 Z Vj označimo j-to vrstico matrike na trenutnem koraku, pivote pa od takrat, ko nastanejo, 20 Poglavje 1. Uvodna poglavja označimo z modro barvo. V2 := V2 + (−2)V1,  2 1 1 V     3 := V3 + V1, 2 1 1 2 1 1 V  4 −6 0 4 := V4 + (−1)V1 0 −8 −2 V3:=V3+V2 0 −8 −2  → → −       2 7 2 0 8 3  0 0 1  2 1 2 0 0 2 0 0 1 2 1 1  V4:=V4+(−1)V3 0 −8 −2 →     . 0 0 1  0 0 0 ■ Gaussovo eliminacijo pa lahko nadalje uporabimo še, da iz stopničaste oblike matrike dobimo kanonično stopničasto matriko. V tem primeru izvajamo zaporedje elementarnih transformacij na vrsticah matrike tako, da začnemo pri najbolj desnem pivotu in z vrstico, v kateri je pivot, pridelamo ničle v stolpcu nad pivotom. Nato se premaknemo levo do naslednjega pivota in postopek ponovimo. Nazadnje, ko smo dobili ničle nad vsemi pivoti, z deljenjem pivotalnih vrstic s pivoti dobimo še enice in tako je dobljena matrika kanonična stopničasta. ■ Zgled 1.40 Stopničasto matriko iz prejšnjega zgleda preoblikujmo na kanonično stopni- často. Transformacije se izvajajo zaporedoma od zgoraj navzdol kot so zapisane. Pivot, s katerim delamo, je spet označen z modro barvo. V2 := −1/8V2 2 1 1  V     2 := V2 + 2V3 2 1 0 V1 := V1 + (−1)V2 1 0 0 V V 0 −8 −2 1 := V1 + (−1)V3 0 −8 0 1 := 1/2V1 0 1 0   →   →   . 0 0 1  0 0 1 0 0 1 0 0 0 0 0 0 0 0 0 ■ Spomnimo se učinka elementarnih matrik pri množenju poljubne matrike ustrezne velikosti z leve (gl. trditev 1.28). Množenje matrike z elementarno matriko določenega tipa z leve je isto kot izvedba elementarne transformacije na vrsticah matrike. Zato lahko Gaussovo eliminacijo interpretiramo tudi na naslednji način. Izrek 1.41 — Gaussova eliminacijska metoda. Naj bo A ∈ m,n F . Obstaja tak končen niz elementarnih matrik E1, E2 . . . , Ek ∈ Mm(F), k ≥ 1, da je Ek . . . E2E1A kanonična (reducirana) stopničasta matrika. Povedano na drug način: obstaja tako zaporedje elementarnih transformacij na vrsticah matrike A, ki preoblikujejo matriko A v kanonično stopničasto matriko. Dokaz. Trditev bomo dokazali z indukcijo na m, ki je število vrstic matrike A ∈ m,n F . Če je m = 1, je matrika A avtomatično stopničasta. Če ni enaka 0, iz nje dobimo takoj kanonično obliko tako, da jo skaliramo z obratno vrednostjo pivota. 1.2 Sistemi linearnih enačb 21 Denimo, da za vse matrike z m − 1 ≥ 1 vrsticami prva trditev že velja in naj bo A ∈ m,n F . Prvi stolpec matrike A je bodisi ničeln bodisi na matriki A izvedemo Gaussovo eliminacijo tako, da dobimo na prvem mestu 1 in same ničle pod njim. Torej z zaporedjem elementarnih transformacij na vrsticah, recimo, da jih je p, dosežemo, da je ε ∗ Ep . . . E1A = , ε ∈ {0, 1}, 0 A2 kjer ∗ pomeni, da je na teh mestih lahko karkoli, medtem, ko ima A2 m − 1 vrstic in po indukcijski predpostavki zanjo trditev že velja. Zanjo torej obstaja zaporedje takih elementarnih matrik E′ , . . . , E′ ∈ M S 1 q m−1(F), da velja A2 = E ′q . . . E′1 2 in je matrika S2 v kanonični stopničasti obliki. Tako smo dobili ε ∗ 1 0 1 0 ε ∗ Ep . . . E1A = = . . . , 0 E′q . . . E′ S 0 E′ 0 E′ 0 S 1 2 q 1 2 pri čemer ni težko videti, da je matrika 1 0 0 E′j za vsak j = 1, 2, . . . , q elementarna. Nazadnje je 1 0 1 0 ε ∗ A = E−1 . . . E−1 . . . . 1 p 0 E′q 0 E′ 0 S 1 2 Nazadnje še v prvi vrstici z elementarnimi transformacijami na vrsticah dobimo ničle v vseh stolpcih, ki ustrezajo pivotalnim stolpcem matrike S2. Tako lahko vzamemo, da je ε ∗ 0 S2 kanonična stopničasta. Podatek, da so inverzi elementarnih matrik spet elementarne matrike, zaključi razmislek. ■ Trditev 1.42 Za poljubno matriko A je kanonična stopničasta matrika S, do katere pridemo z nekim nizom elementarnih transformacij na vrsticah, enolično določena. Dokaz. Naj bosta S in S′ vrstično ekvivalentni kanonični stopničasti matriki, v izogib trivialnemu primeru, obe neničelni. Najprej vidimo, da morata biti prvi vrstici obeh enaki. Če imata matriki eno samo vrstico, smo končali. Sicer denimo, da trditev že velja za matrike z m − 1 ≥ 1 vrsticami in sta S, S′ ∈ m,n F . Matriki, ki jih iz S′ in S dobimo z odstranitvijo prve vrstice, sta kanonični stopničasti, vrstično ekvivalentni in zanju lahko uporabimo indukcijsko predpostavko. Zato sta enaki in posledično je tudi S′ = S. ■ Spomnimo se vrstične ekvivalence matrik, (gl. definicijo 1.31). Ko na matriki na vrsticah sprovedemo neko elementarno transformacijo, ki jo določa elementarna matrika E, iz matrike A dobimo matriko EA. Matrika E je kot elementarna matrika obrnljiva, zato je tako dobljena matrika EA vrstično ekvivalentna matriki A. Uporabili bomo oznako 22 Poglavje 1. Uvodna poglavja A ∼v EA. Relacija vrstične ekvivalence je ekvivalenčna relacija, zato tudi tranzitivna. Gaussova eliminacija je tako postopek A ∼v A2 ∼v · · · ∼v Ak = S (1.7) in je zadnja matrika v verigi, S, stopničasta ali kanonična stopničasta matrika. Sledi pomembna trditev o obrnljivih matrikah. Trditev 1.43 Naslednje trditve so ekvivalentne za poljubno kvadratno matriko A ∈ Mn(F). (1) Matrika A je obrnljiva. (2) Iz Ax = 0 sledi x = 0, torej edina rešitev homogenega sistema linearnih enačb je ničelna. (3) Matrika A je produkt elementarnih matrik. (4) Matrika A je vrstično ekvivalentna enotski matriki. Dokaz. Preverili bomo ekvivalenčni krog (1) ⇒ (2) ⇒ (3) ⇒ (4) ⇒ (1). Denimo, da je matrika A obrnljiva in Ax = 0. Ta sistem linearnih enačb lahko, kot vemo (gl. 1.33), z leve pomnožimo z obrnljivo matriko A−1, brez, da bi spremenili množico rešitev. Tako dobimo x = A−1Ax = A−10 = 0 in s tem iz (1) sledi (2). Denimo sedaj, da velja (2) in naj bo S kanonična stopničasta matrika, ki je vrstično ekvivalentna matriki A, torej A = ES in je E produkt elementarnih matrik, torej obrnljiva matrika. Ker A je kvadratna, je stopničasta matrika S tudi zgoraj trikotna. Če niso vsi diagonalni elementi neničelni, homogen sistem ESx = 0 nima enolične rešitve, hkrati pa isto velja tudi za sistem Sx = 0, ker je E obrnljiva matrika. Neznanka, ki ustreza stolpcu, v katerem ni pivota, je namreč prosta neznanka in tako imamo vsaj eno-parametrično rešitev. Torej je edina možnost enolične rešitve pri pogoju, da so vsi diagonalni elementi pivoti, takrat pa je S = I, saj je S kanonična in ima ničle pod in nad pivoti, ki so enaki 1. Torej sledi (3). Iz (3) takoj sledi (4), saj iz dejstva, da je A = E1 . . . Ek, takoj vidimo, da je A = EI, kjer je E = E1 . . . Ek obrnljiva. Če pa velja (4), je po definiciji vrstične ekvivalence (gl. 1.29) A = SI za neko obrnljivo matriko S, torej je A = S obrnljiva in sledi (1). ■ Omenimo še tehnično plat reševanja sistemov linearnih enačb. Sistemu linearnih enačb Ax = b najprej priredimo razširjeno matriko sistema [A|b]. Nato z Gaussovo eliminacijo preoblikujemo to matriko na stopničasto ali kanonično stopničasto. To pomeni, da z elementarnimi transformacijami na vrsticah, ki jih v teoretičnem smislu lahko realiziramo s produktom elementarnih transformacij E = Ek . . . E1 dobimo matriko stopničaste oblike [S|c]. Tako je [S|c] = E [A|b] = [EA|Eb] in prvotni sistem Ax = b ekvivalenten sistemu Sx = c. Ta postopek, ki je dejansko veriga vrstičnih ekvivalenc (1.7), lahko ponazorimo z [A|b] ∼v · · · ∼v [S|c] . Ko dobimo stopničasto obliko, je na vrsti analiza tega sistema v smislu rešljivosti. Če nastopi kak pivot v zadnjem stolpcu matrike [S|c], je sistem nekonsistenten ali protisloven, (gl. zgled 1.38). Sicer je sistem rešljiv, bodisi enolično (kadar je število pivotov enako 1.2 Sistemi linearnih enačb 23 številu neznank, gl. zgled 1.35), bodisi ima parametrične rešitve (kadar je število pivotov manjše od števila neznank in imamo zato proste neznanke, gl. zgled 1.37). Dodajmo še zgled, kjer v celoti rešimo, še več, analiziramo v odvisnosti od nekega parametra, sistem linearnih enačb z Gaussovo eliminacijo. ■ Zgled 1.44 Podan je sistem linearnih enačb x1 + x2 + x3 + x4 + x5 = 1 −x1 − x2 + x5 = −1 −2x1 − 2x2 + 3x5 = −2 x3 + x4 + 3x5 = a x1 + x2 + 2x3 + 2x4 + 4x5 = 1. V odvisnosti od parametra a ugotovimo, kdaj je ta sistem rešljiv, in v teh primerih določimo vse rešitve. Vnaprej o rešljivosti ni mogoče reči ničesar. Dejstvo, da imamo enako število neznank kot enačb, ne da nobene informacije o rešljivosti. Načeloma se lahko zgodi katerakoli izmed treh možnosti. Najprej sistemu priredimo razširjeno matriko, nato jo z elementarnimi transformacijami, ki si jih ni treba zapomniti, bomo jih pa pripisali v obliki delovanja elementarnih matrik, preoblikujmo na stopničasto obliko. Izbrane pivote bomo označili z modro barvo.  1 1 1 1 1 1   1 1 1 1 1 1  −  1 −1 0 0 1 −1   0 0 1 1 2 0    E21(1), E31(2), E51(−1)    −2 −2 0 0 3 −2  →  0 0 2 2 5 0       0 0 1 1 3 a   0 0 1 1 3 a  1 1 2 2 4 1 0 0 1 1 3 0  1 1 1 1 1 1   0 0 1 1 2 0  E32(−2), E42(−1),E52(−1) →    0 0 0 0 1 0     0 0 0 0 1 a  0 0 0 0 1 0  1 1 1 1 1 1   0 0 1 1 2 0  E43(−2), E53(−1) →    0 0 0 0 1 0  .    0 0 0 0 0 a  0 0 0 0 0 0 Če je a ̸= 0, potem je a pivot in je sistem nekonsistenten. Da bo rešljiv, mora biti a = 0. Takrat imamo dve prosti neznanki, x2 in x4 in lahko sistem rešimo od tretje vrstice proti prvi, lahko pa zadnjo matriko še preoblikujemo do kanonične oblike. Zadnji dve vrstici samih ničel lahko tudi izpustimo. Začnemo s skrajno desnim pivotom in nad njim ustvarimo 24 Poglavje 1. Uvodna poglavja ničle. Nato se pomikamo proti levi.  1 1 1 1 1 1   1 1 1 1 0 1  E32(−2), E31(−1) →  0 0 1 1 2 0   0 0 1 1 0 0  0 0 0 0 1 0 0 0 0 0 1 0  1 1 0 0 0 1  E21(−1) →  0 0 1 1 0 0  . 0 0 0 0 1 0 Tej razširjeni matriki nazaj priredimo sistem, kjer bomo vodilne neznanke označili z modro barvo. x1 + x2 = 1 x3 + x4 = 0 x5 = 0. Sedaj samo še vodilne neznanke izrazimo iz enačb, vseeno v katerem vrstnem redu. Izračunamo, seveda pri pogoju a = 0, množico rešitev x1 = −x2 + 1, x3 = −x4, x5 = 0, kjer sta x2 in x4 poljubni števili (parametra). Tako smo dobili dvoparametrično družino rešitev. ■ Za konec tega razdelka predstavimo še način, kako z Gaussovo eliminacijo izračunamo inverzno matriko. Gauss-Jordanova metoda za izračun inverzne matrike Dejansko bomo reševali matrično enačbo AX = I, kjer sta A, I ∈ Mn, matrika X ∈ Mn pa je kandidatka za inverzno matriko. Sestavimo razširjeno (bločno) matriko [A | I] in jo z elementarnimi transformacijami na vrsticah preoblikujemo na kanonično stopničasto matriko. Če je A obrnljiva, je po trditvi 1.43 vrstično ekvivalentna enotski matriki. Torej je za nek niz elementarnih matrik E1, E2, . . . , Ek, izpolnjeno A = E1E2 . . . Ek in A−1 = E−1 . . . E−1. To lahko s pridom uporabimo na naslednji način. Matriko [A | I] z Gaussovo k 1 eliminacijo na vrsticah pretvorimo na kanonično stopničasto obliko. [A|I] = [E1E2 . . . Ek|I] ∼v [I|E−1 . . . E−1] = [I|A−1]. k 1 Seveda v začetku ne vemo, ali je matrika obrnljiva ali ne. To ugotovimo, ko matriko [A| I] pretvorimo v stopničasto v prvem delu Gaussove metode. Če v prvem bloku dobimo stopničasto (v resnici zgoraj trikotno) matriko, kjer je kak diagonalni element enak 0, ni vrstično ekvivalentna enotski matriki. Torej ni obrnljiva in inverzne matrike nima smisla računati. 1.2.1 Determinanta V tem poglavju bomo zelo na kratko, večinoma brez dokazov, ali pa bodo argumenta-cije zelo strnjene, navedli nekaj lastnosti determinante. Za bolj podrobno obravnavo determinante napotimo bralca npr. v [1], [4]. Determinanto je mogoče definirati na različne načine. Naša definicija bo karseda prilagojena računanju, bomo pa zaradi tega izpustili kak dokaz. 1.2 Sistemi linearnih enačb 25 Definicija 1.45 Determinanta matrike A ∈ Mn(F) je število, označeno z det A, ki je prirejeno matriki A na naslednji način. det [a] = a, za n = 1, n det a i j = ∑ a1jk1j, (1.8) j=1 k1 j = (−1) j+1 det A′1 j, kjer je A′ ∈ M 1 j n−1(F) matrika, ki jo iz A dobimo tako, da izpustimo 1. vrstico in j-ti stolpec. Preden se lotimo računanja, definirajmo še kofaktorje. Za poljuben (i, j), ki ustreza mestu v matriki A, naj bo kofaktor ki j enak ki j := (−1)i+ j det A′i j, (1.9) kjer je A′ matrika, ki jo dobimo iz A z izpustitvijo i-te vrstice in j-tega stolpca. V enakosti i j (1.8) nastopajo kofaktorji prve vrstice matrike A. Po zgornji definiciji izračunajmo determinanto poljubne 2 × 2 in 3 × 3 matrike. Kadar je matrika podana konkretno z elementi, uporabimo krajši zapis kot sledi. ■ Zgled 1.46 a b = ak11 + bk12 = ad + b(−c) = ad − bc; c d a11 a12 a13 a21 a22 a23 = a11k11 + a12k12 + a13k13 a31 a32 a33 a a a = a 22 a23 21 a23 21 a22 11 − a12 + a13 a32 a33 a31 a33 a31 a32 = a11a22a33 − a11a23a32 + a12a23a31 − a12a21a33 + a13a21a32 − a13a22a31 = a11a22a33 + a12a23a31 + a13a21a32 − a11a23a32 − a12a21a33 − a13a22a31. Opazimo, da imamo pri determinanti 3 × 3 matrike prisotnih 6 produktov, trije od teh imajo predznak minus. ■ Drug način, kako pridemo do iste vrednosti, je t. i. Sarrusovo pravilo, ki velja izključno za 3 × 3 matrike. Pri n = 4 na primer, v determinanti nastopajo 4 kofaktorji, to pomeni, da imamo 4 sumande, vsak sumand pa jih vsebuje še 6, torej je skupaj 24 členov, ki bi jih s posplošitvijo Sarrusovega pravila težko dobili. Sarrusovo pravilo (za izračun determinante 3 × 3 matrike): matriki najprej pripišemo na desni prva dva stolpca, nato generiramo tri produkte treh elementov, ki so na sliki 1.1 označeni s + in še tri produkte, ki so označeni z −. 26 Poglavje 1. Uvodna poglavja + + + .... . . . .... .... a. . . ..... ..... ..... .... .. 11 a .. .. 12 a ..13 a11 a12 . . ..... . ..... ..... ... . .... .... . ..... . .... . ..... .... ... ... a ..... . . . ..... . ..... . 21 a .. . 22 a .. .. 23 a..21 a22 ..... . . . . ..... . ..... .. . ... .... ..... ...... . . . ..... ... .... .... a ..... ..... . ..... . . . 31 a32 a ... 33 a31 a32 . . . . .... .... –..... –..... –..... Slika 1.1: Sarrusovo pravilo V zgledu 1.46 smo videli, da je det a i j = a11a22a33 + a12a23a31 + a13a21a32 − a11a23a32 − a12a21a33 − a13a22a31. Spodnja trditev pove, da je determinanta neobčutljiva na transponiranje, da je zelo preprosto izračunati determinanto trikotne matrike in kako se ta spremeni, kadar na matriki izvedemo katerokoli od elementarnih transformacij, bodisi na vrsticah (ustrezajo množenju z elementarno matriko z leve) bodisi na stolpcih (množenje z elementarno matriko z desne). Dokaze teh trditev bomo izpustili. Trditev 1.47 — Lastnosti determinante. Naj bo A ∈ Mn(F). (1) Če je A = [ai j] zgoraj (spodaj) trikotna, je det A = a11a22 . . . ann; (2) det Ei(α) = α = det(Ei(α))T ; (3) det Ei j(β ) = 1 = det(Ei j(β ))T ; (4) det Ei j = −1 = det ET ; i j (5) det(EA) = det E det A = det(AE), kjer je E poljubna elementarna matrika; (6) det AT = det A, od koder sledi: vse kar o determinanti velja za vrstice matrike, velja tudi za stolpce. (7) Determinanta matrike, v kateri je ena vrstica/stolpec vsota dveh vrstic/stolpcev, je vsota determinant; rečemo, da je determinanta aditivna v vsaki svoji vrstici in v vsakem stolpcu. (8) Determinanta matrike, v kateri sta dve vrstici/stolpca proporcionalna, je enaka 0. ■ Zgled 1.48 Prikažimo lastnost (7), aditivnost v prvi vrstici, na 3 × 3 matriki. a1 + b1 a2 + b2 a3 + b3 a1 a2 a3 b1 b2 b3 a21 a22 a23 = a21 a22 a23 + a21 a22 a23 . a31 a32 a33 a31 a32 a33 a31 a32 a33 S Sarrusovim pravilom (gl. sliko 1.1) je mogoče zgornjo enakost hitro preveriti. ■ Lastnost (5) prejšnje trditve z uporabo (2)-(4) lahko povemo še na drug način. V spodnji trditvi navedemo, če in kako se determinanta matrike spremeni, kadar na vrsticah ali stolpcih matrike izvršimo katero od elementarnih transformacij. Trditev 1.49 — Determinanta in elementarne transformacije. Glede na tip elementarne transformacije velja: • det(EijA) = det(AEij) = −detA; ob zamenjavi dveh vrstic (stolpcev) med seboj se spremeni predznak determinante; • det(Ei(α)A) = det(AEi(α)) = α detA; množenje i-te vrstice/stolpca z α determinanto pomnoži z α, rečemo tudi, da je determinanta homogena v vsaki posamezni vrstici/stolpcu. • det(Eij(β)A) = det(AEij(β)) = detA, (prištevanje mnogokratnika ene vrstice/stolpca k drugi vrstici/stolpcu determinante ne spremeni). 1.2 Sistemi linearnih enačb 27 ■ Zgled 1.50 Na 3 × 3 matriki prikažimo homogenost v 2. stolpcu. a11 α a12 a13 a11 a12 a13 a21 α a22 a23 = α a21 a22 a23 , α ∈ F. a31 α a32 a33 a31 a32 a33 ■ Videli bomo, da se determinanta zelo "dobro razume" z matričnim produktom; rečemo, da je determinanta multiplikativna. Trditev 1.51 — Multiplikativnost determinante. Za poljubni kvadratni matriki A, B ∈ Mn(F) velja det AB = det A det B. V naslednji trditvi je osnova najpogostejše metode za računanje determinante. Izrek 1.52 — Razvoj po vrstici ali stolpcu. Za poljubno matriko A ∈ Mn(F), n ≥ 2, je mogoče determinanto razviti po katerikoli vrstici ali kateremkoli stolpcu. n det a i j = ∑ asjksj razvoj po s-ti vrstici, j=1 n det a i j = ∑ aiskis razvoj po s-tem stolpcu, i=1 pri tem so ki j kofaktorji (i, j)-tega mesta (pozicije) v matriki A. V praksi najpogosteje uporabljamo kombinirano metodo: najprej v neki vrstici/stolpcu z elementarnimi transformacijami in uporabo (2)-(5) trditve 1.47 ustvarimo čimveč ničel, nato pa po tej vrstici/stolpcu razvijemo determinanto. Zgornji izrek vključuje tudi računanje determinante po definiciji, to je razvoj po 1. vrstici. Spomnimo se kofaktorjev iz (1.9) in jih zložimo v matriko kofaktorjev [ki j]. Definicija 1.53 Matriko A(p) := [ki j]T imenujemo prirejenka k matriki A. Determinanta klasificira obrnljive matrike kot je zapisano v spodnji trditvi. Trditev 1.54 Matrika A je obrnljiva natanko tedaj, ko det A ̸= 0. Takrat se inverzna matrika matrike A izraža z 1 A−1 = A(p), (1.10) det A kjer je A(p) transponiranka matrike kofaktorjev in zanjo velja AA(p) = A(p)A = (det A)I. (1.11) Dokaz. Enakost 1.11 je posledica obrazcev o razvoju determinante po katerikoli vrstici ali stolpcu. Tako so vsi diagonalni elementi produktov v 1.11 enaki det A. Na izvendiagonalnih mestih pa dobimo same ničle, kar ugotovimo tako, da determinanto matrike, ki ima i-to in j-to vrstico/stolpec enaki in je zato enaka 0, razvijemo po eni od omenjenih vrstic. ■ 28 Poglavje 1. Uvodna poglavja Računanje inverzne matrike po obrazcu 1.10 je lahko zelo zamudno. Na primer, za inverzno matriko 4 × 4 velike matrike bi bilo potrebno izračunati eno determinanto matrike velikosti 4 × 4 in 16 determinant 3 × 3 velikih matrik! Naslednji izrek lahko razumemo kot eksistenčni izrek za sisteme linearnih enačb s kvadratno matriko koeficientov in je poznan kot Cramerjevo pravilo. Izrek 1.55 — Cramerjevo pravilo. Imejmo sistem linearnih enačb Ax = b, kjer sta podana matrika A ∈ M n,1 n(F) in matrični stolpec b ∈ F . Če je d := det A ̸= 0, ima sistem Ax = b enolično rešitev x, ki se izraža na naslednji način.   x1 x2 d j x =  .  , x j = , j = 1, 2, . . . , n.  ..  d   xn Pri tem so d j determinante matrik, ki jih dobimo iz matrike A tako, da j-ti stolpec matrike A zamenjamo s stolpcem b. Dokaz. Ker d ̸= 0, je matrika A obrnljiva in sistem Ax = b = [b1 b2 . . . bn]T ima enolično rešitev x = A−1b = 1 A(p)b. Torej je x A(p), to je elementov d j enak produktu j-te vrstice 1 d d j-tega stolpca 1 [k n k j . Tukaj uporabimo razvoj d i j] s stolpcem b, kar da x j = 1 d ∑i=1 i jbi = d determinant, omenjenih v izreku, po tistem stolpcu, kjer se nahaja stolpec b. ■ 1.3 Naloge 1. Za matriki A = [1 2 3]T in B = [3 2 1] izračunajte AB in BA. 3 2 1 R.: AB = 6 4 2, BA = [10]. 9 6 3 2. Najdite kak primer matrik A in B, da bo AB = 0 in obe matriki A, B neničelni. 1 1 1 −4 R.: Možen par matrik je A = 2 2, B = . −1 4 3 3 3. Naj bo A obrnljiva matrika. Izračunajte matrične produkte bločnih matrik A A−1 [A | I] , A−1, A I T A I , A I A I T . I R.: Rezultati po vrsti so: I AT A AT I | A−1 , , , AAT + I. A−1 A I U V 4. Za bločno zgoraj trikotno matriko A = ∈ M 0 W n(F), kjer sta U,V kvadratni matriki, ne nujno enake velikosti, pokažite, da je obrnljiva natanko tedaj, ko sta diagonalna bloka obrnljiva. Določite še inverzno matriko k A. 1.3 Naloge 29 R.: Matrika je obrnljiva natanko tedaj, ko je vrstično ekvivalentna enotski matriki, gl. trditev 1.43. Matriki U in W lahko izrazimo s stopničastima matrikama SU in SW , U = EU SU in W = EW SW , kjer sta EU in EW ustrezni obrnljivi matriki. Nato je E E S V A = U SU V = U 0 U E−1 U . 0 EW SW 0 EW 0 SW E S V Prepričajte se, da je matrika U 0 obrnljiva in matrika U E−1 U stop- 0 EW 0 SW ničasta (ne nujno kanonična). Od tod vidimo, da je v slednji natanko n pivotov natanko tedaj, ko imata obe, U in W , maksimalno število pivotov. X Y Inverzno matriko k A nastavimo v obliki A−1 = in iz enačbe AA−1 = 0 Z I 0 U−1 Y upoštevajoč, da sta U in W obrnljivi, dobimo A−1 = , kjer 0 I 0 W −1 je Y rešitev enačbe U −1V + YW = 0 oziroma YW = −U −1V . Množenje z W −1 z desne nam da nazadnje še Y = −U −1VW −1. 5. Naj bo A = [a m,n m,1 1|a2| . . . |an ] ∈ F bločna matrika stolpcev ai ∈ F , i = 1, 2, . . . , n, in B = [bi j] = AT A. Pokažite, da je B simetrična matrika in določite bi j za poljubna i, j ∈ {1, 2, . . . , n}. R.: BT = (AT A)T = AT (AT )T = AT A = B, zato je B simetrična matrika. Nadalje je bi j = aT a i j za vse i, j. 6. V množici Mn(C) vpeljimo dvočleno relacijo ∼ = s predpisom A ∼ = B natanko takrat, ko obstaja taka obrnljiva matrika S, da je B = SAS∗. Pokažite, da je relacija ∼ = ekvivalenčna relacija. R.: Refleksivnost: A = IAI∗; Simetričnost: iz B = SAS∗ sledi A = S−1B(S∗)−1 = T BT ∗ za matriko T = S−1. Uporabili smo tudi, da je (S∗)−1 = (S−1)∗ = T ∗. Tranzitivnost: naj bo A ∼ = B in B ∼ = C. Potem je B = SAS∗, C = T BT ∗ za neki obrnljivi matriki S, T in posledično C = T SAS∗T ∗ = (T S)A(T S)∗. Dejstvo, da je T S kot produkt obrnljivih matrik obrnljiva matrika, zaključi razmislek. 7. Hkrati rešite sisteme linearnih enačb z isto matriko koeficientov in različnimi desnimi stranmi, Ax = 0, Ay = b1 in Az = b2, kjer je 1 2 −2 1  2  1  A = − 2 5 2 0  , b1 = 2 , b2 =  1 . 1 3 4 −1 0 1 R.: Z dvema stolpcema (ničelnega ni potrebno dodati) razširjeno matriko [A|b1|b2] z Gaussovo eliminacijo preoblikujemo na stopničasto ali kanonično stopničasto matriko. Homogen sistem je vedno rešljiv, rešitev iz stopničaste matrike dobimo z upoštevanjem, da so (čeprav nenapisane) vse desne strani enačb enake 0. Dobimo, da je  14x    3 − 5x4 6 + 14y3 − 5y4 −6x −6y x =  3 + 2x4  3 + 2y4    , y =   ,  x3   y3  x4 y4 kjer so x3, x4, y3 in y4 poljubni, sistem Az = b2 pa je protisloven. 30 Poglavje 1. Uvodna poglavja 8. Prepričajte se, da ima homogen sistem z manj enačbami kot neznankami vedno parametrično rešitev. Z drugimi besedami, če je m < n in A ∈ m,n F obstaja neničelna rešitev x, za katero je Ax = 0. R.: Po pretvorbi sistema na stopničasto obliko je pivotov največ toliko kot je vrstic matrike, torej m. Neznank je n > m, zato imamo tudi proste neznanke. 9. Izračunajte determinanto matrike 2 5 4 A = 3 1 2 , 5 4 6 prirejenko A(p) k matriki A in produkta AA(p) in A(p)A. −2 −14 6  R.: det A = −16, A(p) = [ki j]T = −  8 −8 8 , AA(p) = A(p)A = −16I. 7 17 −13 10. Izračunajte determinanto matrike A − λ I, λ ∈ C, kjer je 1 2 0 A = 1 0 0 0 1 0 in izračunajte vse λ , za katere je det(A − λ I) = 0. R.: det(A − 2 3 λ I) = 2λ + λ − λ , λ1 = 0, λ2 = −1, λ3 = 2. 11. Naj bosta A in B ∈ Mn(F). Za vsako trditev preverite ali je pravilna. a) det(A + B) = det(A) + det(B) b) det(AB) = det(A) det(B) c) det(AB) = det(BA) d) Za n α ∈ F velja det(αA) = α det A. R.: a) ne, determinanta je aditivna le v vsaki vrstici/stolpcu; b) da, to je znana multiplikativnost determinante; c) da, sledi iz b); d) da, enakost sledi iz homogenosti v vsaki vrstici/stolpcu. 12. Z uporabo Cramerjevega pravila analizirajte sistem linearnih enačb v odvisnosti od parametrov a in b. 4x1 + x3 = b (5 − a)x1 + (a + 1)x2 + 2x3 = 4 2x1 + x2 + x3 = b.  4 0 1 R.: Matrika koeficientov sistema je A = 5 − a a + 1 2, det A = a − 1, d1 = 2 1 1 2(2 − b). d2 = 4(2 − b), d3 = ab + 7b − 16. Ločimo tri možnosti: (i) a ̸= 1: sistem je enolično rešljiv, saj d = det A = a − 1 ̸= 0, rešitev pa se glasi x1 = d1 = 2(2−b) , x = 4(2−b) in x = ab+7b−16 . d a−1 2 = d2 d a−1 3 = d3 d a−1 (ii) a = 1 in b = 2: imamo d = d1 = d2 = d3 = 0, naš sistem pa je konkretno 4x1 + x3 = 2 4x1 + 2x2 + 2x3 = 4 2x1 + x2 + x3 = 2; 1.3 Naloge 31 Opazimo, da je druga enačba 2-kratnik tretje, zato lahko iz prve in tretje enačbe izrazimo x3 = 2 − 4x1, x2 = 2 − x3 − 2x1 = 2x1, x1 je poljuben. (iii) a = 1 in b ̸= 2: sistem je nekonsistenten oziroma protisloven. 2. Algebrska struktura vektorski prostor Algebrska struktura je neka neprazna množica, v kateri je definirana računska operacija ali več operacij, ki morajo zadoščati določenim algebrskim lastnostim (zakonom). 2.1 Definicija in lastnosti vektorskega prostora Začnimo s formalno definicijo vektorskega prostora. Definicija 2.1 Naj bo V neprazna množica. Urejeni par (V, F) je vektorski prostor nad poljem F (C ali R), če sta na spodaj navedeni način definirani operaciji • seštevanje je notranja dvočlena operacija: u, v ∈ V : u + v ∈ V • skaliranje (množenje s skalarjem) paru (α,v) priredi element iz V: α ∈ F, v ∈ V : α · v ∈ V, in za poljubne u, v, w ∈ V velja: (1) komutativnost seštevanja: u + v = v + u; (2) asociativnost seštevanja: (u + v) + w = u + (v + w); (3) obstoj nevtralnega elementa 0 ∈ V za seštevanje: v + 0 = v za vsak v ∈ V ; (4) vsak v ∈ V ima nasprotni element −v ∈ V , za katerega velja: v + (−v) = 0. Zaradi lastnosti (1) – (4), ki se nanašajo le na seštevanje, rečemo, da je algebrska struktura (V, +) komutativna grupa. Za skaliranje oz. povezovo skaliranja s seštevanjem (bodisi v V bodisi v F) morajo za poljubna u, v ∈ V in α, β ∈ F veljati še lastnosti: (5) homogenost: α · (β · v) = (αβ ) · v, (6) aditivnost glede na seštevanje v polju F: (α + β ) · v = α · v + β · v, (7) aditivnost glede na seštevanje v V : α · (u + v) = α · u + α · v, (8) 1 · v = v. Če je (V, F) vektorski prostor, elementom množice V rečemo vektorji (četudi morda nimajo nobene zveze z geometrijskimi vektorji), elementom F pa skalarji tega vektorskega prostora. Pravimo, da je vektorski prostor V realen, če imamo v mislih (V, R) in kompleksen, če gre za (V, C). Dogovorimo se, da bomo skaliranje vedno razumeli kot množenje s skalarjem z leve strani (skalar vedno pišemo levo od vektorja). Struktura vektorskega prostora pa bi bila analogna, če bi (vedno) množili s skalarjem z desne strani. Še kratek komentar k lastnosti (8). Ta zahteva je postavljena zato, da se izognemo možnosti ničelnega množenja. Gre namreč za povsem abstraktno definicijo algebrske strukture, kjer imamo lahko tudi precej svobode pri vpeljavi računskih operacij, npr. lahko 34 Poglavje 2. Algebrska struktura vektorski prostor bi skaliranje definirali kot ničelno, t.j. α · v = 0 za vsak vektor v ∈ V in poljuben skalar α ∈ F. Lastnosti (1) – (7) bi bile izpolnjene, algebrska struktura pa na ta način nezanimiva. Zahteva (8) pa trivialno skaliranje prepreči. Pogosto bomo zaradi skrajšave namesto o paru (V, F) govorili o vektorskem prostoru V nad poljem F ali še krajše, kar prostoru V . V zadnjem primeru bo znano iz konteksta, katere skalarje bomo imeli v mislih, omenjali pa bomo tudi realen (F = R) in kompleksen (F = C) vektorski prostor. V nadaljevanju navajamo nekaj pomembnejših primerov vektorskih prostorov. Za vsakega je potrebno preveriti, da veljajo lastnosti iz definicije 2.1. Kjer ni omenjeno, se privzame, da seštevanje in skaliranje vpeljemo na najbolj običajen način. ■ Zgled 2.2 — Razni primeri vektorskih prostorov . (1) Množico vseh urejenih n-teric n F = {(x1, x2, . . . , xn) ; xi ∈ F, i = 1, 2, . . . , n} obi- čajno obravnavamo kot vektorski prostor nad poljem F z operacijama: (x1, x2, . . . , xn) + (y1, y2, . . . , yn) := (x1 + y1, x2 + y2, . . . , xn + yn) α (x1, x2, . . . , xn) := (α x1, α x2, . . . , α xn), α ∈ F. (2) n C si lahko zamislimo kot kompleksen ali realen vektorski prostor. Zakoni vektorskega prostora niso kršeni, če za skalarje namesto C vzamemo množico realnih števil. (3) Množica geometrijskih vektorjev na premici, ravnini ali v prostoru, ki jih običajno enačimo z 2 3 R, R ali R . (4) Tudi polje F je vektorski prostor nad F. Polje C pa lahko obravnavamo tudi kot vektorski prostor nad R. (5) Množica matrik m,n m,1 F , v posebnem tudi matričnih stolpcev F ali matričnih vrstic 1,n F , je vektorski prostor nad poljem F; gl. lastnosti (1)-(7) v izreku 1.2. (6) Množica vseh zgoraj trikotnih matrik iz Mn(F), množica diagonalnih ali skalarnih matrik iz Mn(F) so vektorski prostori nad poljem F. (7) Fn [x] := {a0 + a1x + . . . + anxn; a0 . . . , an ∈ F}, množica polinomov s koeficienti v polju F, katerih stopnja ne preseže n, za običajno seštevanje in množenje polinoma s številom iz F, je vektorski prostor nad poljem F. Pripomnimo, da množica polinomov z natančno določeno stopnjo ni vektorski prostor, saj se pri seštevanju stopnja lahko zniža. Omenimo še nekaj primerov vektorskih prostorov, ki so zanimivi v funkcionalni analizi, mi pa se z njimi ne bomo ukvarjali. Pokažejo pa, kako pomembna in razširjena struktura je vektorski prostor. (8) Množica zveznih funkcij na zaprtem intervalu C[a, b] := { f : [a, b] 7→ R; f zvezna} za običajno seštevanje funkcij, skaliranje pa razumemo kot množenje s konstantno funkcijo. Pri tem bistveno upoštevamo analitična argumenta, da je vsota zveznih funkcij zvezna funkcija, produkt zveznih funkcij zvezna funkcija in konstantna funkcija tudi zvezna. (9) Množica vseh realnih ali kompleksnih zaporedij {(an); n = 0, 1, 2, . . . }, ki zadoščajo (homogeni linearni) rekurzivni enačbi, za običajno seštevanje zaporedij in množenje s številom: an+1 = −an + 2an−1, n = 1, 2, . . . 2.1 Definicija in lastnosti vektorskega prostora 35 (10) Naj bodo L, R in C podane pozitivne konstante (v elektrotehniki so to induktivnost, upornost in kapacitivnost). Množica vseh dvakrat zvezno odvedljivih realnih funkcij u : t 7→ u (t) ∈ R, t ∈ (a, b), ki rešijo diferencialno enačbo 1 Lu′′ + Ru′ + u = 0, C je realen vektorski prostor. Struktura vektorskega prostora se bistveno uporabi pri reševanju zgornje diferencialne enačbe, ki kot rešitev poda vse možne (glede na dodatne začetne pogoje) časovne poteke napetosti u električnega nihajnega kroga. Končno preverjanje podrobnosti prepustimo bralcu. ■ Trditev 2.3 — Posledice aksiomov vektorskega prostora. Naj bo V poljuben vektorski prostor nad poljem F. (1) Nevtralni element za seštevanje 0 ∈ V je en sam. (2) Vsakemu vektorju v ∈ V pripada natanko določen (torej en sam) nasprotni vektor −v ∈ V . (3) Za poljuben vektor v ∈ V je 0 · v = 0. (4) Za poljuben skalar α ∈ F je α · 0 = 0. (5) Iz α · v = 0 sklepamo, da je α = 0 ali v = 0. (6) Nasprotni element se da izraziti s skaliranjem: (−1) · v = −v za vsak v ∈ V . Zgornje lastnosti so (skoraj) očitne na veliko konkretnih primerih vektorskih prostorov. Trditev 2.3 pa jih uveljavi za poljuben, povsem abstrakten vektorski prostor, le na osnovi lastnosti računskih operacij. Dokaz. (1) Denimo, da bi imel V razen 0 še kak nevtralni vektor, recimo o ∈ V , bi zanj veljalo: o = o + 0 = 0. Pri prvem enačaju smo uporabili lastnost enote za 0 in pri drugem za o. (2) Denimo, da bi bila v1 in v2 nasprotna k vektorju v. Pokažimo, da morata biti enaka. v1 = v1 + 0 = v1 + (v + v2) = (v1 + v) + v2 = 0 + v2 = v2. (3) Iz v = 1 · v = (1 + 0) · v = 1 · v + 0 · v = v + 0 · v = 0 · v + v vidimo, da je 0 · v nevtralni element za seštevanje, ki je po točki (1) enolično določen, torej enak 0. (4) Označimo u = α · 0 in izračunajmo u = α · 0 = α · (0 + 0) = α · 0 + α · 0 = u + u. Enakosti u = u + u na obeh straneh prištejemo nasprotni vektor −u in dobimo, da je 0 = u pri poljubnem α ∈ F. (5) Predpostavimo, da je −1 α · v = 0 in α ̸= 0. Potem imamo v = 1 · v = (α α ) · v = −1 −1 α · (α · v) = α · 0 = 0. (6) Iz (2) je znano, da je nasprotni vektor enolično določen; tako zadošča preveriti, da velja v + (−1) · v = 1 · v + (−1) · v = (1 − 1) · v = 0. Bralca povabimo, da za vse račune zgoraj natanko premisli, katere lastnosti smo uporabili. ■ Do sedaj smo skaliranje brez izjeme pisali s piko. Odslej se dogovorimo, da ga lahko pišemo tudi brez pike in tak zapis bomo večinoma tudi uporabljali. 36 Poglavje 2. Algebrska struktura vektorski prostor Definicija 2.4 — Linearna kombinacija, linearna lupina. Imejmo končen nabor vektorjev v1, v2, . . . , vk izbranega vektorskega prostora V nad poljem F. Vektor α1v1 + α2v2 + . . . + αkvk imenujemo linearna kombinacija vektorjev v1, v2, . . . , vk ∈ V . Skalarjem α1, α2, . . . , αk ∈ F rečemo koeficienti linearne kombinacije. Linearna lupina množice M ⊆ V je množica vseh končnih linearnih kombinacij vektorjev iz podmnožice M. ( k ) L (M) = ∑ αimi; mi ∈ M, αi ∈ F, i = 1,2,...,k, k ∈ N . i=1 Kadar bo množica M zapisana z naštevanjem njenih elementov, bomo okrogel oklepaj izpustili. Npr. pisali bomo krajše L {a, b} namesto L ({a, b}). Linearna lupina bo pogosto način za pridobivanje novih vektorskih prostorov, ki bodo vsebovani v nekem, že znanem, vektorskem prostoru. To si bomo natančno ogledali v nadaljevanju. 2.2 Podprostori V prejšnjem razdelku smo srečali veliko primerov vektorskih prostorov. Nekateri od njih so prave podmnožice večjih vektorskih prostorov, npr. v primeru (6) zgleda 2.2 so omenjeni prostori prave podmnožice vektorskega prostora Mn(F). To nas vodi k naslednji definiciji. Definicija 2.5 Neprazna podmnožica W ⊆ V vektorskega prostora V nad poljem F je vektorski podprostor (rečemo tudi podprostor ali linearen podprostor) prostora V , kar označimo z W ≤ V , če je W vektorski prostor nad istim poljem F kot V , pri čemer se operaciji seštevanje in skaliranje v množici W ujemata z ustreznima operacijama v V . Izkaže se, da je zelo preprosto preverjati ali je neka podmnožica prostora vektorski podprostor. Potrebna in zadostna pogoja za to nam poda spodnja trditev. Izrek 2.6 Naslednje trditve so med seboj ekvivalentne: (1) W je vektorski podprostor prostora V po definiciji 2.5. (2) {} ̸= W ⊆ V je zaprta množica za seštevanje in skaliranje: za poljubna w1, w2 ∈ W je tudi w1 + w2 ∈ W ter αw ∈ W pri poljubnem skalarju α. (3) {} ̸= W ⊆ V je zaprta množica za vse linearne kombinacije: za poljubne α, β ∈ F in w1, w2 ∈ W je tudi αw1 + β w2 ∈ W . Dokaz. Edini netrivialni implikaciji sta, da iz (2) sledi (1) in iz (3) sledi (1). Pokažimo le, da iz (2) sledi (1), ostale podrobnosti prepustimo bralcu. Denimo, da je W neprazna podmnožica prostora V , ki je zaprta za seštevanje in skaliranje. Potem W vsebuje vektor 0, ker je 0 = 0w, kjer je w katerikoli vektor iz W , saj je W neprazna množica. S poljubnim vektorjem w vsebuje tudi −w = (−1)w ∈ W . Tako postane W grupa za seštevanje. Vse ostale lastnosti seštevanja in skaliranja pa se podedujejo iz vektorskega prostora V . ■ ■ Zgled 2.7 — Razni primeri vektorskih podprostorov. Naštejmo nekaj pomembnih primerov vektorskih podprostorov. V vsakem od primerov je potrebno, poleg tega, da je W 2.2 Podprostori 37 neprazna množica, preveriti le še zaprtost za seštevanje in skaliranje. (1) {0} ⊂ V in ves prostor V sta vedno podprostora vektorskega prostora V . (2) W = {(x, y, z) ; x = y}, ki je ravnina skozi izhodišče, je podprostor v 3 R . (3) V trirazsežnem prostoru geometrijskih vektorjev so naslednje množice podprostori. a) cel prostor 3 R , b) vse ravnine skozi izhodišče, c) vse premice skozi izhodišče, d) {0}. Kasneje, v poglavju o razsežnosti prostorov, bomo izvedeli, da so to natanko vsi možni podprostori v 3 R , gl. zgled 2.39. (4) Prostori polinomov Fn [x] ≤ Fm [x] ≤ F [x], če je n ≤ m; pri tem je F [x] prostor polinomov z neomejeno stopnjo. (5) Prostor C1 [a, b] zvezno odvedljivih funkcij na [a, b] je podprostor prostora zveznih funkcij C [a, b], obratno pa ni res, saj niso vse zvezne funkcije odvedljive. (6) {p (x) ; p (x) ∈ F3 [x] in p (0) = 0} ≤ F3 [x] . (7) Množica vseh zgoraj trikotnih n × n matrik z elementi iz F je vektorski podprostor prostora Mn(F). (8) Množica diagonalnih n × n matrik z elementi iz F je podprostor prostora Mn(F). (9) Izjemno pomemben primer vektorskega prostora je naslednji. Naj bo A ∈ m,n F poljubna matrika. Množica N n,1 A vseh rešitev x ∈ F homogenega sistema linearnih enačb Ax = 0 ∈ m,1 n,1 F je vektorski podprostor prostora F . Temu prostoru rečemo ničelni podprostor ali tudi jedro matrike. Preverimo, da je naša trditev resnična. Ker je A0 = 0, je NA neprazna množica, saj vsebuje vsaj vektor 0. Pokazati je potrebno še zaprtost za seštevanje in skaliranje. Bodita x1 in x2 rešitvi sistema Ax = 0, torej je Ax1 = 0 in Ax2 = 0. Zaradi lastnosti matričnih operacij je A(x1 + x2) = Ax1 + Ax2 = 0 + 0 = 0 in zato x1, x2 ∈ NA. Podobno iz Ax = 0 za poljuben α ∈ F sledi, da je A(αx) = αAx = α0 = 0. Tako je tudi αx ∈ NA. ■ Glede na točko (1) zgoraj imenujemo vektorski prostor {0} trivialen vektorski prostor (podprostor). Intuitivno si podprostore predstavljamo kot "ravne" neomejene podmnožice prostora 3 2 R ali ravnine R , ki vsebujejo koordinatno izhodišče. Dober model za predstavo je ravnina ali premica v prostoru, ki poteka skozi izhodišče. Pozor: ravnina v prostoru, ki ne vsebuje izhodišča, ni vektorski podprostor prostora 3 R , prav tako pa ni podprostor premica, ki ne teče skozi izhodišče, gl. zgled 2.9 nekaj vrstic nižje. 3 ■ Zgled 2.8 Naj bo V = R in M = {⃗a,⃗b} kjer sta ⃗a in ⃗b podana vektorja v prostoru. Kakšno geometrijsko obliko ima linearna lupina L (M)? Ločimo več možnosti: (1) ⃗a =⃗b =⃗0; L {⃗0} = {⃗0}. (2) ⃗a in⃗b sta nekolinearna. Potem je L (M) = {⃗r; ⃗r = s⃗a + t⃗b, s,t ∈ R}, ravnina skozi izhodišče, ki jo razpenjata vektorja ⃗a in⃗b. (3) ⃗a in⃗b sta kolinearna in nista oba enaka⃗0. Recimo, da je ⃗a ̸= 0 in⃗b = γ⃗a. Potem je L (M) = {t⃗a; t ∈ R} premica skozi izhodišče s smernim vektorjem ⃗a. ■ 3 ■ Zgled 2.9 Premica p = {(x, y, z); x − 1 = y = z−2 } ni vektorski podprostor v , ker ne −1 R vsebuje točke (0, 0, 0) . Parametrična oblika premice je x = 1 +t, y = t in z = 2 −t. Vidimo, da je točka (1, 0, 2) ∈ p, vendar npr. 3 (1, 0, 2) = (3, 0, 6) / ∈ p; s skaliranjem torej nastane 38 Poglavje 2. Algebrska struktura vektorski prostor točka (konica krajevnega vektorja), ki je izven premice p. Podobno bi lahko preverili, da premica p ni zaprta za seštevanje. ■ Trditev 2.10 Naj bo M neprazna podmnožica vektorskega prostora V . Potem je linearna lupina L (M) vedno vektorski podprostor prostora V . Dokaz. Potrebno se je le prepričati, da je L (M) zaprta za vse linearne kombinacije. Res, vzemimo, da sta k k ∑i=1 αimi in ∑i=1 βimi poljubna elementa L (M). Vzeli smo, da obe linearni kombinaciji vsebujeta isto število elementov, ker si po potrebi lahko zamislimo tudi ničelne koeficiente. Potem je k k k ∑ αimi + ∑ βimi = ∑(αi + βi)mi ∈ L (M). i=1 i=1 i=1 ■ Tako lahko vedno rečemo, da M razpenja ali generira vektorski prostor L (M). Pogosto ravnamo obratno, za obravnavani vektorski prostor določimo kako množico, ki ta prostor razpenja. Definicija 2.11 — Ogrodje, končnorazsežen prostor. Naj bo M neprazna podmno- žica vektorskega prostora V . Če za vektorski prostor W velja, da je W = L (M), rečemo, da je M ogrodje vektorskega prostora W oziroma, da množica M razpenja (generira) vektorski prostor W . Elementom množice M rečemo generatorji prostora W . Če je M končna množica, rečemo, da je W = L (M) končnorazsežen ali končnogeneriran vektorski prostor. Z drugimi besedami lahko rečemo, da je množica {v1, v2, v3, . . . , vk} ⊆ V ogrodje vektorskega prostora V , če lahko vsak vektor v ∈ V izrazimo (ne nujno enolično!) kot linearno kombinacijo vektorjev v1, v2, v3, . . . , vk. Spodnja zgleda pojasnita pomen ogrodja. 3 ■ Zgled 2.12 Kateri vektorski podprostor W ≤ R razpenja množica vektorjev {(1, 1, 1) , (1, 0, 1) , (2, 1, 2)}? Zlahka opazimo, da imajo vsi trije vektorji prvo in tretjo komponento enaki. Vsi torej ležijo v ravnini x = z. Ali je W cela ravnina? Nasploh bi lahko bil podprostor W tudi samo kaka premica v tej ravnini. V tem primeru bi bili vsi vektorji kolinearni; da niso, se vidi na prvi pogled. Torej je L {(1, 1, 1), (1, 0, 1), (2, 1, 2)} ⊆ {(x, y, x) , x, y ∈ R} = {(x, y, z) ; x = z}. Tako smo ugotovili, da je W podprostor, vsebovan v ravnini z enačbo x − z = 0, na kateri leži tudi izhodišče koordinatnega sistema. Videti je potrebno še, da se vsak vektor ravnine (x, y, x) da izraziti, čeprav morda neenolično, z vektorji podane množice, kar nazadnje pove, da je tudi ravnina x = z vsebovana v W in je tako W cela ravnina. ■ ■ Zgled 2.13 Podana je množica W = { p (x) ; p (1) = 0} ⊆ R2 [x]. Pokažimo, da je W podprostor v R2 [x] in poiščimo kako ogrodje tega podprostora. To bomo storili na dva načina. (1) Poljuben polinom p (x) ∈ R2 [x] lahko zapišemo p (x) = a0 + a1x + a2x2. Iz pogoja p (1) = a0 + a1 + a2 = 0 lahko izrazimo npr. a2 = −a1 − a0 in nadalje še p(x) = a0 + a1x + a2x2 = a0 + a1x − (a1 + a0)x2 = a0(1 − x2) + a1(x − x2). 2.3 Linearna neodvisnost 39 Vidimo, da se poljuben polinom iz množice W izraža kot linearna kombinacija polinomov (vektorjev) 1 − x2 in x − x2 s koeficientoma a0 in a1. Torej je množica W = L 1 − x2, x − x2 . Kot linearna lupina je W seveda vektorski prostor, množica 1 − x2, x − x2 pa neko ogrodje prostora W . (2) Vsak polinom stopnje kvečjemu 2, ki ima ničlo pri x = 1, lahko zapišemo v obliki p (x) = (x − 1) (ax + b) = a x2 − x + b (x − 1), kar je linearna kombinacija polinomov x2 − x in x − 1. Torej je tudi x2 − x, x − 1 ogrodje prostora W . ■ V zvezi z obravnavo sistemov linearnih enačb lahko sedaj formuliramo naslednjo trditev. Trditev 2.14 — Rešljivost sistemov linearnih enačb. Naj bo A ∈ m,n F matrika s stolpci a m,1 1, a2, . . . , an in b ∈ F podan matrični stolpec . Sistem linearnih enačb Ax = b z neznanko x ∈ n,1 F je rešljiv natanko tedaj, ko je b ∈ L {a1, a2, . . . , an} . Dokaz. Matrični stolpec Ax lahko zapišemo kot linearno kombinacijo stopcev matrike A: Ax = x1a1 + x2a2 + · · · + xnan ∈ L {a1, a2, . . . , an} , (2.1) kjer smo označili x = [x1 x2 . . . xn]T. Vektor b se tako da zapisati v obliki linearne kombinacije stolpcev matrike A (ekviv. b ∈ L {a1, a2, . . . , an}) natanko tedaj ko ima sistem Ax = b rešitev, komponente stolpca x pa so pri tem koeficienti te linearne kombinacije. ■ 2.3 Linearna neodvisnost Ogrodje ravnine iz zgleda 2.12 proučimo še enkrat. ■ Zgled 2.15 Preverimo, da je možno vsak vektor ⃗r = (x, y, z), krajevni vektor do poljubne točke v ravnini x = z, ki je hkrati tudi vektorski prostor W , izraziti kot linearno kombinacijo spodnjih treh vektorjev ⃗v1 = (1, 1, 1, ) , ⃗v2 = (1, 0, 1) , ⃗v3 = (2, 1, 2) . (2.2) Krajevni vektor poljubne točke naše ravnine ima absciso x in aplikato z enaki. Upoštevajmo to in izračunajmo ⃗r = (x, y, x) = α⃗v1 + β⃗v2 + γ⃗v3 = α (1, 1, 1) + β (1, 0, 1) + γ (2, 1, 2) = (α + β + 2γ, α + γ, α + β + 2γ) . Pridemo do sistema linearnih enačb α + β + 2γ = x α + γ = y α + β + 2γ = x kjer si mislimo, da sta x in y podani, čeprav poljubni števili. Zadnja enačba se ujema s prvo, zato jo lahko odmislimo in vzamemo γ kot prost parameter. Dobimo α = y − γ , β = x − α − 2γ = x − y + γ − 2γ = x − y − γ , γ = γ . 40 Poglavje 2. Algebrska struktura vektorski prostor Vidimo, da je koeficiente α, β , γ moč določiti pri poljubni izbiri x in y, vendar na zelo veliko (celo nešteto) načinov, saj je neznanka γ prosta in torej nedoločena. Do te neenoličnosti je prišlo, ker imamo na neki način preveliko ogrodje. Ali lahko množico danih treh vektorjev zmanjšamo tako, da bo še zmeraj razpenjala isti vektorski podprostor? Odgovor je pritrdilen. Za vektorje ⃗v1,⃗v2 in ⃗v3 iz (2.2) preverimo, da velja ⃗v3 =⃗v1 +⃗v2. (2.3) Naj bo sedaj⃗v poljuben element podprostora W = L {⃗v1,⃗v2,⃗v3}. Upoštevajoč (2.3) dobimo ⃗v = α⃗v1 + β⃗v2 + γ⃗v3 = α⃗v1 + β⃗v2 + γ (⃗v1 +⃗v2) = (α + γ)⃗v1 + (β + γ)⃗v2, torej je v našem primeru W = L {⃗v1,⃗v2,⃗v3} = L {⃗v1,⃗v2}. Vektorski prostor se ni spremenil, če smo odstranili generator, ki se izraža z ostalimi. Ogrodja {⃗v1,⃗v2} pa ni mogoče več zmanjšati, ker vektorja ⃗ v1 in ⃗v2 nista kolinearna in sta tako linearno neodvisna. Preverimo dodatno še, da se sedaj vektorji podprostora W izražajo z vektorjema ⃗v1,⃗v2 enolično. (x, y, x) = α⃗v1 + β⃗v2 = α (1, 1, 1) + β (1, 0, 1) = (α + β , α, α + β ) Dobimo x = α + β , y = α. Pozor, neznanki tega sistema sta α in β , dobili smo α = y, β = x − α = x − y in se s poljubno izbranima x in y izražata na en sam način. ■ Posebej nas bodo zanimala prav taka ogrodja, za katere bo izražava enolična. Razlog, da se elementi prostora V z vektorji ⃗v1,⃗v2,⃗v3 niso izražali enolično, je bila zveza (2.3), ki jo lahko zapišemo tudi v obliki ⃗v3 −⃗v1 −⃗v2 =⃗0. Vsi koeficienti linearne kombinacije na levi strani enakosti so neničelni. S podobnim premislekom kot zgoraj in upoštevanjem, da lahko katerega koli izmed ⃗v1,⃗v2,⃗v3 izrazimo z ostalima dvema, ugotovimo, da je V = L {⃗v1,⃗v2} = L {⃗v1,⃗v3} = L {⃗v2,⃗v3}. Nobenega izmed ogrodij {⃗v1,⃗v2} , {⃗v1,⃗v3} , {⃗v2,⃗v3} pa ni mogoče več zmanjšati brez da bi spremenili vektorski prostor V . Če bi hoteli npr. iz vektorjev ⃗v1 in ⃗v2 sestaviti linearno kombinacijo z vrednostjo⃗0, je to mogoče edinole tako, da sta oba koeficienta enaka 0, 0⃗v1 + 0⃗v2 =⃗0. Drugače bi bilo mogoče edinole, če bi bila kolinearna – pa nista. Zadnji razmislek posplošimo. Trditev 2.16 (1) Naj bo V = L {v1, v2, . . . , vn}, n ≥ 2, in eden izmed generatorjev vi linearna kombinacija ostalih n − 1 generatorjev. Potem že teh n − 1 generatorjev razpenja isti prostor V . 2.3 Linearna neodvisnost 41 (2) Če je mogoče vsaj enega izmed vektorjev v1, v2, . . . , vn izraziti kot linearno kombinacijo ostalih, obstajajo taki skalarji α1, α2, . . . , αn, ki niso vsi enaki 0 (torej je vsaj eden različen od 0), da je α1v1 + α2v2 + . . . αnvn = 0. Dokaz. (1) Zaradi enostavnosti zapisa denimo, da je vn = β1v1 + · · · + βn−1vn−1. Nato lahko poljuben vektor v ∈ V izrazimo n−1 n−1 n−1 n−1 v = ∑ γivi + γnvn = ∑ γivi + γn ∑ βivi = ∑ (γi + γnβi)vi, i=1 i=1 i=1 i=1 od koder zaključimo, da je V ⊆ L (v1, v2, . . . , vn−1), medtem ko je obratna inkluzija L (v1,v2,...,vn−1) ⊆ V očitna. (2) Če je npr. vn = β1v1 + · · · + βn−1vn−1, lahko zapišemo tudi vn − β1v1 − · · · − βn−1vn−1 = 0, kjer je koeficient pri vn neničeln; očitno je namreč enak 1. ■ Koncept, ki sledi, je temeljni koncept linearne algebre. Definicija 2.17 — Linearna neodvisnost in linearna odvisnost. Vektorji v1, v2, . . . , vn vektorskega prostora V so linearno neodvisni, če je mogoče vektor 0 ∈ V zapisati kot linearno kombinacijo vektorjev v1, v2, . . . , vn edinole z ničelnimi koeficienti: α1v1 + α2v2 + · · · + αnvn = 0 ⇒ α1 = α2 = · · · = αn = 0. Nasprotno pa, če je vsaj eden izmed skalarjev α1, α2, . . . , αn neničeln in je hkrati α1v1 + α2v2 + · · · + αnvn = 0, rečemo, da so vektorji v1, v2, . . . , vn linearno odvisni. Za neprazno množico M rečemo, da je linearno neodvisna, če je katerikoli končen nabor vektorjev iz množice M linearno neodvisen. V nasprotnem primeru je M linearno odvisna množica. Z drugimi besedami linearna neodvisnost vektorjev v1, v2, . . . , vn pomeni, da se nobe-nega izmed njih ne da izraziti kot linearno kombinacijo ostalih; sicer nas točka (2) trditve 2.16 pripelje do protislovja. Velja tudi obratno, če niso vsi αi enaki 0, je vsaj eden, recimo α j neničeln, takrat pa lahko vektor v j izrazimo z ostalimi kot linearno kombinacijo. Trditev 2.18 — Lastnosti linearno neodvisnih množic. (1) Množica, ki vsebuje vektor 0, je vedno linearno odvisna. (2) Če linearno neodvisni množici odvzamemo kak vektor (ali več vektorjev), je množica še zmeraj linearno neodvisna. Z drugimi besedami: vsaka neprazna podmnožica linearno neodvisne množice je linearno neodvisna. (3) Če vektor w ni linearna kombinacija linearno neodvisnih vektorjev v1, v2, . . . , vn, je množica {v1, v2, . . . , vn} ∪ {w} linearno neodvisna. (4) Množica z dvema vektorjema je linearno odvisna natanko tedaj, ko sta kolinearna (kar vključuje tudi možnost, da je vsaj eden od njiju ničeln). Dokaz. Gl. rešitev naloge 6 v razdelku 2.7. ■ Spoznali smo, da imamo lahko ogrodje, s katerim se vektorji prostora ne izražajo enolično. Če pa bo ogrodje hkrati še linearno neodvisna množica, pa bo to prineslo enolično predstavitev vseh vektorjev kot linearne kombinacije elementov ogrodja. 42 Poglavje 2. Algebrska struktura vektorski prostor 2.4 Baza vektorskega prostora Definicija 2.19 — Baza. Naj bo V končnorazsežen vektorski prostor nad poljem F. Množica {e1, e2, . . . , en} ⊆ V se imenuje baza vektorskega prostora V , ko je izpolnjeno dvoje: (1) {e1, e2, . . . , en} je linearno neodvisna množica. (2) {e1, e2, . . . , en} je ogrodje prostora V . Vektorjem baze rečemo bazni vektorji. Trditev 2.20 — Ekvivalentna definicija baze. Množica {e1, e2, . . . , en} ⊆ V je baza vektorskega prostora V , kadar je mogoče vsak vektor prostora V enolično (t.j. vsi koeficienti so natanko določeni) izraziti kot linearno kombinacijo vektorjev e1, e2, . . . , en. Dokaz. Denimo, daje množica {e1, e2, . . . , en} baza po definiciji 2.19. Po lastnosti (2) se vsak vektor v ∈ V izraža kot linearna kombinacija vektorjev e1, e2, . . . , en. Pokažimo sedaj še, da so koeficienti te linearne kombinacije enolično določeni zaradi lastnosti (1). Denimo, da lahko neki vektor v ∈ V zapišemo na dva načina v = α1e1 + α2e2 + · · · + αnen, v = β1e1 + β2e2 + · · · + βnen. Odštejmo drugo enačbo od prve 0 = (α1 − β1) e1 + (α2 − β2) e2 + · · · + (αn − βn) en. Ker so vektorji e1, e2, . . . , en linearno neodvisni, so vsi koeficienti zgornje linearne kombinacije enaki 0. Torej je αi − βi = 0, i = 1, 2, . . . , n, oziroma αi = βi za vse i in posledično so vsi koeficienti natanko določeni. Obratno naj sedaj velja, da se vsak vektor prostora V enolično izraža kot linearna kombinacija vektorjev e1, e2, . . . , en. To takoj implicira, da je množica {e1, e2, . . . , en} ogrodje. Pokažimo še linearno neodvisnost. Postavimo α1e1 + α2e2 + · · · + αnen = 0. Ker je vedno izpolnjeno tudi 0e1 + 0e2 + · · · + 0en = 0 in so koeficienti razvoja vektorja 0 po predpostavki enolično določeni, sledi α1 = 0, α2 = 0, . . . , αn = 0 in so zato vektorji e1, e2, . . . , en linearno neodvisni po definiciji 2.19. ■ ■ Zgled 2.21 Če imamo ogrodje, ki je linearno odvisno, se da vsak vektor iz prostora izraziti z vektorji ogrodja, vendar ne enolično. Npr. množica  1   2   4   7     0  ,  3  ,  5  ,  8   0 0 6 6  je ogrodje 3,1 R , vendar ni baza, ker je linearno odvisna. Npr.: vektor [7 8 6]T je vsota (torej tudi linearna kombinacija) ostalih treh. Lahko bi rekli, da je vektorjev nekako "preveč". ■ 2.4 Baza vektorskega prostora 43 ■ Zgled 2.22 Če imam linearno neodvisno množico, ki ni ogrodje, se nekaterih vektorjev iz prostora z vektorji te množice ne da izraziti kot linearno kombinacijo. Množica  1   2     0  ,  3   0 0  je linearno neodvisna, vendar se npr. vektorja [0 0 1]T s tema dvema vektorjema ne da izraziti. Vektorjev je "premalo", da bi razpenjali 3,1 R . ■ ■ Zgled 2.23 Pokažimo, da vektorji  1   2   4  e1 =  0  , e2 =  3  , e3 =  5  0 0 6 tvorijo bazo prostora 3,1 R . Res, če ustvarimo njihovo linearno kombinacijo in jo izenačimo z 0, dobimo enačbo  1   2   4   0  α  0  + β  3  + γ  5  =  0  , 0 0 6 0 ki je v resnici homogen sistem linearnih enačb Ax = 0, za neznanko x = [α β γ]T , 1 2 4 A = 0 3 5 0 0 6 pa matrika, katere stolpci so prav vektorji e1, e2 in e3 v tem vrstnem redu. Iz Cramerjevega pravila (gl. izrek 1.55), saj je det A = 18, izvemo, da ima ta sistem le enolično rešitev x = 0. Cramerjevo pravilo mi pove še več, da je sistem Ax = v rešljiv (celo enolično) za vsako desno stran v, kar pomeni, da je naša množica ogrodje, saj so sedaj komponente vektorja x prav koeficienti razvoja vektorja v kot linearno kombinacijo podanih vektorjev. ■  a     ■ Zgled 2.24 Določimo kako bazo vektorskega prostora V =  b  ; a, b ∈ F . Najprej  b  lahko na naraven način izrazimo  a   1   0   b  = a  0  + b  1  , b 0 1  1   0    od koder spoznamo, da je množica  0  ,  1  ogrodje prostora V . Očitno, saj  0 1  nobeden ni mnogokratnik drugega, je tudi linearno neodvisna, torej je baza vektorskega prostora V . 44 Poglavje 2. Algebrska struktura vektorski prostor V premislek podajmo še naslednje. Možen bi bil tudi razvoj z npr. tremi vektorji  a   1   0   0   b  = a  0  + (b − a)  1  + a  1  . b 1 1 0  1   0   0    Ali je množica 3,1  0  ,  1  ,  1  tudi baza F ? Očitno je ogrodje, vendar ni  1 1 0  linearno neodvisna (ta premislek prepustimo bralcu), zato ni baza. ■ ■ Zgled 2.25 Določimo neko bazo M2(F) kot vektorskega prostora nad poljem F. To je preprosto, saj je mogoče poljubno matriko A = a b ∈ M c d 2(F), (A je sedaj vektor iz M2(F)) zapisati na en sam način kot a b 1 0 0 1 0 0 0 0 = a + b + c + d . c d 0 0 0 0 1 0 0 1 Tako vidimo, da je množica štirih matrik (možna) baza prostora M2(F). Tej konkretni bazi rečemo tudi standardna baza M2(F). ■ ■ Zgled 2.26 Naj bodo upornost, induktivnost in kapacitivnost R, L in C pozitivne konstante, povezane z enakostjo: R2C = 4L. Določimo bazo realnega vektorskega prostora 1 V = t 7→ v (t) ; Lv′′ (t) + Rv′ (t) + v (t) = 0 . C Da je množica V vektorski prostor, vemo že iz iz točke (10) zgleda 2.2. Zato je vprašanje o bazi sploh smiselno. Iz teorije linearnih diferencialnih enačb dobimo karakteristično enačbo Lk2 + Rk + 1/C = 0, ki ima zaradi pogoja na začetku en dvojni koren, k := k1,2 = −R/(2L). Zato se splošna rešitev glasi v (t) = D1tekt + D2ekt = (D1t + D2) ekt in sta D1 in D2 poljubni realni konstanti. Baza V je torej tekt, ekt , saj sta očitno funkciji ekt , tekt linearno neodvisni (nobena ni konstantni, od spremenljivke t neodvisni mnogokratnik druge). ■ ? Ali ima vsak vektorski prostor bazo? Trditev 2.27 (1) Vsak netrivialen končnorazsežen vektorski prostor ima bazo. (2) Trivialni vektorski prostor nima baze. Dokaz. Dokaz točke (1) bo konstruktiven oz. algoritmičen. Naj bo V končnorazsežen vektorski prostor, zato ima končno ogrodje z vsaj enim vektorjem. Do baze lahko pridemo s t.i. skrčitvijo (redukcijo) ogrodja: naj bo M neko ogrodje prostora V . Postavimo M0 = M in i = 0. Ponavljamo korake od 1. do 3.: 1. testiramo ali je tekoča množica Mi linearno neodvisna. Če je, smo našli neodvisno ogrodje, torej je množica Mi baza in smo gotovi; 2. sicer, če je Mi linearno odvisna, se vsaj en vektor v ∈ Mi izraža z ostalimi kot linearna kombinacija in ga odstranimo iz Mi; postavimo Mi+1 := Mi \ {v}. Množica Mi+1 je po trditvi 2.16 še zmeraj ogrodje, a ima manj elementov kot Mi. 3. i = i + 1; 2.4 Baza vektorskega prostora 45 Ogrodje je na začetku končno, množica M pa se korakoma zmanjšuje, zato je algoritem končen. Točka (2) sledi iz dejstva, da je {0} vedno linearno odvisna množica. ■ Zgled 2.31 v nadaljevanju pokaže, kako skrčimo ogrodje do baze vektorskega prostora. Bazo v netrivialnem končnorazsežnem vektorskem prostoru V je mogoče konstruirati tudi z dopolnitvijo (komplementiranjem) linearno neodvisne množice. V netrivialnem prostoru V obstaja vsaj en neničelni vektor v0 in množica {v0} je po 5. točki trditve 2.3 linearno neodvisna. Postavimo M0 = {v0} in i = 0. Ponavljamo korake od 1. do 3.; (1) testiramo ali je tekoča množica Mi ogrodje V . Če je, smo našli linearno neodvisno ogrodje, torej je množica Mi baza in smo gotovi; (2) če Mi ni ogrodje, obstaja vsaj en vektor v ∈ V , ki ni v L (Mi), zato je množica Mi+1 = Mi ∪ {v} še zmeraj linearno neodvisna po točki (3) trditve 2.18. (3) i = i + 1; Da je ta algoritem končen, je posledica izreka 2.33 o linearni odvisnosti v nadaljevanju. Hkrati pa se v algoritmu skriva tudi postopek, kako poljubno linearno neodvisno podmno- žico prostora, če ta še ni baza, dopolnimo do baze celega prostora. Edina sprememba je, da za M0 postavimo omenjeno linearno neodvisno podmnožico. Zgled 2.32 ilustrira dopolnitev linearno neodvisne množice do baze. Omenimo še, da ima tudi vsak vektorski prostor, ki ni končnorazsežen, bazo, vendar se ne bomo ukvarjali z argumentacijo, ker daleč presega naše cilje. 2.4.1 Stolpec koeficientov razvoja po urejeni bazi Naj bo sedaj {e1, e2, . . . , en} neka baza končnorazsežnega vektorskega prostora V . Urejeni n-terici B = (e1, e2, . . . , en) bomo rekli urejena baza. Urejenost je ponavadi podana z numeriranjem oziroma izbranim vrstnim redom (npr. urejena trojica (⃗i,⃗j,⃗k) je urejena baza realnega vektorskega prostora 3 R ). Poljubnemu vektorju v ∈ V priredimo matrični stolpec koeficientov razvoja po tej bazi (rečemo tudi, da vektor v razvijemo po izbrani bazi)   α1 n  α2  v = α   1e1 + α2e2 + · · · + αnen = ∑ αiei, [v]B := . . (2.4)  .  i=1 .   αn Koeficienti razvoja po izbrani bazi vektorskega prostora so po trditvi 2.20 enolično določeni. Razvoju vektorja po različnih bazah pa ustrezajo različni stolpci koeficientov. Isti vektor lahko torej predstavimo z matričnim stolpcem na različne načine glede na izbiro baze. Hitro se lahko prepričamo, da za poljubna vektorja v1, v2 ∈ V in za poljubna skalarja α in β ∈ F velja [αv1 + β v2]B = α [v1]B + β [v2]B , (2.5) zato lahko s stolpčnimi vektorji, v katerih so koeficienti razvoja vektorjev po izbrani urejeni 46 Poglavje 2. Algebrska struktura vektorski prostor bazi, korektno računamo z uporabo matričnega računa. Kasneje (v poglavju 3 o linearnih preslikavah) bomo pokazali, da je vsak n-razsežen vektorski prostor nad F izomorfen prostoru matričnih stolpcev n,1 F . 2.4.2 Uporaba elementarnih transformacij Gaussove metode Spomnimo se elementarnih transformacij na vrsticah oziroma stolpcih dane matrike. Vrstične transformacije smo uporabljali za reševanje sistemov linearnih enačb, vrstične in stolpčne pa smemo uporabljati pri računanju determinante. Podobne transformacije lahko izvedemo tudi na poljubnem urejenem nizu vektorjev v1, v2, . . . , vk iz podanega vektorskega prostora V nad poljem F. Ločimo elementarne transformacije treh tipov. Transformacija tipa I: med seboj zamenjamo poljubna vektorja iz niza. Transformacija tipa II: poljuben vektor skaliramo z neničelnim skalarjem α ∈ F. Transformacija tipa III: k nekemu vektorju iz niza prištejemo poljuben skalarni mnogokratnik nekega drugega vektorja iz niza. Trditev 2.28 Če so vektorji w1, w ∈ 2, . . . , wk V dobljeni iz vektorjev v1, v2, . . . , vk s kate- rimkoli zaporedjem elementarnih transformacij, se linearni lupini obeh nizov ujemata: L {w1,w2,...,wk} = L {v1,v } 2, . . . , vk . Dokaz. Pri vsaki od elementarnih transformacij se spremenita kvečjemu dva člena v nizu, zato zadošča preveriti trditev za niz dveh vektorjev in katerokoli elementarno transformacijo. Očitno je L {v1, v2} = L {v2, v1} in L {v} = L {αv}, če le α ̸= 0. Pokažimo nazadnje, da je tudi L {v1, v } 2 + β v1} = L {v1, v2 pri poljubno izbranem β ∈ F. Očitno je L {v1, v } 2 + β v1} ⊆ L {v1, v2 , potrebno pa je preveriti vsebovanost še v drugi smeri. Pa vzemimo poljuben vektor oblike α1v1 + α2v2 ∈ L {v1, v2} in preoblikujmo α1v1 + α2v2 = α1v1 + α2 (v2 + β v1) − α2β v1 = (α1 − α2β ) v1 + α2 (v2 + β v1) ∈ L {v1, v2 + β v1}. Tako smo pokazali še, da je L (v1, v2) ⊆ L (v1, v2 + β v1). ■ Naslednji zgled nam bo olajšal razumevanje trditve 2.30. ■ Zgled 2.29 Za stopničasto matriko s  11 s12 s13 s14 s15 s16 S =  0 0 0 s24 s25 s26 , s11, s24, s35 ̸= 0, 0 0 0 0 s35 s36 pokažimo, da so vse njene vrstice linearno neodvisni vektorji prostora 1,6 F . Iz linearne kombinacije α1 s11 s12 s13 s14 s15 s16 + α2 0 0 0 s24 s25 s26 + α3 0 0 0 0 s35 s36 = 0 0 0 0 0 0 2.4 Baza vektorskega prostora 47 vidimo, da mora biti α1 = 0, ker s11 ̸= 0. Nato je α2 0 0 0 s24 s25 s26 + α3 0 0 0 0 s35 s36 = 0 0 0 0 0 0 , od koder sledi, da je α2 = 0 in nazadnje je tudi α3 = 0. ■ Trditev 2.30 Neničelne vrstice stopničaste matrike so vedno linearno neodvisne. Dokaz. Trditev bi lahko preverili neposredno, kot smo to naredili v zgledu 2.29, vendar zaradi splošnosti s precej nepreglednim zapisom. Drug način je z matematično indukcijo na r, število neničelnih vrstic stopničaste matrike. Najprej lahko predpostavimo, da je S ∈ r,n F stopničasta matrika, ki ima vse vrstice neničelne in so vsi pivoti enaki 1. Za r = 1, oziroma za matrično vrstico 0 ̸= S ∈ 1,n F trditev očitno velja. Denimo, da trditev že velja za r − 1 ≥ 1. Linearno kombinacijo vrstic matrike S lahko zapišemo v bločni obliki, kjer ničel na prvem mestu lahko tudi ni in ∗ označuje bloke, ki nas neposredno ne zanimajo. r α1 0 1 ∗ ∗ + ∑ αj 0 0 ∗ ∗ = 0 0 0 0 . j=2 Vidimo, da je α1 = 0. Ostane še linearna kombinacija r − 1 neničelnih vrstic matrike, ki nastane tako, da S izbrišemo prvo vrstico, dobljena matrika pa je tudi stopničasta. Zanjo po indukcijski predpostavki velja, da je njenih r − 1 vrstic linearno neodvisnih in zato tudi α2 = · · · = αr = 0. ■ V nadaljevanju predstavimo, kako z elementarnimi transformacijami skrčimo ogrodje do baze, če je to potrebno, oziroma dopolnimo linearno neodvisno množico do baze. ■ Zgled 2.31 — Skrčitev ogrodja na bazo. Poiščimo neko bazo vektorskega prostora  2   1   0   1    V = L − −  1  ,  1  ,  1  ,  0  .  −1 0 −1 −1  Uporabili bomo trditev 2.28 in z zaporedjem elementarnih transformacij, ki so siste-matičen del Gaussove eliminacije, poiskali neko linearno neodvisno ogrodje, torej bazo prostora V ≤ 3,1 R . Elementarne transformacije smo bolj vajeni delati na vrsticah, zato zložimo stolpce v matriko in jo transponiramo. 2 −1 −1  2 1 0 1  transponiramo 1 −1 0 − −→    1 −1 1 0   . 0 1 −1 −1 0 −1 −1   1 0 −1 Nato po vrsticah izvedemo Gaussovo eliminacijo do stopničaste oblike matrike. Pri tem znak ∼v pomeni vrstično ekvivalenco, nad njim pa je zapisano, katere elementarne 48 Poglavje 2. Algebrska struktura vektorski prostor transformacije na vrsticah smo izvedli.  2 −1 −1   1 −1 0  V   2 := V2 − 2V1, 1 −1 0 V  1 −1 0  V1↔V2  2 −1 −1  4 := V4 − V1  0 1 −1    ∼v   ∼v    0 1 −1   0 1 −1   0 1 −1  1 0 −1 1 0 −1 0 1 −1 V   3 := V3 − V2, 1 −1 0 V4 := V4 −V2 0 1 −1 ∼   v   .  0 0 0  0 0 0 Dobili smo dve ničelni vrstici, ki ju moramo izločiti zaradi linearne odvisnosti. Preostali dve vrstici sta očitno (zaradi stopničaste oblike matrike oz. ker nista proporcionalni) linearno neodvisni. Nazadnje dobljeno matriko spet transponiramo nazaj  1 −1 0   1 0 0 0   0 1 −1  transponiramo   −→ −  1 1 0 0   0 0 0  0 −1 0 0 0 0 0  1   0    Nato je V = L −  1  ,  1  . Neničelna vektorja, ki smo ju na ta način dobili,  0 −1  sta očitno linearno neodvisna, torej tvorita bazo prostora V . ■ ■ Zgled 2.32 — Dopolnitev linearno neodvisne množice do baze. Dopolnimo linearno neodvisno množico 1 + 2x + x3, 1 + x3 ⊆ R3 [x] do baze prostora R3 [x]. Najprej je očitno, da je podana množica linearno neodvisna. Da bo lažje računati in bomo lahko uporabili elementarne transformacije Gaussove metode, pretvorimo dana polinoma v matrična stolpca glede na standardno urejeno bazo B = (1, x, x2, x3) prostora R3 [x]. Potem je matrični stolpec prirejen poljubnemu polinomu iz R3[x] enak  a  0  a  a 1 0 + a1x + a2x2 + a3x3B =    a2  a3 in matrična stolpca za polinoma v igri se glasita  1   1  2 0 1 + 2     x + x3B =   , 1 + x3B =  .  0   0  1 1 Zapišimo stolpca v matriko  1 1   2 0    ,  0 0  1 1 2.5 Razsežnost vektorskega prostora 49 jo spet zaradi bolj praktičnega računanja transponirajmo (lahko bi koeficiente že v začetku zapisali v matrično vrstico) 1 2 0 1 1 0 0 1 in z dvema korakoam Gaussove eliminacije pretvorimo v stopničasto obliko 1 2 0 1 . 0 1 0 0 Sedaj vidimo, da lahko matriko dopolnimo do kvadratne zgoraj trikotne matrike z neničelnimi elementi na diagonali (seveda je za to veliko možnosti).  1 2 0 1   0 1 0 0    .  0 0 1 0  0 0 0 1 Spomnimo se, da so neničelne vrstice stopničaste matrike vedno linearno neodvisne, gl. trditev 2.30. Posledično je zaradi L 1 2 0 1 , 1 0 0 1 = L 1 2 0 1 , 0 1 0 0 , tudi matrika, v kateri smo ohranili prvotni vrstici in dodali dve novi 1 2 0 1 1 0 0 1   , 0 0 1 0 0 0 0 1 obrnljiva. Po vnovičnem transponiranju in pretvorbi nazaj v polinome zaključimo, da je množica 1 + 2x + x3, 1 + x3, x2, x3 ena od možnih želenih baz. ■ 2.5 Razsežnost vektorskega prostora Izrek 2.33 [Izrek o linearni odvisnosti] Vsaka podmnožica končnorazsežnega vektorskega prostora V , ki premore več vektorjev kot neko ogrodje prostora V , je linearno odvisna. Dokaz. Katerokoli ogrodje prostora V lahko vedno po potrebi skrčimo (in tako številčno kvečjemu zmanjšamo) do baze prostora V . Zato lahko predpostavimo, da je B = {e1,e } 2, . . . , em neka urejena baza prostora V in v1, v2, . . . , vn, n > m, poljubni vektorji prostora V , za katere bi radi pokazali, da so linearno odvisni. Najprej vsakega od njih razvijemo po izbrani bazi m v j = ∑ aijei, j = 1,2,...,n. (2.6) i=1 50 Poglavje 2. Algebrska struktura vektorski prostor Z namenom testiranja linearne odvisnosti nastavimo poljubno linearno kombinacijo vektorjev v1, v2, , . . . , vn in jo izenačimo z 0, n α1v1 + α2v2 + · · · + αnvn = ∑ α jv j = 0. (2.7) j=1 Vstavimo (2.6) namesto vsakega v j v (2.7), nato zamenjamo še vrstni red seštevanja, da dobimo n n m m n 0 = ∑ αjvj = ∑ αj ∑ aijei = ∑( ∑ aijαj)ei. (2.8) j=1 j=1 i=1 i=1 j=1 Dobili smo linearno kombinacijo baznih vektorjev e1, e2, . . . , en, ki je enaka 0. Zato morajo biti vsi koeficienti te linearne kombinacije, n ∑ a j=1 i jα j, za vsak i = 1, 2, . . . , m, ničelni. Zastavlja se vprašanje: ali obstajajo taki skalarji α j, da bo to izpolnjeno? Trdimo, da obstaja neničelna (netrivialna) rešitev homogenega sistema Ax = 0, kjer je A = [a m,n i j] ∈ F matrika koeficientov iz (2.6) in x = [α1 . . . αn]T . To je izpolnjeno zato, ker imamo v tem homogenem linearnem sistemu več neznank (n) kot enačb (m) in je splošna rešitev tega sistema parametrična (gl. nalogo 8. v razdelku 1.3). Ta pa vsebuje tudi neničelne stolpce x. Povzemimo: obstajajo taki n α1, . . . , αn, ki niso vsi enaki 0, da velja ∑ a j=1 i jα j = 0 za vsak i = 1, 2, . . . , m, od koder iz (2.8) zaključimo, da so vektorji v1, v2, . . . , vn linearno odvisni. ■ Izrek o linearni odvisnosti ima tudi izjemno pomembno posledico. Vemo, da baza v vektorskem prostoru ni enolično določena. Videli bomo, da je število baznih vektorjev v katerikoli bazi izbranega končnorazsežnega vektorskega prostora isto. Izrek 2.34 Poljubni bazi končnorazsežnega vektorskega prostora imata enako moč. Dokaz. Denimo, da sta B1 in B2 bazi istega vektorskega prostora. Če bi imela baza B1 več elementov kot baza B2, bi bila po izreku 2.33 linearno odvisna, kar je protislovje. Torej ima baza B1 lahko največ toliko elementov kot baza B2. Podoben sklep napravimo iz predpostavke, da ima baza B2 več elementov kot baza B1. Torej morata imeti obe bazi isto število vektorjev. ■ Po zadnjem izreku je število baznih vektorjev lastnost vektorskega prostora (invarianta) in neodvisno od izbire baze, zato je smiselno vpeljati naslednji pojem. Definicija 2.35 Razsežnost ali dimenzija končnorazsežnega vektorskega prostora V ̸= {0} (oznaka dim V ) je število baznih vektorjev katerekoli baze prostora V . Za trivialni vektorski prostor {0} rečemo, da ima razsežnost enako 0. V nadaljevanju povemo, kako lahko vnaprejšnjo informacijo o razsežnosti obravnavanega vektorskega prostora uporabimo pri konstrukciji baze. Če je namreč vnaprej znano, kakšna je razsežnost prostora, ki ga proučujemo, je za bazo dovolj samo ena od lastnosti, ki jo sicer določajo. Trditev 2.36 Naj bo dimV = n ≥ 1. (1) Vsaka linearno neodvisna podmnožica n vektorjev iz V je baza V . (2) Vsako ogrodje, ki razpenja V in ima natanko n elementov, je baza V . 2.5 Razsežnost vektorskega prostora 51 Dokaz. (1) Vektorji v1, v2, . . . , vn naj bodo linearno neodvisni. Če množica {v1, v } 2, . . . , vn ne bi bila ogrodje, bi obstajal tak vektor w ∈ V , ki ne bi bil v L {v1, v } 2, . . . , vn . Ker v V obstaja ogrodje moči n (katerakoli baza zadošča), je množica {v1, v2, . . . , vn, w} po izreku o linearni odvisnosti (izrek 2.33) linearno odvisna. Torej je n ∑i=1 αivi + αn+1w = 0 in niso vsi αi enaki 0. Gotovo αn+1 ̸= 0, ker bi bili sicer vektorji vi, i = 1, 2, . . . , n, linearno odvisni. Torej je w ∈ L {v1, v } 2, . . . , vn , kar je protislovje, ki ovrže tezo, da množica {v1, v } 2, . . . , vn ni ogrodje V . (2) Denimo, da je {v1, v } 2, . . . , vn ogrodje V . Če ta množica ni linearno neodvisna, lahko to ogrodje skrčimo do baze. Tako smo dobili bazo z manj kot n vektorji, od tod po izreku 2.33 sledi, da je baza z n vektorji (ki seveda obstaja) linearno odvisna, kar je spet nemogoče. ■ Intuitivno lahko pričakujemo, da razsežnost podprostora ne bo presegala razsežnosti prostora. Res je tako. Trditev 2.37 Naj bosta U in V končnorazsežna vektorska prostora nad istim poljem. (1) Če je U vektorski podprostor prostora V, je dimU ≤ dimV . (2) Če je U ≤ V in dimU = dimV, je U = V. Dokaz. (1) V primeru, da bi veljalo dimU > dimV , smo takoj v protislovju z izrekom o linearni odvisnosti, gl. izrek 2.33. (2) Dovolj je pokazati, da je V ⊆ U . Če bi obstajal vektor v ∈ V , ki ne bi bil element prostora U , bi bila množica {v} ∪ B pri katerikoli bazi B prostora U linearno neodvisna. To je spet v nasprotju z izrekom o linearni odvisnosti. ■ Pogosto v vektorskih prostorih izberemo posebej odlikovano (enostavno) bazo. V prostoru n F , vektorskega prostoua nad poljem F, vpeljimo vektorje e1 = (1, 0, . . . , 0), e2 = (0, 1, . . . , 0), . . . , en = (0, 0, . . . , 1), (2.9) kjer ima vektor e n j ∈ F , j = 1, 2, . . . , n, enico na j-tem mestu, povsod drugod pa ničle. Ti vektorji so skoraj očitno linearno neodvisni in razpenjajo n n F , zato tvorijo bazo F . Poseben primer take baze je množica {⃗i,⃗j,⃗k} ⊆ 3 R . Taki preprosti in naravni bazi v vektorskem prostoru rečemo standardna baza. Nekaj jih srečamo v naslednjem zgledu. ■ Zgled 2.38 (1) C lahko gledam kot vektorski prostor nad poljem C; v tem primeru je dim C =1, saj je npr. B = {1}. (2) C lahko gledam kot vektorski prostor nad poljem R; sedaj je naravna baza B = {1, i} in dim C = 2. (3) Prostor n F urejenih n-teric števil iz F, gledan kot vektorski prostor nad F, ima razsežnost enako n. Ena od možnih baz je standardna baza (2.9). (4) dim m,n F = mn; kot standardno bazo izberemo matrike Ei j, 1 ≤ i ≤ m, 1 ≤ j ≤ n, ki imajo na (i, j)-tem mestu enico, povsod drugod pa ničle. Tukaj je polje skalarjev polje F. (5) Razsežnost prostora zgoraj (oz. spodaj) trikotnih matrik iz Mn(F) kot vektorskega prostora nad poljem F je enaka 1 + 2 + · · · + n = n(n+1), standardna baza so matrike 2 Ei j, 1 ≤ i ≤ j ≤ n, iz prejšnje točke. (6) Razsežnost Rn [x] = n + 1, saj ima standardna baza {1, x, . . . , xn} tega realnega vektorskega prostora natanko n + 1 elementov. 52 Poglavje 2. Algebrska struktura vektorski prostor ■ Opozorimo na enako poimenovanje dveh družin zelo različnih matrik! V točki (4) zgoraj smo vpeljali matrike E m,n i j ∈ F , ki pa nimajo nobene zveze z elementarnimi matrikami tipa I, ki smo jih spoznali v razdelku 1.1.3.1 in označili z istim simbolom Ei j. Nikoli ne bomo uporabljali obeh vrst matrik hkrati, zato ne bo zmede. 3 3 ■ Zgled 2.39 Katerikoli podprostor prostora R je natanko eden izmed naslednjih: R , ravnina ali premica skozi izhodišče in {(0, 0, 0)}. Po trditvi 2.37 je razsežnost vsakega podprostora v 3 R enaka 0, 1, 2 ali 3. ■ 2.5.1 Sprememba matričnega stolpca ob spremembi baze V n-razsežnem vektorskem prostoru nad poljem F imejmo dve urejeni bazi, t.i. staro bazo B = {e1,e2,...,en} in t.i. novo bazo B′ = {e′ } 1, e′2, . . . , e′n . Vemo, da imata obe isto število elementov, to je toliko kot je razsežnost prostora V . Izberimo poljuben vektor v ∈ V in določimo koeficiente razvoja za vsako od prej omenjenih baz n v = α1e1 + α2e2 + · · · + αnen = ∑ αiei (2.10) i=1 n = ′ ′ ′ ′ α1e′1 + α2e′2 + · · · + αne′n = ∑ αi e′i (2.11) i=1 ter jima priredimo matrična stolpca    ′  α1 α1′  α2   α2  [v]B :=  . , [v]  .  .  . B′ := .   ..      ′ αn αn Določimo zvezo med stolpcema [v]B in [v]B′ pri pogoju, da poznamo koeficiente razvoja vektorjev nove baze po stari bazi. n e′j = s1 je1 + s2 je2 + · · · + sn jen = ∑ sijei, j = 1, 2, . . . , n. (2.12) i=1 Matriko S = [si j] ∈ Mn(F) imenujemo prehodna matrika ali matrika prehoda iz stare baze na novo bazo. Njen j-ti stolpec tvorijo koeficienti razvoja j-tega vektorja nove baze z vektorji stare baze. Naslednji izrek pove, kakšna je zveza med koeficienti razvoja po dveh bazah istega vektorskega prostora. 2.5 Razsežnost vektorskega prostora 53 Izrek 2.40 — Sprememba baze. Denimo, da so e1, e2, . . . , en in e′ , e′ , . . . , e′ 1 2 n vektorji urejenih baz B in B′ vektorskega prostora V , ki sta povezani s prehodno matriko S = [s n i j] ∈ Mn(F) v smislu e′ = s j ∑i=1 i jei, j = 1, 2, . . . , n. Za poljuben vektor v ∈ V velja zveza med koeficienti razvoja po obeh bazah [v]B = S[v]B′. (2.13) Dokaz. Vrnimo se v (2.11) in v zapisu v = n ′ ∑ e′ zamenjajmo e′ , e′ , . . . , e′ i=1 αi i 1 2 n z izrazi (2.12). Tako dobimo v= ′ ′ ′ α1e′1 + α2e′2 + · · · + αne′n = ′ ′ α1 (s11e1 + s21e2 + · · · + sn1en) + α2 (s12e1 + s22e2 + · · · + sn2en) + . . . + ′ αn (s1ne1 + s2ne2 + · · · + snnen) = s ′ ′ ′ ′ ′ ′ 11α1 + s12α2 + . . . s1nαn e1 + s21α1 + s22α2 + . . . s2nαn e2 + . . . + s ′ ′ ′ n1α1 + sn2α2 + . . . snnαn en, od koder preberemo (spomnimo, da so koeficienti razvoja po bazi enolično določeni) ′ ′ ′ α1 = s11α1 + s12α2 + · · · + s1nαn ′ ′ ′ α2 = s21α1 + s22α2 + · · · + s2nαn ... ′ ′ ′ αn = sn1α1 + sn2α2 + · · · + snnαn, kar v matrični obliki zapišemo      ′  α1 s11 s12 . . . s1n α1′  α2   s21 s22 . . . s2n   α2   .  =  . . . .   .   ..   .. .. . . ..  ..        ′ αn sn1 sn2 . . . snn αn oziroma na kratko [v]B = S[v]B′ . ■ Praviloma nas zanima, kako se izražajo vektorji v novi bazi. Da enačbo (2.13) razrešimo na [v]B′, potrebujemo obrnljivost prehodne matrike S. Naslednja trditev nam jo zagotovi. Trditev 2.41 Prehodna matrika S ∈ Mn(F) je vedno obrnljiva. Dokaz. Denimo, da S ni obrnljiva. Potem obstaja tak matrični stolpec a ̸= 0, da je Sa = 0 (gl. točko (2) trditve 1.43). Denimo, da je a = [v]B′ za nek v ̸= 0. Iz (2.13) razberemo [v]B = 0, od koder je v = 0, kar je protislovje. Torej mora biti S obrnljiva. ■ S pravkar pridobljeno informacijo pa lahko zapišemo še [v]B′ = S−1 [v]B . 54 Poglavje 2. Algebrska struktura vektorski prostor Pomnite: stolpec koeficientov razvoja vektorja po novi bazi je stolpec koeficientov razvoja po stari bazi (z leve) pomnožen z inverzno matriko prehodne matrike S, katere stolpci so koeficienti razvoja novih baznih vektorjev po stari bazi. 2.6 Značilni podprostori matrike 2.6.1 Ničelni, vrstični in stolpčni prostor Matriki A ∈ m,n F priredimo nekaj značilnih podprostorov v prostorih matričnih stolpcev n,1 m,1 n,1 F oziroma F . Najprej se spomnimo, da je množica vseh rešitev x ∈ F homogenega sistema linearnih enačb Ax = 0 ∈ m,1 n,1 F , vedno podprostor prostora matričnih stolpcev F , gl. točko (9) zgleda 2.7. Definicija 2.42 Naj bo A ∈ m,n F poljubna matrika z vrsticami v1, v2, . . . , vm in stolpci s1, s2, . . . , sn. Ničelni podprostor matrike NA ali tudi jedro matrike Ker A je N n,1 A = Ker A = x ∈ F ; Ax = 0 . Razsežnosti tega podprostora pravimo ničelnost matrike A in označimo z n (A) := dim NA. Prostor vrstic je tisti podprostor 1,n F , ki ga razpenjajo vse vrstice matrike VA = L {v1,v2,...,vm}, razsežnost tega prostora imenujemo vrstični rang matrike, v−rang (A) := dim VA. Prostor stolpcev SA ali slika Im A (oznaka izhaja iz angl. besede image) je tisti podprostor m,1 F , ki ga razpenjajo vsi stolpci matrike A, SA = L {s1,s2,...,sn}, razsežnost tega podprostora pa je stolpčni rang matrike A, s−rang (A) := dim SA. Običajno se izraza jedro in slika uporabljata bolj za linearne preslikave, v našem primeru za preslikavo x 7→ Ax, kot za matrike. Vendar najdemo v literaturi izraza jedro in slika pogosto tudi v povezavi z matrikami, zato smo tukaj omenili tudi to poimenovanje. V naslednjem strukturnem izreku bomo spoznali, katera matrika je najpreprostejši reprezentant poljubne matrike A glede na relacijo ekvivalence matrik, gl. definicijo 1.31. 2.6 Značilni podprostori matrike 55 Izrek 2.43 Za poljubno matriko A ∈ m,n F obstajata taki obrnljivi matriki S ∈ Mm(F) in T ∈ Mn(F), da velja I A = S r 0 T, 0 0 kjer je Ir ∈ Mr(F) enotska matrika. Dokaz. Z Gaussovo eliminacijo, z elementarnimi transformacijami na vrsticah, preoblikujemo matriko v kanonično stopničasto obliko. Ustrezne elementarne matrike zložimo v obrnljivo matriko S in tako je A = SQ, kjer je Q kanonična stopničasta matrika z r pivoti (gl. definicijo 1.9). Nadalje z elementarnimi transformacijami na stolpcih matrike Q najprej prestavimo vse stolpce, v katerih so pivoti, na prvih r stolpcev, tako, da postane zgornji skrajno levi blok dobljene matrike enotska matrika Ir, nato pa z elementarnimi transformacijami le po stolpcih dosežemo ničle še na vseh stolpcih desno od teh prvih r. Tako je kanonična I stopničasta matrika Q po stolpcih ekvivalentna r 0 . Elementarne transformacije, 0 0 ki smo jih izvajali na stolpcih matrike Q, združimo v obrnljivo matriko T in dobimo I Q = r 0 T . Želeni rezultat takoj sledi. ■ 0 0 I Matrika A je torej ekvivalentna (gl. def. 1.31) zelo preprosti bločni matriki r 0 , 0 0 kjer je r invarianta, ki natanko določa (reprezentira) razred ekvivalentnih matrik določene velikosti. Z drugimi besedami, vse m × n matrike ranga r so ekvivalentne m × n matriki I r 0 . 0 0 Posledica 2.44 Stolpčni in vrstični rang matrike A ∈ m,n F sta enaka r iz prejšnjega izreka. v−rang (A) = dim VA = r = dim SA = s−rang (A) . I Dokaz. Naj za A velja razcep 2.14, pišimo A = S r 0 ∆rT , kjer je ∆r = . Označimo s 0 0 t1, t2, . . . , tn vrstice matrike T in naj s1, s2, . . . sm po vrsti predstavljajo stolpce matrike S. Po konstrukciji v dokazu prejšnjega izreka je VA = V . (2.14) ∆rT in SA = SS∆r Uporabimo še, da je  t  1 . I . r 0  .  ∆   rT = T = , 0 0  t   r  0m−r,n in I S r 0 ∆r = S = s . 0 0 1 . . . sr 0m,n−r 56 Poglavje 2. Algebrska struktura vektorski prostor Matriki S in T sta obrnljivi, zato so vrstice matrike T linearno neodvisne, prav tako so linearno neodvisni stolpci matrike S. Nato imamo v−rang (A) = dim VA = dim L (t1, . . . , tr) = r in s−rang (A) = dim SA = L (s1, . . . , sr) = r. ■ Zaradi enakosti stolpčnega in vrstičnega ranga govorimo kar o rangu matrike, ki je hkrati vrstični in stolpčni rang matrike. Nazadnje zapišimo še pomemben izrek, ki povezuje razsežnosti ničelnega in stolpčnega prostora matrike. Izrek 2.45 — Rang-ničelnost. Za poljubno matriko A ∈ m,n F velja rang A + n(A) = n, kjer sta rang A in n(A) rang oz. ničelnost matrike A. Dokaz. Ničelnost matrike A je razsežnost ničelnega podprostora, torej rešujemo enačbo Ax = 0. Označimo na kratko r = rang A. Uporabimo razcep iz izreka 2.43, vpeljimo novo neznanko y := T x in jo zapišimo še v bločni obliki y y = 1 , y r,1, y n−r,1, n − r ≥ 0. y 1 ∈ F 2 ∈ F 2 Po množenju enačbe I Ax = S r 0 T x = 0 0 0 z matriko S−1 z leve, dobimo I r 0 y1 y 0 = 1 = . 0 0 y2 0 0 Tako vidimo, da je y1 = 0, y2 pa poljuben in tako je n − r prostih parametrov v rešitvi. Zato je n(A) = n − r. ■ V naslednjem izreku bomo še enkrat povzeli dejstva o rešljivosti linearnih sistemov. Izrek 2.46 — Rešljivost linearnih sistemov. Bodita A ∈ m,n m,1 F in b ∈ F . (1) Linearen sistem Ax = b je rešljiv natanko tedaj, ko je b ∈ SA. (2) Linearen sistem Ax = b je rešljiv natanko tedaj, ko je rang([A|b]) = rang(A). (3) Linearen sistem Ax = b je rešljiv za vsako desno stran b, če in samo če je SA = m,1 F , kar je ekvivalentno tudi rang(A) = m. (4) Linearen sistem Ax = b ima kvečjemu eno rešitev natanko takrat, ko so stolpci matrike A linearno neodvisni, kar je ekvivalentno tudi rang(A) = n. Dokaz. (1) Gl. trditev 2.14. 2.6 Značilni podprostori matrike 57 (2) Uporabimo dejstvo, da vedno velja SA ⊆ S[A|b]. Za netrivialno implikacijo uporabimo še, da dodaten podatek o enakosti razsežnosti teh podprostorov pomeni, da sta stolpčna prostora matrik A in [A|b] dejansko enaka (gl. točko (2) trditve (2.37)), od koder je b ∈ SA in zato po točki (1) tega izreka sistem rešljiv. (3) Sledi iz točke (1). (4) Zapis Ax lahko, kot že vemo, razumemo kot linearno kombinacijo stolpcev matrike A. Če bi bila dva vektorja x1 in x2 rešitvi, bi bilo Ax1 = b in Ax2 = b. Enačbi odštejemo in dobimo, A(x2 − x1) = 0. Ker so stolpci A linearno neodvisni, so koeficienti enaki nič, torej so vse komponente vektorja x2 − x1 enake 0. Sledi x2 = x1. ■ Na koncu omenimo še eno strukturno lastnost rešitev sistemov linearnih enačb, ki povezuje rešitve nehomogenega sistema Ax = b ̸= 0 in pridruženega homogenega sistema Ax = 0. Množico vseh rešitev sistema Ax = b bomo imenovali splošna rešitev sistema. Trditev 2.47 Naj bo xp poljubna izbrana (posebna, partikularna) rešitev rešljivega sistema linearnih enačb Ax = b ̸= 0. Splošna rešitev tega sistema se glasi {xp + xh; Axh = 0} = {xp} + NA. Z drugimi besedami: vsaka rešitev je vsota neke posebne rešitve in rešitve homogenega sistema. Dokaz. Najprej ni težko preveriti, da je A(xp + xh) = b + 0 = b. Obratno, imejmo poljubni rešitvi x1 in x2 našega sistema, Ax1 = b in Ax2 = b. Enačbi odštejemo med seboj in dobimo npr. A(x1 − x2) = 0. Torej razlika poljubnih dveh rešitev nehomogenega sistema reši pridruženi homogeni sistem, x1 − x2 ∈ NA. Če rečemo xp := x2 in je x1 poljubna rešitev, rezultat sledi. ■ 58 Poglavje 2. Algebrska struktura vektorski prostor 2.7 Naloge 1. Pokažite, da je premica v prostoru, ki poteka skozi izhodišče, vektorski prostor za običajno seštevanje in skaliranje vektorjev. R.: Premico skozi izhodišče lahko predstavimo kot p = {t⃗s; t ∈ R}, kjer je ⃗0 ̸= ⃗s = (s1, s2, s3) smerni vektor premice. Točke premice smo izenačili z njihovimi krajevnimi vektorji. Najprej preverimo, da je rezultat seštevanja in skaliranja dobro definiran; za poljubne t1,t2,t, α ∈ R velja: t1⃗s + t2⃗s = (t1 + t2)⃗s ∈ p, α(t⃗s) = (αt)⃗s ∈ p, nato še preverimo, da veljajo vsi aksiomi vektorskega prostora. (1) asociativnost seštevanja: (t1⃗s + t2⃗s) + t3⃗s = (t1 + t2 + t3)⃗s = t1⃗s + (t2⃗s + t3⃗s) (2) komutativnost seštevanja: t1⃗s + t2⃗s = t2⃗s + t1⃗s (3) ničelni vektor: ⃗0 = 0⃗s (4) nasprotni vektor k t⃗s je vektor na premici: (−t)⃗s ∈ p (5) α(β t⃗s) = (αβ )(t⃗s) (6) (α + β )⃗s = α⃗s + β⃗s (7) α(t1⃗s + t2⃗s) = α(t1⃗s) + α(t2⃗s) (8) 1 · t⃗s = t⃗s. 2. Na podoben način kot v prejšnji nalogi preverite, da je poljubna ravnina skozi izhodišče vektorski prostor. Hkrati se prepričajte, da ravnina, ki ne vsebuje izhodišča, ni vektorski prostor. R.: Podobno kot v prejšnji nalogi pokažemo, da je ravnina Π = {t⃗a + s⃗b;t, s, ∈ R}, kjer sta ⃗a in⃗b nekolinearna vektorja (lahko vzamemo nekolinearna krajevna vektorja do dveh točk ravnine). Ravnina, ki ne vsebuje izhodišča, pa ni vektorski prostor: ravnino (ki ne poteka skozi točko (0, 0, 0)) tokrat za spremembo predstavimo v splošni obliki Σ = {(x, y, z); ax + by + cz = d ̸= 0}. Če dve točki (krajevna vektorja teh točk) ravnine (x1, y1, z1) in (x2, y2, z2) seštejemo, upoštevamo, da zanju velja ax1 + by1 + cz1 = d in ax2 + by2 + cz2 = d, s seštevanjem teh dveh enačb pa ugotovimo, da za njuno vsoto velja a(x1 + x2) + b(y1 + y2) + c(z1 + z2) = 2d ̸= d, ker d ̸= 0. Torej se je točka, ki ustreza vsoti vektorjev, znašla izven ravnine Σ. 3. Ugotovite in utemeljite, ali je podana množica U vektorski prostor za običajno seštevanje in skaliranje matrik. a a a) U = ; a, b ∈ . b b F 1 a b) U = ; a, b, c ∈ . b c F R.: a) U je vektorski prostor, preveriti je potrebno vse lastnosti kot v prejšnji nalogi. b) S seštevanjem poljubnih matrik iz množice U 1 a 1 d 2 a + d + = / ∈ U, b c e f b + e c + f vidimo, da ne dobimo matrike iste oblike, ker ima vsota v zgornjem levem kotu 2 namesto 1! Ta množica tako ni zaprta za seštevanje, kar pomeni, da U ne more biti vektorski prostor za običajno seštevanje in skaliranje matrik. 4. Podani so vektorji: ⃗a = (5, −2, 1),⃗b = (0, −3, 2) in ⃗c = (3, 1, 0). 2.7 Naloge 59 a) Zapišite vektor (−3, 4, 1) kot linearno kombinacijo vektorjev ⃗a,⃗b in ⃗c. b) Pokažite, da so vektorji ⃗a,⃗b in ⃗c linearno neodvisni. R.: a) Izračunati je potrebno koeficiente α, β in γ, da bo izpolnjeno (−3, 4, 1) = α(5, −2, 1) + β (0, −3, 2) + γ(3, 1, 0), kar privede do sistema linearnih enačb 5α + 3γ = − 3 −2α − 3β + γ = 4 α + 2β = 1. Rešitev sistema je α = −3, β = 2, γ = 4 in tako je (−3, 4, 1) = −3⃗a + 2⃗b + 4⃗c. b) Vektorji ⃗a, ⃗b in ⃗c so linearno neodvisni natanko tedaj ko iz α⃗a + β⃗b + γ⃗c =⃗0 nujno sledi α = β = γ = 0. Rešimo sistem α (5, −2, 1) + β (0, −3, 2) + γ (3, 1, 0) = (0, 0, 0), katerega edina rešitev je α = β = γ = 0. 5. Ali so naslednje množice ogrodje 3 R ? Kadar niso, določite geometrijsko obliko podprostora, ki ga razpenjajo. a) {⃗i,⃗j,⃗k, (1, 2, 3)} b) {(1, 0, −1) , (1, −1, 0)} c) {(1, 1, 1) , (1, 1, 0) , (0, 0, 1)} R.: (a) da; (b) ne, ravnina x + y + z = 0; (c) ne, ravnina x − y = 0. 6. Dokažite navedene lastnosti linearno neodvisnih podmnožic vektorskega prostora. a) Podmnožica, ki vsebuje vektor 0, je vedno linearno odvisna. b) Če linearno neodvisni množici odvzamemo kak vektor (ali več vektorjev), je množica še zmeraj linearno neodvisna. Z drugimi besedami: vsaka neprazna podmnožica linearno neodvisne množice je linearno neodvisna. c) Če vektor w ni linearna kombinacija linearno neodvisnih vektorjev v1, v2, . . . , vn, je množica {v1, v2, . . . , vn} ∪ {w} linearno neodvisna. d) Množica z dvema vektorjema je linearno odvisna natanko tedaj, ko sta kolinearna. R.: a) Vedno lahko zapišemo vektor 0 kot 1·0 = 0, torej imamo linearno kombinacijo, v kateri je en (in edini) koeficient 1 od 0 različen. b) Recimo, da je množica {v1, v2, . . . , vn} linearno neodvisna. Pokažimo, da je potem tudi množica {v1, v2, . . . , vn−1} linearno neodvisna. Predpostavimo naspro-tno, da je množica {v1, v2, . . . , vn−1} linearno odvisna. Potem lahko najdemo take α1, . . . , αn−1, ki niso vsi 0, da je hkrati α v1 + α2v2 + · · · + αn−1vn−1 = 0. Potem pa je tudi α v1 + α2v2 + · · · + αn−1vn−1 + 0vn = 0 60 Poglavje 2. Algebrska struktura vektorski prostor Tako smo dobili linearno kombinacijo vektorjev v1, v2, . . . , vn, kjer niso vsi koeficienti enaki 0. Torej je množica {v1, v2, . . . , vn} linearno odvisna. Protislovje. c) Postavimo α1v1 + α2v2 + · · · + αnvn + β w = 0. Če bi bil β ̸= 0, bi se dalo w izraziti z v1, v2, . . . , vn, torej β = 0. Sledi α1v1 + α2v2 + · · · + αnvn= 0, zaradi linearne neodvisnosti v1, v2, . . . , vn so vsi αi, i = 1, 2, . . . , n, enaki 0. d) Če je v1 = αv2, je 1v1 − αv2 = 0, torej sta v1 in v2 linearno odvisna. Obratno, če sta odvisna, je v linearni kombinaciji αv1 + β v2 = 0 vsaj eden izmed α, β različen od 0. Če je to α, je v1 mnogokratnik v2, če β ̸= 0, pa lahko izrazim v2 z v1. 7. Dokažite, da je množica {(1, 2, 3, 4) , (0, 1, 2, 3), (0, 0, 1, 2) in (0, 0, 0, 1)} baza prostora 4 R . R.: 1. način. Za podane vektorje je potrebno preveriti, da so a) linearno neodvisni in b) ogrodje, kar pomeni: vsak vektor iz 4 R se da z njimi izraziti kot linearna kombinacija. a) x (1, 2, 3, 4) + y (0, 1, 2, 3) + z (0, 0, 1, 2) + t (0, 0, 0, 1) = (0, 0, 0, 0) implicira sistem linearnih enačb za x, y, z,t. Hitro vidimo, da so x = y = z = t = 0 in to je edina rešitev tega sistema. b) Ali lahko za poljuben (a, b, c, d) ∈ 4 R najdemo take x, y, z, t ∈ R, da bo x (1, 2, 3, 4) + y (0, 1, 2, 3) + z (0, 0, 1, 2) + t (0, 0, 0, 1) = (a, b, c, d)? Enačba (x, 2x + y, 3x + 2y + z, 4x + 3y + 2z + t) = (a, b, c, d) porodi sistem x = a 2x + y = b (2.15) 3x + 2y + z = c 4x + 3y + 2z + t = d, ki ima rešitev x = a, y = −2a + b, z = a − 2b + c in t = b − 2c + d, torej je množica danih vektorjev ogrodje. 2. način. Oba koraka lahko naredimo hkrati, če upoštevamo trditev 2.20. Sistem enačb (2.15) ima namreč za vsako desno stran a, b, c, d enolično rešitev. To je posledica dejstva, da je matrika tega linearnega sistema obrnljiva. 8. Podana sta vektorska podprostora U in V prostora 4 R . U = {(a, b, c, d) ; b + c + d = 0} V = {(a, b, c, d) ; a + b = 0 in c = 2d} Poiščite kakšni bazi podprostorov U in V ter določite njuni razsežnosti. R.: Iz enačbe b + c + d = 0 izrazimo eno neznanko, recimo d = −b − c, nato je U = {(a, b, c, −b − c) ; a, b, c ∈ R}. Vidimo, da so ostali še samo trije parametri a, b, c, s katerimi lahko izrazimo (a, b, c, −b − c) = a (1, 0, 0, 0) + b (0, 1, 0, −1) + c (0, 0, 1, −1) . 2.7 Naloge 61 Tako vidimo, da so vektorji (1, 0, 0, 0) , (0, 1, 0, −1) in (0, 0, 1, −1) ogrodje prostora U . Hitro pa se prepričamo, da so linearno neodvisni, saj iz α (1, 0, 0, 0) + β (0, 1, 0, −1) + γ (0, 0, 1, −1) = (0, 0, 0, 0) sledi α = β = γ = 0. Množica {(1, 0, 0, 0) , (0, 1, 0, −1) , (0, 0, 1, −1)} je (naravna) baza prostora U in dimU = 3. Za vektorski prostor V najdemo bazo podobno: V = {(a, b, c, d) ; a + b = 0 in c = 2d} = {(a, −a, 2d, d) ; c, d ∈ R} in (a, −a, 2d, d) = a (1, −1, 0, 0) + d (0, 0, 2, 1) . Očitno sta vektorja (1, −1, 0, 0) in (0, 0, 2, 1) linearno neodvisna (nekolinearna, ne-proporcionalna), zato je {(1, −1, 0, 0) , (0, 0, 2, 1)} baza V in dimV = 2. 9. Pokažite, da so vrstice obrnljive matrike linearno neodvisne in da so stolpci obrnljive matrike linearno neodvisni. R.: Linearna neodvisnost stolpcev obrnljive matrike A sledi iz dejstva, da ima sistem Ax = 0, kjer je Ax oblika linearne kombinacije stolpcev matrike A, ki je enaka 0, zaradi obrnljivosti matrike A le ničelno rešitev. Podoben sklep lahko ponovimo za AT , xT A = (AT x)T = 0T , od koder sledi, da so stolpci AT , torej vrstice obrnljive matrike A tudi linearno neodvisne. 1 1 1 1 10. Matriki A = 2 2 2 2 določite kanonično obliko iz izreka 2.43. Kolikšen je 3 3 3 3 rang matrike A? 1 0 0 0 R.: Iskana oblika je 0 0 0 0, rang A = 1. 0 0 0 0 3. Linearne preslikave 3.1 Aditivnost, homogenost in linearnost Linearne preslikave so prav posebne preslikave med dvema izbranima vektorskima prostoroma. V splošni algebri pravimo takim preslikavam, ki na neki način prenesejo za algebrsko strukturo značilne operacije iz ene strukturo v istovrstno drugo strukturo, homomorfizmi te strukture. Govorimo o homomorfizmih grup, obsegov, polj, grafov, itd. Bodita U in V poljubna vektorska prostora nad istim poljem skalarjev F. Naj bo F : U → V, u 7→ v = F (u) ∈ V; u ∈ U, neka preslikava (funkcija). Uporabljali bomo zapis, ki se razlikuje od zapisa pri npr. realnih funkcijah. Namesto F (u) bomo pisali kar F u in prebrali: "F deluje na vektorju u" kot pač določa njen predpis. Prostoru U bomo rekli domena, prostoru V pa kodomena preslikave F : U → V . Definicija 3.1 — Vrste preslikav med vektorskimi prostori. Naj bosta U in V vektorska prostora nad istim poljem F. Preslikava F : U → V je: • aditivna, če za vsak par u1, u2 ∈ U velja: F (u1 + u2) = F u1 + F u2; • homogena, če je za vsak u ∈ U in za vsak α ∈ F izpolnjeno: F (αu) = αF u; • linearna, če je aditivna in homogena oziroma ekvivalentno: če za vsak par vektorjev u1, u2 ∈ U in za vsak par skalarjev α, β ∈ F velja: F (αu1 + βu2) = αF u1 + βF u2. (3.1) Oba vektorska prostora, med katerima naj deluje linearna preslikava, morata biti nad istim poljem: isti skalarji namreč v pogoju (3.1) nastopajo v linearni kombinaciji vektorjev u1 in u2 iz prostora U na levi strani enakosti in vektorjev F u1 in F u2 iz prostora V na desni strani. Za linearno preslikavo se včasih uporablja poimenovanje linearna transformacija ali tudi linearen operator. Aditivnost in homogenost sta lastnosti, ki vključujeta le po eno operacijo, v linearnosti pa nastopata obe operaciji, seštevanje in skaliranje v obliki linearne kombinacije. Pri vseh treh pojmih zgornje definicije gre za to, da lahko zamenjamo vrstni red seštevanja, 64 Poglavje 3. Linearne preslikave skaliranja ali linearne kombinacije in preslikave. Naslednja trditev pove med drugim, kako so te lastnosti povezane. Trditev 3.2 — Osnovne lastnosti linearnih preslikav. (1) Preslikava F : U → V je linearna natanko tedaj ko je aditivna in homogena. (2) Linearna preslikava F : U → V preslika vektor 0 ∈ U v vektor 0 ∈ V . (3) Identična preslikava I : U → U, I u := u, u ∈ U, je linearna. (4) F ( n n ∑i=1 αiui) = ∑i=1 αiF ui velja za poljubne vektorje u1, u2, . . . , un in skalarje α1, α2, . . . , αn. Dokaz. Gl. nalogi 1 in 2 tega poglavja, preverjanje lastnosti (3) in (4) prepustimo bralcu. ■ Sledi nekaj zgledov za nas pomembnih linearnih preslikav. ■ Zgled 3.3 Naj bo V poljuben vektorski prostor nad poljem F. Preslikava (skaliranje) S : v 7→ 3v, v ∈ V, je linearna preslikava. Res, za poljubna vektorja v1, v2 ∈ V in poljubna skalarja α, β ∈ F imamo S (αv1 + βv2) = 3(αv1 + βv2) = α(3v1) + β(3v2) = αS (v1) + βS (v2). Seveda je S linearna preslikava tudi, če število 3 zamenjamo s katerimkoli izbranim številom γ ∈ F. ■ ■ Zgled 3.4 Vrtenje (rotacija) za izbrani kot ϕ v nasprotni smeri urinega kazalca okrog izhodišča v ravnini 2 2 2 2 R . Postavimo U = V = R . Preslikava V : → naj bo definirana ϕ R R tako, da poljuben vektor ⃗r ∈ 2 R zavrtimo v (recimo) pozitivni smeri okrog izhodišča za kot ϕ in tako dobimo V ⃗r. Točke ravnine pri tem enačimo s krajevnimi vektorji teh točk. ϕ .. . V ⃗r ϕ .... ϕ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .... ⃗r ....................................... .. ..•............................................. ... 0 Slika 3.1: Vrtenje za kot ϕ v ravnini Linearnost preslikave V ponazori slika 3.2. Paralelogram, napet na vektorja⃗r ϕ 1 in ⃗r2 zavrtimo v nasprotni smeri urinega kazalca za kot ϕ. Vektor na diagonali zavrtenega paralelograma V (⃗r ϕ 1 +⃗r1) se očitno ujema z vektorjem na diagonali (modrega) paralelograma, ki je napet na zasukana vektorja V ⃗r ⃗r ϕ 1 in Vϕ 2. ■ 3.1 Aditivnost, homogenost in linearnost 65 . ....... V ⃗r ⃗r ϕ 1 + Vϕ 2 . ..... . ..... ..... ..... ..... ..... . . . .. . . . . . . . .. ..... V ⃗r . ϕ 2 ..... ... ..... .. V ..... ⃗r ϕ 1 . . . . ..... . . . . . . . . . . . . . . . . . . . . . . . . . . . . ... ..... . .. . . . ...................... .. .......................... ....................... .. . ................................. . . •...... ⃗r ... . .... 2 . ... . . . . . . . . . . . . . . . . . . . . . . . . 0 .. ........ . . . . . . . . . . . . . . .............................. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ... . . .. . . .. ....... . . . ... . . . .. ...................... .. . . . . . . . . . ..... ⃗r . ...... ..... ..... ..... ..... ..... . .. .. 1 +⃗r2 ⃗r1 Slika 3.2: Linearnost preslikave Vϕ 3 ■ Zgled 3.5 Pravokotna projekcija točk prostora R na ravnino Σ skozi izhodišče z normalnim vektorjem ⃗n, 3 Σ = {⃗r ∈ R ; ⃗r ·⃗n = 0}. Vzemimo, da je normalni vektor normiran: ∥⃗n∥ = 1. Naj bo U = V = 3 3 3 R . Preslikavo P : R → R tokrat predstavimo s predpisom P⃗r =⃗r − (⃗r ·⃗n)⃗n. (3.2) ⃗r... ....⃗n ................ ..................................... . ..•.......................... . ..P⃗r 0 ................................................................................................................................................................................................... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Slika 3.3: Pravokotna projekcija na ravnino skozi izhodišče Sedaj linearnosti ni težko preveriti z uporabo lastnosti osnovnih računskih operacij z vektorji, vključno z običajnim skalarnim produktom. P(α⃗r1 + β⃗r2) = α⃗r1 + β⃗r2 − ((α⃗r1 + β⃗r2) ·⃗n)⃗n = α⃗r1 − ((α⃗r1) ·⃗n)⃗n + β⃗r2 − ((β⃗r2) ·⃗n)⃗n = α (⃗r1 − (⃗r1 ·⃗n)⃗n) + β (⃗r2 − (⃗r2 ·⃗n)⃗n) = αP⃗r1 + β P⃗r2. ■ 66 Poglavje 3. Linearne preslikave ■ Zgled 3.6 Odvajanje npr. polinomov z neomejeno stopnjo je linearna (kot vemo aditivna in homogena) preslikava, kar je le na drug način povedano dobro znano pravilo za odvajanje: (p(x) + q(x))′ = p(x)′ + q(x)′, (α p(x))′ = α p(x)′ za poljubna polinoma p(x), q(x) in konstanto α. ■ Zgled, ki sledi, bo za naše potrebe najbolj pomemben in je na določen način, kot bomo kasneje videli, generičen. Zgled 3.8 pa je zelo soroden zgledu 3.7. m,n ■ Zgled 3.7 Poljubna izbrana matrika A ∈ F na naraven način določa linearno preslikavo A : n,1 m,1 n,1 F → F , A x = Ax, x ∈ F . Da je to res linearna preslikava, sledi iz osnovnih lastnosti matričnega računa, gl. (1) in (10) izreka 1.2. Res, A (αx + βy) = A(αx + βy) = αAx + βAy = αA x + βA y pri poljubnih x, y ∈ n,1 F in skalarjih α, β ∈ F. ■ 2 3 ■ Zgled 3.8 Tokrat naj bo preslikava F : R → R podana s predpisom F (x,y) = (x + y,x − y,2x + 3y). Kot vemo, lahko vektorje iz n R predstavimo z matričnimi stolpci glede na npr. standardni bazi B 2 3 2 oziroma B3 v R oz. R . Potem je  x + y  x [(x, y)]B = in [F (x, y)] =  x − y  . 2 y B3 2x + 3y Opazimo, da bi lahko to preslikavo gledali tudi kot preslikavo, ki pripada družini preslikav omenjenih v zgledu 3.7,  x + y    1 1 x x 7→ x − y 1 −1 . y   =   y 2x + 3y 2 3 ■ V naslednjem zgledu opozorimo na možne težave zaradi poimenovanja. ■ Zgled 3.9 Preslikava F : R → R, F x = kx + n je linearna (v smislu naše definicije) le, kadar je n = 0, saj je n = F 0 = 0. Analitiki pa lahko takim preslikavam rečejo, da so linearne. Splošneje, preslikavo x 7→ Ax + n, kjer je A podana matrika, n pa fiksen matrični stolpec, poimenujejo linearna preslikava. Sicer pa te preslikave sodijo v družino t.i. afinih preslikav. ■ 3.2 Matrika prirejena linearni preslikavi Začnimo kar z izrekom, ki pove, da je linearna preslikava med končnorazsežnima vektorskima prostoroma določena že s slikami baznih vektorjev. Kakor hitro pa fiksiramo urejeni bazi v domeni in kodomeni preslikave, pa linearni preslikavi na en sam način priredimo matriko, s katero linearno preslikavo predstavimo na način, ki smo ga srečali v zgledu 3.7. Spomnimo se, da zapis [u]B pomeni matrični stolpec koeficientov razvoja vektorja u po bazi B, gl. razdelek 2.4.1. 3.2 Matrika prirejena linearni preslikavi 67 Izrek 3.10 — Matrika linearne preslikave. Bodita U in V končnorazsežna vektorska prostora nad poljem F z urejenima bazama BU = {e1,e2,...,en}, in BV = {f1,f2,...,fm}, F : U → V pa naj bo poljubna linearna preslikava. (1) S slikami baznih vektorjev F e j, j = 1, 2, . . . , n, je F natanko določena. (2) Obstaja natanko ena matrika A = a m,n i j ∈ F , za katero velja [F u]B = A[u] , u ∈ U. (3.3) V BU Pri tem stolpce matrike A dobimo tako, da velja  a  1 j  a2 j   = F e , j = 1, 2, . . . , n. . . .  j B   V am j Še enkrat povejmo, da so elementi j-tega stolpca matrike A v (3.3) koeficienti razvoja po bazi BV z F preslikanega baznega vektorja e j. Poudarimo, da je matrika linearne preslikave odvisna od izbire baz. Matrika A ima n stolpcev, toliko kot je razsežnost domene U , in m vrstic, to je toliko kot je razsežnost kodomene V . Dokaz. Za poljuben u = n ∑ j=1 α je j ∈ U je zaradi linearnosti (gl. (4) trditve 3.2) izpolnjeno n F u = ∑ αjFej, (3.4) j=1 kar potrdi (1). (2) Za vse j = 1, 2, . . . , n, obstajajo natanko določeni skalarji ai j, za katere je F e j = m ∑ a i=1 i jfi. Nadalje (zamenjali bomo tudi vrstni red seštevanja) imamo n n m n m m n ! F u = ∑ αjFej = ∑ αj ∑ aijfi = ∑ ∑ αjaijfi = ∑ ∑ aijαj fi, (3.5) j=1 j=1 i=1 j=1 i=1 i=1 j=1 kjer so v zadnjem izrazu v oklepaju zapisani koeficienti razvoja vektorja F u ∈ V po bazi BV . Ob zapisu   β1 β [F u]  2  B =:   V . . .   βm vidimo, da je n βi = ∑ ai jα j, i = 1, 2, . . . , m, j=1 68 Poglavje 3. Linearne preslikave kar je le na drug način zapisana enakost (3.3). ■ ■ Zgled 3.11 Določimo matriko vrtenja V ravnine za izbrani kot ϕ ϕ v pozitivni smeri okrog izhodišča (gl. zgled 3.4). Dovolj bo zavrteti in izračunati koeficiente razvoja standardnih baznih vektorjev⃗i = (1, 0) in ⃗j = (0, 1). Iz slike 3.4 je razvidno, da se sliki baznih vektorjev izražata z V ⃗i = cos ϕ ϕ⃗i + sin ϕ⃗j, V ⃗j = −sin ϕ ϕ⃗i + cos ϕ⃗j. Sedaj še zložimo koeficiente razvoja preslikanih baznih vektorjev po vrsti v stolpca in nastane t.i. rotacijska matrika cos ϕ − sin ϕ V = . ϕ sin ϕ cos ϕ Ni težko videti, da je ta matrika ortogonalna (gl. definicijo 1.12 in trditev 1.15), zato je njej inverzna matrika kar V T = V . To je hkrati tudi v isti bazi matrika inverzne preslikave ϕ −ϕ V− , vrtenja za kot ϕ ϕ v nasprotni smeri kot prej. Omenimo, da bi bilo v tem primeru direktno precej težje izračunati koordinate poljubne zavrtene točke, kar bi bila sicer alternativna pot. ■ ⃗j .... .. 1 ... ⃗ . V . i = cos ϕ ϕ⃗i + sin ϕ⃗j ..... sin ϕ . . . . . . . . . . . . . . . ..... . . . .. . . . ..... ⃗ . j = − sin V ϕ⃗i + cos ϕ⃗j .. ϕ .. . . . . . . . . . . . . . . . . . . . .. ... .. . ... .. . .. .. .. . . . . . . . . . . . . .. . . . . . . . . . ...... ϕ ..... ⃗ . i ϕ ... ............................................................................. ................................. . . . . . . . . . . . . . . . . . . . . . . . . . . . . ............................. . . ........................................................................ ... .. .. .. .. . . . . . . .. .................................................................. . .. .. .. ................... ..... 0 cos ϕ 1 .............................................................................................. ..... Slika 3.4: Zavrtena vektorja⃗i in ⃗j Z linearnimi preslikavami lahko sestavljamo tudi nove linearne preslikave. Trditev 3.12 — Gradimo nove linearne preslikave. Naj bodo U , V in W vektorski prostori nad istim poljem F. (1) Kompozitum linearnih preslikav je linearna preslikava: če sta F : V → W in G : U → V linearni preslikavi, je tudi sestavljena preslikava (kompozitum) F ◦ G : U → W , F ◦ G x := F (G x), linearna. Tudi kompozitum končno mnogo linearnih preslikav je linearna preslikava. (2) Če je F : U → V povratno enolična (bijektivna) linearna preslikava, je tudi inverzna preslikava F −1 : V → U linearna preslikava. (3) Če sta F , G : U → V linearni preslikavi, je tudi vsota F + G : U → V , (F + G )x = F x + G x, x ∈ U, linearna preslikava. (4) Za poljubno linearno preslikavo F : U → V in poljuben izbran skalar γ ∈ F je skalirana preslikava γF : U → V , (γF )x := γF x, linearna preslikava. 3.2 Matrika prirejena linearni preslikavi 69 Dokaz. Za (1) in (2) gl. nalogi 3 in 7 tega poglavja, (3) in (4) pa je še preprosteje in izpustimo. ■ Trditev 3.13 — Vektorski prostor L(U,V ). Z definicijo vsote in skaliranja, gl. (3) in (4) trditve 3.12, postane množica L(U,V ) := {F : U → V ; F je linearna preslikava} (3.6) vektorski prostor nad istim poljem kot vektorska prostora U in V . Pri tem igra vlogo ničle tega vektorskega prostora ničelna preslikava, ki vse vektorje iz U preslika v 0 ∈ V in je očitno linearna. V posebnem primeru, ko je U = V , vpeljemo oznako L(U ) := L(U,U ). Preslikavam iz L(U ) rečemo tudi endomorfizmi. Dokaz. Preverjanje, da smo z omenjeno konstrukcijo res dobili vektorski prostor, prepustimo bralcu. ■ V naslednji trditvi bomo pokazali, da tudi matrike novih linearnih preslikav v trditvi 3.12 dobimo na enostaven in naraven način. Za poljubno linearno preslikavo F : U → V in njeno matrično predstavitev [F u] = A[u], u ∈ U, v izbranih in fiksiranih bazah BU in BV vpeljimo oznako [F ] := A (3.7) in še enkrat poudarimo, da je izbira matrike bistveno odvisna od izbire baz, čeprav, zaradi enostavnosti zapisa, v oznaki (3.7) bazi prostorov U in V ne nastopata. Trditev 3.14 — Matrika kompozituma. Izberimo urejene baze BU , BV in BW konč- norazsežnih vektorskih prostorov U , V oz. W in linearnima preslikavama F : V → W in G : U → V priredimo matriki A := [F ] in B := [G ] v omenjenih bazah. Potem je [F ◦ G ] = AB. (3.8) Dokaz. Izberimo urejene baze prostorov U , V oziroma W B U = {e1, e2, . . . , en} , BV = f1, f2, . . . , fp , BW = {g1, g2, . . . , gm} . Kot običajno naj bo A = a i j in B = bi j . Dovolj je pokazati, da se za vsak j elementi j-tega stolpca matrike AB po vrsti ujemajo s koeficienti razvoja vektorja F ◦ G e j po bazi BW . Iz računa, kjer upoštevamo pravilo kompozituma, linearnost preslikav in zamenjamo vrstni red seštevanja p ! p p m ! F ◦ G e j = F G ej = F ∑ bkjfk = ∑ bkjFfk = ∑ bkj ∑ aikgi k=1 k=1 k=1 i=1 m p ! = ∑ ∑ aikbk j gi i=1 k=1 sledi, da je izraz v oklepaju v drugi vrstici prav (i, j)-ti element matrike AB. ■ Trditev 3.14 nam da motivacijo za vpeljavo takega matričnega produkta kot ga poznamo. 70 Poglavje 3. Linearne preslikave Če v domeni ali (in) kodomeni spremenimo bazo, se bo spremenila tudi matrika linearne preslikave. Linearni preslikavi lahko torej priredimo več matrik glede na izbiro različnih baz. Te matrike predstavljajo isto linearno preslikavo, zato lahko upravičeno domnevamo, da so na neki način povezane. Tako je smiselno vprašanje, na katerega dobimo odgovor v naslednjem razdelku. ? Kakšna je povezava med matrikami, ki v različnih bazah predstavljajo isto linearno preslikavo? 3.2.1 Sprememba matrike ob spremembi baz Naj bo F : U → V linearna preslikava med končnorazsežnima vektorskim prostoroma nad poljem F. Podobno kot v razdelku 2.5.1 imejmo t.i. stari in novi bazi prostorov U in V . Označimo z BU oz. BV stari bazi in z B′ oz. B′ novi bazi. Preslikava F naj poljuben U V vektor u ∈ U preslika v v = F u ∈ V . Označimo s PU in PV matriki prehoda iz stare na novo bazo v vsakem od prostorov U in V . Potem že vemo (gl. izrek 2.40 ), da velja [u]B′ = P−1 [u] , [v] = P−1 [v] , (3.9) U B B′ V B U U V V matriki preslikave F pa označimo z A oziroma A′ glede na uporabljeni bazi. Potem velja [v]B = A[u] in [v] = A′ [u] . (3.10) V BU B′ B′ V U S prepletom (3.9) in (3.10) dobimo, da velja P−1 [v] = [v] = A′ [u] = A′P−1 [u] . V BV B′ B′ U B V U U Enakost še pomnožimo z leve z matriko PV [v]B = PV A′P−1 [u] , V U BU od koder je razvidno, da je A = PV A′P−1 oziroma A′ = P−1AP U V U . (3.11) Iz enakosti (3.11) je razvidno, da sta matriki A in A′, ki v različnih bazah predstavljata isto linearno preslikavo, ekvivalentni, gl. definicijo 1.31. Diagram na sliki 3.5 je lahko v pomoč pri računanju, rečemo, da diagram komutira. Tehnično sestavljamo produkte kot kompozitume, zato moramo paziti na obratni vrstni red sestavljanja. Matrika A predstavlja matrično realizacijo preslikave F v bazah BU oz. BV . Na diagramu iz ovala z oznako BU pridemo v oval označen z BV na dva načina. Bodisi preko pučice z oznako A bodisi po daljši poti: po vrsti uporabimo puščice označene s P−1 in A′, nato pa še v obratni smeri P−1. Zaradi spremembe smeri bo P U V V namesto P−1. To sestavljanje je matrična reprezentacija kompozituma, zato moramo omenjene V matrike zložiti v niz v obratnem vrstnem redu. Tako s sprehajanjem po diagramu dobimo PV A′P−1 = A iz (3.11). Drugo enakost v (3.11) lahko dobimo iz tega diagrama na podoben U način. 3.2 Matrika prirejena linearni preslikavi 71 A ......................................................... . . . . . . . . . . BU BV .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . P−1 . . P−1 . . . . . U . . . . V . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ... .. . . ..... .. . ... A′ ......................................................... . . . . . . . . . . B′ B′ U V Slika 3.5: Povezava matrik ob spremembi baze Povzemimo zgornjo izpeljavo. Izrek 3.15 — Sprememba matrike ob spremembi baz. Bodita U in V končnorazse- žna vektorska prostora nad poljem F. V prostoru U izberimo urejeni bazi BU in B′U ter bazi BV in B′ . Matriki prehoda iz baze B oziroma iz baze B V U na B′U V na B′V označimo s PU in PV . Naj bo A matrika preslikave F glede na bazi BU in BV ter A′ matrika preslikave F glede na bazi B′ in B′ . Potem je med matrikama A in A′ zveza U V A′ = P−1AP V U . (3.12) Zapišimo še povezavo med matrikama za poseben primer, ko gre za linearno preslikavo iz končnorazsežnega prostora vase. Običajno v tem primeru izberemo le eno staro bazo in eno novo bazo, saj sta domena in kodomena enaki. Posledica 3.16 Naj bo U končnorazsežen vektorski prostor in F : U → U linearna preslikava. Imejmo urejeni bazi BU in B′ s prehodno matriko P. Označimo z A U oziroma A′ matriki preslikave F v bazah BU oziroma B′ . Potem velja U A = PA′P−1 oziroma A′ = P−1AP. (3.13) Dokaz. V enakosti (3.12) uporabimo, da je PU = PV = P glede na dogovor o izbiri stare oz. nove baze v U . ■ Enakosti (3.13) povesta, da sta matriki A in A′ podobni (gl. definicijo 1.31). Z zgledi pokažimo, da je mogoče v primerno izbranih bazah matriko linearne preslikave zapisati zelo enostavno. Da pridemo do matrike v izhodiščni (pogosto standardni) bazi pa je le še razmeroma preprost račun. 3 3 ■ Zgled 3.17 Naj bo P : R → R pravokotna projekcija na ravnino Σ v prostoru, Σ = {(x, y, z); x + y − z = 0}. Kako se glasi matrika te preslikave v standardni bazi, sestavljeni iz vektorjev⃗i, ⃗j in⃗k v tem vrstnem redu? Lahko bi z geometrijskimi argumenti, ki so lahko prav zapleteni, izračunali koordinate projekcije poljubne točke prostora in sestavili matriko preslikave v standardni bazi tako, da bi izračunali P⃗i, P⃗j in P⃗k ter koeficiente razvoja teh vektorjev zapisali po vrsti v stolpce matrike A te preslikave. 72 Poglavje 3. Linearne preslikave Postopali bomo drugače: izbrali bomo tako bazo (novo bazo) prostora 3 R , ki bo prilagojena geometriji našega problema in bo zato v tej bazi zelo preprosto zapisati matriko A′ preslikave P. Za naravno bazo se ponujajo: dva nekolinearna vektorja na ravnini Σ, recimo ⃗e′ = (1, 0, 1) in ⃗e′ = (0, 1, 1) in normalni vektor ravnine ⃗e′ = (1, 1, −1). Vse točke 1 2 3 ravnine Σ se sprojicirajo same vase, vrh normalnega vektorja ravnine pa se sprojicira v izhodišče. Zato je 1 P⃗f′ 7→ 1 = ⃗ e′1 = 1⃗f′1 + 0⃗e′2 + 0⃗e′3 0 0 0 P⃗e′ 7→ 2 = ⃗ e′2 = 0⃗e′1 + 1⃗e′2 + 0⃗e′3 1 0 0 P⃗e′ 7→ 3 =⃗02 = 0⃗ e′1 + 0⃗e′2 + 0⃗e′3 0 0 in se matrika A′ preslikave P v tej bazi glasi 1 0 0 A′ = 0 1 0 . 0 0 0 Matriko A′ smo dobili tako, da smo stolpce koeficientov razvoja preslikanih baznih vektorjev postavili v stolpce matrike A′. Ni težko sestaviti prehodne matrike iz standardne baze na urejeno bazo (⃗f′, ⃗f′ , ⃗f′ ); v 1 2 3 stolpce vpišemo koeficiente novih baznih vektorjev, ki so izraženi v standardni (stari) bazi. Tako je 1 0 1  P = 0 1 1  (3.14) 1 1 −1 želena matrika prehoda, matrika preslikave P v standardni bazi pa se po (3.13) glasi A = PA′P−1. Izračunati je potrebno še P−1, dobimo  2 −1 1  1 P−1 = −  1 2 1  3 1 1 −1 in naposled je 2 1 1 1 A = 1 2 1 3 1 1 2 želena matrika. ■ ■ Zgled 3.18 Poiščimo matriko zrcaljenja preko ravnine Σ iz prejšnjega zgleda. Vse je zelo podobno, le za matriko A′ vzamemo matriko 1 0 0  0 1 0  , 0 0 −1 3.3 Izomorfizmi 73 saj se tretji bazni vektor sedaj prezrcali v sebi nasprotni vektor. Končni rezultat je potem matrika 1 0 0   1 −2 2 1 B = P − 0 1 0  P−1 =  2 1 2 . 3 0 0 −1 2 2 1 ■ ■ Zgled 3.19 Izračunajmo pravokotno projekcijo točke T (1, 2, 2) na ravnino Σ iz zgleda 3.17 ter prezrcalimo točko T pravokotno čez ravnino Σ. Iskani točki označimo s Tp in Tz. Matriki teh linearnih preslikav v standardni bazi smo že izračunali v prejšnjih dveh zgledih. Sedaj točki T priredimo njen krajevni vektor in ga izrazimo kot matrični stolpec glede na standardno bazo. Matrični stolpec krajevnega vektorja projicirane/zrcaljene točke izračunamo z 1 2 1 1 1 2 1 1 A 2 = 1 2 1 2 = 5 , 3 3 2 1 1 2 2 7 1  1 −2 2 1 1 1 1 B − 2 =  2 1 2 2 = 4 3 3 2 2 2 1 2 8 in tako smo dobili Tp( 2 , 5 , 7 ) in T , 4 , 8 ). 3 3 3 z( 1 3 3 3 ■ 3.3 Izomorfizmi Pomembne lastnosti preslikav na splošno, torej tudi linearnih, so injektivnost, surjektivnost in bijektivnost. Spomnimo se najprej, kdaj je poljubna preslikava injektivna oziroma surjektivna. Bodita A in B poljubni neprazni množici. Preslikava f : A → B je injektivna, kadar poljubna različna originala a1 ̸= a2 preslika v različni sliki f (a1) ̸= f (a2). Ekvivalentna trditev, vendar bolj prikladna za testiranje injektivnosti, je f (a1) = f (a2) ⇒ a1 = a2. (3.15) Preslikava f : A → B je surjektivna natanko takrat, ko je njena zaloga vrednosti f (A) = { f (a); a ∈ A} enaka kodomeni B. Z drugimi besedami: za vsak element b kodomene B obstaja vsaj en original a ∈ A za katerega je f (a) = b. Preslikava je bijektivna natanko takrat, ko je injektivna in surjektivna. Znano je, da mora biti preslikava f : A → B bijektivna, da obstaja točno določena njej inverzna preslikava f −1 : B → A. Preslikava f −1 je natanko določena s predpisom f −1(b) = a natanko takrat, ko je f (a) = b. Pri linearnih preslikavah bodo omenjene lastnosti tesno povezane z določenimi značilnimi podprostori domene in kodomene oziroma z značilnimi podprostori matrike, ki jo v izbranih bazah priredimo obravnavani linearni preslikavi. 74 Poglavje 3. Linearne preslikave Definicija 3.20 Bijektivna linearna preslikava F : U → V se imenuje izomorfizem vektorskih prostorov U in V . Kadar med prostoroma U in V obstaja kak izomorfizem, rečemo, da je vektorski prostor U izomorfen vektorskemu prostoru V . Inverzna preslikava F −1 : V → U je tudi bijektivna linearna preslikava, torej izomorfizem, zato je tudi V izomorfen U . Tako pravimo tudi, da sta U in V , če med njima obstaja izomorfizem, izomorfna vektorska prostora. V naslednji trditvi bomo srečali izjemno pomemben primer izomorfizma. Trditev 3.21 Bodi V vektorski prostor nad poljem F, razsežnosti n ≥ 1. Izberimo urejeno bazo B : e n,1 1, . . . , en, prostora V . Preslikava F : V → F , ki vsakemu vektorju v ∈ V priredi matrični stolpec koeficientov razvoja po bazi B, gl. (2.4), je izomorfizem vektorskih prostorov V in n,1 F . Dokaz. Preslikava n,1 ϕ : V → F , ϕ(v) = [v]B je linearna, saj je za poljubna vektorja v n n 1 in v2 ∈ V , v1 = ∑i=1 αiei, v2 = ∑i=1 βiei, najprej v n 1 + v2 = ∑ ( i=1 αi + βi)ei, nato pa je     α1 β1 . . ϕ (v  .   .  1) = [v1]B = . , ϕ(v2) = [v2]B = . ,     αn βn   α1 + β1 . ϕ (v  .  1 + v2) = [v2]B = . = ϕ(v1) + ϕ(v2),   αn + βn zato je n ϕ aditivna. Pokažimo še homogenost, za poljuben vektor v = ∑i=1 γiei velja     δ γ1 γ1 . . ϕ (δ v) = [δ v]B =  ..  = δ  ..  = δ ϕ(v). (3.16)     δ γn γn Injektivnost sledi iz enoličnega razvoja po bazi, surjektivnost pa je očitna. ■ Preslikavo ϕ bi lahko komponirali tudi z naravnim izomorfizmom   α1 α  n,1 n 2 ψ : F → F ,  .  7→ (α1,α2,. ..,αn). (3.17)  ..    αn Kompozitum izomorfizmov je spet izomorfizem (poleg trditve 3.12 uporabimo še, da je kompozitum bijektivnih spet bijektivna preslikava), zato bi lahko rekli tudi, da je vsak n-razsežen vektorski prostor nad poljem F izomorfen prostoru urejenih n-teric n F . V literaturi se ta izomorfizem zelo pogosto privzame kot identiteta in se tega morda ne poudarja. Izomorfnost dveh vektorskih prostorov pomeni, da sta prostora na neki način "enaka" oziroma, da se računanje (seštevanje in skaliranje) v obeh odvija usklajeno. 3.3 Izomorfizmi 75 Trditev 3.22 — Lastnosti izomorfizmov. (1) n,1 m,1 F in F sta kot vektorska prostora nad poljem F izomorfna le, če je n = m. (2) Če sta U in V izomorfna ter V in W izomorfna vektorska prostora, sta izomorfna tudi U in W . (3) Poljubna končnorazsežna vektorska prostora iste razsežnosti sta izomorfna. (4) Če sta prostora U in V izomorfna, je dimU = dimV . (5) Naj bo W ≤ U . Za izomorfizem ϕ : U → V je ϕ(W ) := {ϕw; w ∈ W } podprostor prostora V iste razsežnosti kot W . Dokaz. (1) Izomorfizem n,1 m,1 ϕ : F → F si lahko predstavljamo kar kot preslikavo ϕ, ki poljuben stolpec x ∈ n,1 m,1 m,n F pošlje v stolpec Ax ∈ F , za neko matriko A ∈ F . Denimo, da je n > m. To pomeni, po izreku 2.33 o linearni odvisnosti, da so stolpci matrike A linearno odvisni. Potem pa obstaja tak matrični stolpec x ̸= 0, da velja Ax = 0. To pomeni, da je ϕx = 0 = ϕ0, kar je v nasprotju z bijektivnostjo ϕ, saj tako ϕ ne more biti injektivna, potem pa tudi ne izomorfizem. To protislovje pove, da je n ≤ m. Podoben razmislek ponovimo za preslikavo −1 ϕ in izvemo, da mora biti m ≤ n. Tako je končno n = m, kar smo želeli. (2) Uporabimo, da je kompozitum linearnih preslikav linearna preslikava in kompozitum bijektivnih bijektivna preslikava. (3) Bodita n,1 n,1 ϕ : U → F in ψ : V → F izomorfizma iz U oz. V na n-razsežen vektorski prostor matričnih stolpcev. Potem je −1 n,1 ψ : F → V tudi izomorfizem. Posledično je kompozitum −1 ψ ◦ ϕ izomorfizem prostorov U in V . (4) Sledi iz točk (1) in (2). (5) Najprej ni težko videti, da je ϕ(W ) ≤ V , gl. nalogo 5. Nato za linearno preslikavo ϕW : W → ϕ (W ), ki je očitno linearna, in po konstrukciji bijektivna, torej izomorfizem, uporabimo točko (4). ■ Ni res, da bi bila vsaka linearna preslikava med prostoroma iste razsežnosti izomorfizem. Skrajni primer je npr. ničelna preslikava na netrivialnem prostoru, ki vse vektorje preslika v ničelni vektor tega prostora. Ta preslikava ni bijektivna, saj očitno ni injektivna. Trditev 3.23 Matrika izomorfizma je obrnljiva neodvisno od izbranih urejenih baz v domeni in kodomeni. Dokaz. Če je U izomorfen n,1 m,1 F in V izomorfen F ter sta U in V izomorfna, mora biti n = m po točki (1) trditve 3.22. Naj bo ϕ : U → V izomorfizem in A matrika tega izomorfizma v izbranih urejenih bazah prostorov U in V . Če bi bila matrika A singularna, bi bili njeni stolpci linearno odvisni; z drugimi besedami, za neki neničeln matrični stolpec x, bi imeli Ax = 0. To bi pomenilo, da obstaja vektor 0 ̸= u ∈ U , za katerega je ϕu = 0. To pa je v protislovju z injektivnostjo izomorfizma ϕ, saj imamo različna vektorja, u in 0, ki se preslikata v 0. ■ 3.3.1 Jedro in slika linearne preslikave V prejšnjem razdelku smo se ukvarjali z izomorfizmi končnorazsežnih vektorskih prostorov in izvedeli, da so ti izomorfizmi predstavljeni z obrnljivimi matrikami. 76 Poglavje 3. Linearne preslikave ? Kako pa se z lastnostmi prirejene matrike izražajo injektivnost oz. surjektivnost linearne preslikave vsaka zase? Če ne bo drugače rečeno, bo v tem razdelku vedno F : U → V linearna preslikava med končnorazsežnima vektorskima prostoroma U in V nad istim poljem F. Videli bomo, da sta injektivnost in surjektivnost linearne preslikave v tesni zvezi z značilnimi podprostori prirejene matrike, ki smo jih spoznali v razdelku 2.6. Preslikavi F priredimo dva pomembna podprostora prostorov U oziroma V . Najprej ni težko preveriti, (gl. nalogi 4 in 5), da sta množici Ker F := {u ∈ U; F u = 0} in Im F := F (U) = {F u; u ∈ U} podprostora vektorskih prostorov U oziroma V . Natančneje, Ker F ≤ U in Im F ≤ V . Zaradi te lastnosti je smiselno govoriti o razsežnosti teh prostorov. Omenimo še, da je Im F natanko zaloga vrednosti preslikave F . Definicija 3.24 Naj bo F : U → V linearna preslikava. Podprostor Ker F ≤ U imenujemo jedro preslikave F , razsežnosti tega podprostora pa rečemo ničelnost preslikave F . Podprostoru Im F ≤ V rečemo slika preslikave F , razsežnost tega podprostora pa se imenuje rang preslikave F . Očitno ničelnost ne preseže razsežnosti prostora U , rang pa ne more biti večji od razsežnosti prostora V , gl. točko (1) trditve 2.37. ■ Zgled 3.25 Spomnimo se (gl. 3.4) vrtenja v nasprotni smeri urinega kazalca za kot ϕ okrog izhodišča, V : 2 → 2 . Določimo jedro in sliko te linearne preslikave. ϕ R R Najprej ugotovimo, da V ohranja dolžine vseh vektorjev. Zato lahko iz V (⃗r) =⃗0 ϕ ϕ sklepamo, da je ∥V (⃗r)∥ = ∥⃗r∥ = 0, kar pa je mogoče edinole za vektor⃗r =⃗0. Torej je ϕ jedro preslikave V trivialen prostor: Ker V = {⃗0}. ϕ ϕ Za sliko V pa je očitno, da je Im V = 2, saj je V (V ⃗r) =⃗r za poljuben vektor ϕ ϕ R ϕ −ϕ ⃗r ∈ 2 R . ■ ■ Zgled 3.26 Podobno obravnavajmo še pravokotno projekcijo P na izbrano ravnino Σ skozi izhodišče. Hitro ugotovimo, da je Im P = Σ, saj so vse projicirane točke prav na tej ravnini, hkrati pa se vse točke te ravnine projicirajo same vase. Trdimo, da je Ker P premica skozi izhodišče v smeri normalnega vektorja ravnine Σ. Pa naj bo poljuben⃗r ∈ Ker P. Upoštevajoč (3.2) mora zanj veljati ⃗0 = P⃗r =⃗r − (⃗r ·⃗n)⃗n, od koder vidimo, da mora biti⃗r kolinearen z normalnim vektorjem ⃗n. Obratno, če je⃗r = t⃗n, upoštevajoč, da je ∥⃗n∥ = 1, dobimo P⃗r = tP⃗n = t(⃗n − (⃗n ·⃗n)⃗n) = t(⃗n − ∥⃗n∥2⃗n) =⃗0, za poljuben t ∈ R, kar potrjuje našo napoved. ■ Medtem, ko sta prejšnja zgleda služila geometrijski predstavi, pa bo naslednji osnova za računanje bolj na splošno. Glede na dejstvo, da v izbranih urejenih bazah domene in kodomene, vsaki linearni preslikavi med končnorazsežnima vektorskima prostoroma dodelimo matriko, je pomembno vedeti, kako se v tem primeru izražata jedro in slika. 3.3 Izomorfizmi 77 m,n ■ Zgled 3.27 Naj bo z matriko A ∈ F na standarden način določena linearna preslikava A : n,1 m,1 n,1 F → F , x 7→ Ax, x ∈ F . Najprej ugotovimo, da se jedro preslikave A ujema z ničelnim podprostorom NA matrike A, ki je, kot vemo, prav prostor rešitev homogenega sistema linearnih enačb Ax = 0. Kako pa je s sliko? Trdimo, da je Im A = SA, prostor stolpcev matrike A, ki smo ga spoznali v definiciji 2.42. Res, sliko razpenjajo vsi vektorji Ax, x ∈ n,1 F , in posledično je dovolj, da vzamemo na mestu x vse bazne vektorje, recimo vektorje e1, e2, . . . , ..., en standardne baze v n,1 F . Za poljuben vektor y ∈ Im A namreč velja y = Ax za neki x = n ∑i=1 αiei, torej je n n y = Ax = A ∑ αiei = ∑ αiAei. i=1 i=1 To pove, da je vektor y v linearni lupini stolpcev Ae1, . . . , Aen matrike A, prav ti pa razpenjajo prostor SA. ■ V spodnji trditvi navajamo kriterija za injektivnost/surjektivnost linearne preslikave F : U → V. Trditev 3.28 (1) F je injektivna natanko takrat, ko je Ker F = {0}. (2) F je surjektivna natanko takrat, ko je dim Im F = dimV . Dokaz. (1) Predpostavimo najprej, da je F injektivna. Vektor u je v jedru preslikave F natanko takrat, ko je F u = 0. Linearna preslikava ničelni vektor domene vedno preslika v ničelni vektor kodomene, zato imamo F 0 = 0. Tako smo dobili, da je F u = 0 = F 0. Zaradi predpostavke injektivnosti preslikave F je u = 0. Obratno, naj bo sedaj Ker F = {0} in F u1 = F u2. Zaradi linearnosti lahko to enakost pretvorimo v F (u1 − u2) = 0. Edini vektor, ki ga F pošlje v 0, je vektor 0, zato je u1 − u2 = 0, od koder je u1 = u2 in tako je F injektivna. (2) Če je preslikava surjektivna, je po definiciji Im F = V , torej se ujemata tudi razsežnosti. Obratno, vedno je Im F ≤ V ; če pa sta Im F in V iste razsežnosti, sta po točki (2) trditve 2.37 ta prostora enaka, od koder sledi surjektivnost F . ■ Uporabimo pravkar preverjeno trditev za poseben primer linearne preslikave. Posledica 3.29 Naj bo A ∈ m,n n,1 F podana matrika. Preslikava x 7→ Ax, x ∈ F , je (1) injektivna natanko tedaj, ko je NA = {0} (ekv.: dim NA = 0); (2) surjektivna natanko tedaj, ko je rang A = m; Dokaz. V zgledu 3.27 smo videli, da je jedro dotične linearne preslikave ničelni podprostor NA in da je slika te preslikave prostor stolpcev SA. Za zaključek argumenta uporabimo še trditev 3.28, dejstvo, da je rang matrike prav razsežnost njenega prostora stolpcev in da je kodomena te preslikave m-razsežen prostor m,1 F . ■ V spodnjem izreku povežemo jedro linearne preslikave in ničelni podprostor ter sliko preslikave in prostor stolpcev pripadajoče matrike. 78 Poglavje 3. Linearne preslikave Izrek 3.30 Naj bo A ∈ m,n F matrika, ki v izbranih urejenih bazah U in V predstavlja linearno preslikavo F : U → V , dimU = n, dimV = m. Izomorfizma n,1 ϕU : U → F in m,1 ϕV : V → F naj vsakemu vektorju iz U oz. V priredita matrični stolpec koeficientov razvoja po izbranih urejenih bazah. Potem je ϕU (Ker F ) = NA, dim Ker F = dim NA = n(A) in ϕV (Im F ) = SA, dim Im F = dim SA = rang A, kjer sta NA in SA ničelni podprostor oziroma prostor stolpcev matrike A. Dokaz. Za vektor u ∈ Ker F imamo ϕu(u) = [u] in ϕV F u = [F u] = A[u]. Nato je F u = 0 tedaj in le tedaj, ko je A[u] = 0. Hkrati je v = F u (t.j. v ∈ ImF ), če in le če je ϕV v = [v] = A[u]. Zapis, da je [v] = A[u] za neki matrični stolpec [u] pove natanko to, da je [v] ∈ SA, gl. (2.1). Trditvi o razsežnostih jedra in slike pa sledita iz točke (5) trditve 3.22. ■ Sedaj bomo povezali trditev 3.28 in izrek 3.30. Videli bomo, da se ugotavljanje injektivnosti/surjektivnosti reducira na analizo ničelnega in stolpčnega prostora matrike, ki v izbranih urejenih bazah domene in kodomene predstavlja obravnavano linearno preslikavo. Izrek 3.31 Linearna preslikava F : U → V naj bo v izbranih urejenih bazah prostorov U in V predstavljena z matriko A ∈ m,n F . Potem velja: (1) F je injektivna natanko takrat, ko je preslikava x 7→ Ax, x ∈ n,1 F , injektivna. (2) F je surjektivna natanko takrat, ko je preslikava x 7→ Ax, x ∈ n,1 F , surjektivna. Dokaz. Uporabimo izrek 3.30, ki pove, da se razsežnosti ustreznih prostorov, ki so po trditvi 3.28 in posledici 3.29 relevantni za injektivnost oziroma surjektivnost, ujemajo. ■ Navedimo še pomemben izrek, za katerega smo matrično različico že spoznali prej. Izrek 3.32 — Rang-ničelnost za linearne preslikave. Naj bo F : U → V poljubna linearna preslikava med končnorazsežnima vektorskima prostoroma U in V nad istim poljem F. Med ničelnostjo in rangom preslikave F velja zveza dim Ker F + dim Im F = dimU. (3.18) Dokaz. Glede na dejstvo, da so vpletene le razsežnosti nam že dobro znanih znanih podprostorov, lahko uporabimo kar matrično reprezentacijo. Nato je izrek posledica izreka 2.45. Alternativen, neposreden dokaz tega izreka je v rešitvi naloge 6. ■ Izrek rang-ničelnost povezuje razsežnosti dveh prostorov, ki sta podprostora v splošnem različnih prostorih; Ker F je podprostor domene, medtem ko je slika Im F podprostor kodomene. Posledica zgornjega izreka je posebnost, ki specifično velja za linearne preslikave. 3.4 Naloge 79 Posledica 3.33 Denimo, da sta prostora U in V iste razsežnosti, dimU = dimV . Linearna preslikava F : U → V je injektivna tedaj in le tedaj, ko je surjektivna. Dokaz. Naj bo dimU = dimV = n. Denimo, da je F injektivna. Potem je dim Ker F = 0 in iz (3.18) sledi, da je dim Im F = n, torej je Im F = U in F surjektivna. Podobno iz surjektivnosti dobimo injektivnost. ■ 3.4 Naloge 1. Pokažite, da je preslikava F : U → V aditivna in homogena natanko tedaj, ko za poljubna vektorja u1, u2 ∈ U in skalarja α, β ∈ F velja pogoj (3.1). R.: Ob predpostavki, da je F aditivna in homogena pokažimo, da zadošča pogoju (3.1). F aditivnost homogenost (αu1 + β u2) = F (αu1) + F (βu2) = α F u1 + β F u2. Če za F velja (3.1), imamo F (u1 + u2) = F (1u1 + 1u2) = 1F u1 + 1F u2 = F u1 + F u2 F (αu) = F (αu + 0u) = αF u + 0F u = αF u. 2. Pokažite, da vsaka linearna preslikava preslika vektor 0 v vektor 0. R.: v = F 0 = F (0 + 0) = 2F 0 = 2v implicira v = 0. 3. Če sta F : U → V , in G : V → W linearni preslikavi, pokažite, da je potem tudi G ◦ F : U → W linearna preslikava. R.: Vzemimo poljubna u1, u2 ∈ U in α, β ∈ F. Izračunajmo: (G ◦ F ) (αu1 + β u2) = G (F (αu1 + β u2)) = G (αF u1 + β F u2) = αG F u1 + β G F u2 = α (G ◦ F ) u1 + β (G ◦ F ) u2. 4. Dokažite, da je Ker F podprostor prostora U, če je F : U → V linearna preslikava. R.: Najprej je Ker F neprazna podmnožica v prostoru U, ker je F 0 = 0. Pokazati je potrebno še, da je pri poljubnih α, β ∈ F, vektor αu1 + β u2 ∈ Ker F , kakor hitro sta u1 in u2 ∈ Ker F . Zaradi linearnosti F je F (αu1 + βx2) = αF u1 + βF u2 = α0 + β 0 = 0. 5. Dokažite, da je Im F podprostor prostora V , če je F : U → V linearna preslikava. R.: Po definiciji je Im F podmnožica v prostoru V , očitno neprazna. Da je Im F vektorski podprostor, sledi iz dejstva, da je Im F zaloga vrednosti preslikave F , Torej za poljubne v1, v2 ∈ Im F obstajata taka vektorja u1 in u2, da je v1 = F u1 in v2 = F u2. Nato je α v1 + β v2 = α F u1 + β F u2 = F (αu1 + β u2) ∈ Im F . 80 Poglavje 3. Linearne preslikave 6. Naj bo F linearna preslikava med končnorazsežnima prostoroma U in V . Pokažite, da velja: dim Ker F + dim Im F = dimU. R.: Denimo najprej, da je dim Ker F = s > 0 in naj bo {e1, . . . , es} baza Ker F . Če bi bila {e1, . . . , es} tudi baza prostora U, bi bila F ničelna preslikava, torej Im F = {0}, in tako dim Ker F + dim Im F = s + 0 = s = dimU. V nasprotnem primeru dopolnimo {e1, . . . , es} do baze celega prostora U z vektorji es+1, . . . , en, n > s. Pokazali bomo, da vektorji F es+1, . . . , F en tvorijo bazo Im F . Od tod bo sledilo, da je dim Im F = n − s. 1. Preverimo, da je {F es+1, . . . , F en} ogrodje Im F . Vzemimo poljuben vektor v ∈ Im F ; tedaj je v = F u za vsaj en u ∈ U. Razvijmo u po bazi v U u = α1e1 + · · · + αses + αs+1es+1 + · · · + αnen, ga preslikamo z F , upoštevamo linearnost F in lastnost jedra F , da dobimo v = F u = α1F e1 + · · · + αsF es + αs+1F es+1 + · · · + αnF en | {z } =0 = αs+1F es+1 + · · · + αnF en ∈ L {F es+1, . . . , F en} . 2. Preverimo, da je {F es+1, . . . , F en} linearno neodvisna. Postavimo αs+1F es+1 + · · · + αnF en = 0, na obe strani enakosti delujemo z F in dobimo   F αs+1es+1 + ··· + αnen = 0, | {z } ∈Ker F od koder sledi, da se vektor αs+1es+1 + · · · + αnen, ki je očitno v jedru, izraža z baznimi vektorji jedra αs+1es+1 + · · · + αnen = γ1e1 + · · · + γses. Tako dobimo γ1e1 + · · · + γses − αs+1es+1 − · · · − αnen = 0, ki je linearna kombinacija baznih vektorjev, zato so vsi koeficienti ničelni, tako je tudi αs+1 = · · · = αn = 0, kot smo pričakovali. Preostane še možnost dim Ker F = 0. V tem primeru podobno kot zgoraj pokažemo, da ob poljubno izbrani bazi {e1, . . . , en} prostora U, množica {F e1, . . . , F en} tvori bazo Im F in je spet dim Ker F + dim Im F = 0 + n = dimU. 7. Preverite: Za vsako linearno bijekcijo F : U → V je tudi F −1 : V → U linearna bijekcija. R.: Vemo že, da ima vsaka bijektivna preslikava inverzno preslikavo in je ta tudi bijekcija. Preveriti je potrebno še, da je tudi F −1 linearna. Iz definicije inverzne 3.4 Naloge 81 preslikave imamo F −1 (v1) = u1 ⇐⇒ v1 = F (u1) F −1 (v2) = u2 ⇐⇒ v2 = F (u2) F −1 (αv1 + βv2) = αF −1v1 + βF −1v2 ⇐⇒ F α F −1v1 + β F −1v2 = αv1 + β v2. Preoblikujmo levo stran upoštevajoč, da je F linearna. F α F −1v1 + β F −1v2 = αF F −1v1 + β F F −1v2 = αv1 + β v2. 8. Naj bo F : U → V linearna preslikava. Dokažite: a) F je injektivna natanko tedaj, ko preslika vsako linearno neodvisno množico v linearno neodvisno množico. b) F je surjektivna tedaj in le tedaj, ko F preslika poljubno ogrodje prostora U v ogrodje prostora V . c) F je bijektivna natanko tedaj, ko F preslika poljubno bazo U v bazo V . R.: a) Predpostavimo, da je F : U → V injektivna (t.j. Ker F = {0}) in naj bo {e1, . . . , em} ⊆ U linearno neodvisna množica. Pokažimo, da je {F e1,. .., F em} tudi linearno neodvisna. Postavimo 0 = α1F e1 + · · · + αmF em = F (α1e1 + · · · + αmem) in upoštevajmo, da je Ker F = {0}. Torej je α1e1 + · · · + αmem ∈ Ker F = {0} , od koder sledi, da je α1e1 + · · · + αmem = 0. Vektorji e1, . . . , em so linearno neodvisni, zato je α1 = · · · = αm = 0. Obratno predpostavimo, da F preslika vsako linearno neodvisno množico v prav tako. Če u ̸= 0, je množica {u} linearno neodvisna in torej {F u} prav tako. Zato F u ̸= 0. Tako iz F u = 0 sklepamo, da je u = 0. Torej je KerF = {0} in F injektivna. b) Denimo, da je F surjektivna in naj bo {u1, . . . , um} poljubno ogrodje prostora U. Vzemimo poljuben v ∈ V in zaradi surjektivnosti F obstaja tak u ∈ U, da je F u = v. Nato lahko zapišemo u = β1u1 + ··· + βmum in v = F u = F (β1u1 + · · · + βmum) = β1F u1 + · · · + βmF um. Vektor v smo izrazili kot linearno kombinacijo vektorjev F u1, . . . , F um in je torej {F u1,. .., F um} ogrodje prostora V . 82 Poglavje 3. Linearne preslikave Obratno, naj F preslika poljubno ogrodje prostora U v ogrodje prostora V . Naj bo množica {e1, . . . , en} neka baza prostora U. Ogrodje prostora Im F je množica {F e1,. .., F en}, kajti vsak element v slike Im F lahko zapišemo kot v = F u = F (α1e1 + ··· + αnen) = α1F e1 + ··· + αnF en. Ker se lastnost biti ogrodje po predpostavki ohranja, je Im F = V in F surjektivna. c) Direktna posledica a) in b). 9. Določite stolpec koeficientov [v] 4 B razvoja vektorja v = (1, 2, 3, 4) ∈ R glede na i dano urejeno bazo Bi, i = 1, 2, 3, 4. a) B1 = {(1, 0, 0, 0) , (0, 1, 0, 0) , (0, 0, 1, 0) , (0, 0, 0, 1)}, b) B2 = {(1, 1, 1, 1) , (0, 1, 1, 1) , (0, 0, 1, 1) , (0, 0, 0, 1)}, c) B3 = {(1, 2, 3, 4) , (1, 1, 1, 1) , (1, 1, 0, 0) , (1, 0, 0, 0)}, d) B4 = {(0, 1, 0, 0) , (0, 0, 0, 1) , (1, 0, 0, 0) , (0, 0, 1, 0)}. R.: a) [v]B = 1 2 3 4 T , b) [v] = 1 1 1 1 T , 1 B2 c) [v]B = 1 0 0 0 T , d) [v] = 2 4 1 3 T. 3 B4 10. Poiščite koeficiente razvoja polinoma p (x) = 2 − 3x + x3 − x4 ∈ R4 [x] glede na urejeno bazo Bi, i = 1, 2: a) B1 = {1, x, x2, x3, x4}, b) B2 = {1, 1 − x, 1 − x2, 1 − x3, 1 − x4} R.: a) [p]B = 2 −3 0 1 −1 T , b) [p] = −1 3 0 −1 1 T . 1 B2 11. Zapišite prehodno matriko P za spremembo iz standardne baze 3 R na urejeno bazo B = {(1,1,1),(0,1,1),(0,0,1)}.  1 0 0  R.: P =  1 1 0  . 1 1 1 12. Določite matriko linearne preslikave F : R3 [x] → R3 [x] , F p (x) = xp′ (x) + p′′ (x) v standardni bazi prostora R3 [x] . R.: Standardna baza: e1 (x) = 1, e2 (x) = x, e3 (x) = x2, e4 (x) = x3 F e1 = F 1 = 0, F e2=e2, F e3=2x2 + 2 = e1 + 2e3, F e4 = 4x3 + 6x = 6e2 + 4e4  0 0 1 0  0 1 0 6 [F ] =     .  0 0 2 0  0 0 0 4 13. Za podane linearne preslikave iz 2 2 R → R določite matriko v standardni bazi: a) Rπ/4: rotacija za π/4 v nasprotni smeri urinega kazalca okrog izhodišča. b) Z : zrcaljenje čez premico y = x c) F : najprej zrcaljenje čez premico y = x, nato še projekcija na os x. √ √ " # 2 − 2 0 1 R.: a) R = 2 √ √ 2 , b) [Z ] = , π /4 2 2 1 0 2 2 1 0 0 1 0 1 c) [F ] = = . 0 0 1 0 0 0 4. Vektorski prostori s skalarnim produktom 4.1 Evklidski in unitaren prostor V tem poglavju bomo vektorski prostor obogatili z dodatno strukturo, ki omogoča pojem pravokotnosti, ta pa privede do zelo učinkovitih optimizacijskih postopkov. Posplošili bomo pojem skalarnega produkta, ki je znan iz geometrijskih vektorjev. Vnaprej opozorimo, da se bo skalarni produkt v realnem vektorskem prostoru razlikoval od skalarnega produkta v kompleksnem vektorskem prostoru. Definicija 4.1 Naj bo U vektorski prostor nad poljem realnih ali kompleksnih števil F. Preslikava, ki vektorjema u1, u2 ∈ U priredi število ⟨u1, u2⟩ iz polja F, se imenuje skalarni produkt, če za poljubne vektorje u, u1 in u2 ter skalarja α, β ∈ F velja: • pozitivna definitnost: ⟨u, u⟩ ≥ 0 in ⟨u, u⟩ = 0 ⇐⇒ u = 0; • linearnost v prvem faktorju: ⟨αu1 + β u2, u3⟩ = α⟨u1, u3⟩ + β ⟨u2, u3⟩; • F = C, konjugirana simetričnost: ⟨u1, u2⟩ = ⟨u2, u1⟩; F = R, simetričnost: ⟨u1, u2⟩ = ⟨u2, u1⟩. Realen končnorazsežen vektorski prostor, v katerem je definiran skalarni produkt, se imenuje evklidski prostor. Kompleksen končnorazsežen vektorski prostor s skalarnim produktom pa imenujemo unitaren prostor. Standardni skalarni produkt realnih oziroma kompleksnih n-teric x = (x1, x2, . . . , xn), y = (y n n 1, y2, . . . , yn) ∈ R , z = (z1, z2, . . . , zn), w = (w1, w2, . . . , wn) ∈ C , n ≥ 1, za katerega ni težko preveriti, da veljajo zgoraj omenjene tri lastnosti, se glasi n v n R : ⟨x, y⟩n := ∑ xiyi, i=1 (4.1) n v n C : ⟨z, w⟩n := ∑ ziwi. i=1 Pri tem je potrebno poudariti, zakaj mora biti v kompleksnem primeru vključeno konjugi- 84 Poglavje 4. Vektorski prostori s skalarnim produktom ranje. Zatakne se namreč pri pozitivni definitnosti. V realnem primeru imamo ⟨x, x⟩ = x2 ≥ 1 + · · · + x2 n 0; in iz ⟨x, x⟩ = x21 + ··· + x2n = 0 zaradi pozitivnosti kvadratov takoj sledi x1 = · · · = xn = 0, torej x = 0. V kompleksnih številih pa kvadrati nikakor niso nujno pozitivni, npr. i2 = −1. S konjugiranjem pa ta problem rešimo. Res, če je z = (z1, . . . , zn), je ⟨z, z⟩ = z1z1 + · · · + znzn = |z1|2 + · · · + |zn|2 ≥ 0 in enakost je dosežena, ko je z = 0. Na vektorskem prostoru n,1 F se standardni skalarni produkt izraža z matričnim produk- tom (vrstica krat stolpec) n,1 n,1 R : ⟨x, y⟩ = yT x (= xT y), C : ⟨z, w⟩ = w∗z, (4.2) kjer T označuje transponiranje, ∗ pa adjungiranje (konjugirano transponiranje). Standarni skalarni produkt v n R je direktna razširitev geometrijskega skalarnega pro- dukta. V izreku spodaj navajamo lastnosti skalarnega produkta, ki so posledica definicije. Izrek 4.2 — Lastnosti skalarnega produkta. Za katerikoli skalarni produkt na vektorskem prostoru U , vektorje u, v, w ∈ U ter skalarja α, β ∈ F velja: (1) Skalarni produkt na realnem vektorskem prostoru je linearen tudi v drugem faktorju ⟨u, αv + β w⟩ = α⟨u, v⟩ + β ⟨u, w⟩. (2) Skalarni produkt na kompleksnem vektorskem prostoru je konjugirano linearen v drugem faktorju ⟨u, αv + β w⟩ = α⟨u, v⟩ + β ⟨u, w⟩. (3) ⟨0, u⟩ = 0 = ⟨u, 0⟩ za vsak u ∈ U . Dokaz. Točki (1) in (2) sledita iz simetričnosti oziroma konjugirane simetričnosti ter linearnosti skalarnega produkta v prvem faktorju. Za točko (3) vzamemo ⟨0, u⟩ = ⟨0u, u⟩ = 0⟨u, u⟩ = 0, za drugi del pa upoštevamo še simetričnost oz. konjugirano simetričnost. ■ Razen standardnega obstajajo še drugi skalarni produkti. ■ Zgled 4.3 Naj bodo α1, . . . , αn izbrana pozitivna realna števila. Potem predpis ⟨x, y⟩ := n α1x1y1 + · · · + αnxnyn, x, y ∈ R , določa skalarni produkt na prostoru n R . Pri tem številom α1, . . . , αn rečemo uteži. Prever- janje prepuščamo bralcu. ■ 4.1 Evklidski in unitaren prostor 85 ■ Zgled 4.4 Navedimo še pomemben skalarni produkt na prostoru zveznih funkcij C [a, b]. Za poljubni funkciji f , g ∈ C [a, b] z vrednostmi v R vpeljemo Z b ⟨ f , g⟩ := f (t)g(t)dt. a Ni težko videti, da so vse potrebne lastnosti izpolnjene. ■ 4.1.1 Normiran in metričen prostor Na vektorskem prostoru definiran skalarni produkt porodi tudi orodje, s katerim lahko na nek način primerjamo "velikosti" ali "dolžine" vektorjev, prav tako pa bomo lahko računali "razdaljo" med vektorji. Definicija 4.5 Naj bo U vektorski prostor nad poljem F. Preslikava ∥ ∥ , ki vektorju u ∈ U priredi nenegativno število ∥u∥, se imenuje norma, če za poljubna u, v ∈ U in α ∈ F izpolni zahteve: (1) pozitivna definitnost: ∥u∥ ≥ 0 in iz ∥u∥ = 0 sledi u = 0; (2) absolutna homogenost: ∥αu∥ = |α| ∥u∥; (3) trikotniška neenakost ∥u + v∥ ≤ ∥u∥ + ∥v∥. Vektorski prostor, v katerem je vpeljana norma, se imenuje normiran prostor. Kot bomo videli, lahko vpeljemo različne norme. Najosnovnejši primer je dolžina geometrijskega vektorja v 3 R , ki se izraža z q ∥(x1, x2, x3)∥ = x2 + x2 + x2 1 2 3 in je hkrati dolžina katerekoli usmerjene daljice, ki predstavlja razred geometrijskih vektorjev. Lastnosti (1) in (2) bi bilo enostavno preveriti, za trikotniško neenakost (3) pa lahko uporabimo geometrijski razmislek, da je vsota stranic v trikotniku vedno daljša od tretje stranice (v skrajnem primeru kvečjemu enaka). V evklidskem ali unitarnem prostoru U je preslikava u 7→ p⟨u, u⟩ vedno norma. Najprej ugotovimo, da je kvadratni koren p⟨u, u⟩ izračunljiv zaradi pozitivne definitnosti skalarnega produkta, hkrati pa od tod sledi tudi (1) v definiciji 4.5. Za absolutno homogenost izračunajmo za √ F = C (v realnem primeru le konjugiranje izpustimo in upoštevamo, da je α 2 = |α |) √ ∥ p p p α u∥ = ⟨αu, αu⟩ = α α ⟨u, u⟩ = α α ⟨u, u⟩ = |α|∥u∥. Preverjanje trikotniške neenakosti (3) bomo ostali dolžni, dokler ne dokažemo neenakosti Cauchy-Schwarz, gl. izrek 4.11. Zato bomo v nadaljevanju preslikavi ∥ p u∥ = ⟨u, u⟩ (4.3) rekli norma, do dokaza izreka 4.11 pa zanjo ne bomo uporabili trikotniške neenakosti. Za normo (4.3) bomo rekli, da je porojena s skalarnim produktom; kadar pa gre za standardni skalarni produkt (4.1), ji rečemo evklidska norma. ■ Zgled 4.6 Navedimo še nekaj primerov norm. • U = C[a,b]; za funkcijo f ∈ C[a,b]: ∥f∥ := max |f(x)|; x∈[a,b] • U = F, za število z ∈ F: ∥z∥ := |z|; 86 Poglavje 4. Vektorski prostori s skalarnim produktom q • U = n n F , za n-terico w = (w1, . . . , wn) ∈ F : ∥w∥ := |w1|2 + |w2|2 + . . . + |wn|2. Prva je t.i. max-norma in ni porojena z nobenim skalarnim produktom. Razpravi o tem, kdaj je neka norma porojena s skalarnim produktom, se bomo tukaj izognili. Druga norma je poseben primer tretje za n = 1. Tretja pa je evklidska norma na n n R ali C . ■ Norma pa omogoča tudi računanje razdalje. Definicija 4.7 Naj bo M neprazna množica. Preslikava d, ki poljubnima elementoma x, y ∈ M priredi realno število d(x, y), se imenuje metrika ali razdalja, če so za poljubne x, y, z ∈ M izpolnjuje naslednje zahteve: (1) simetričnost: d(x, y) = d(y, x); (2) pozitivna definitnost: d(x, x) ≥ 0 in d(x, y) = 0 le v primeru, ko je x = y; (3) trikotniška neenakost: d(x, z) ≤ d(x, y) + d(y, z). Množica M skupaj z metriko d, ki ima zgornje tri lastnosti, se imenuje metričen prostor. Z metričnimi prostoru se bolj podrobno ne bomo ukvarjali, povejmo le, da lahko iz normiranega prostora U vedno ustvarimo tudi metričen prostor z vpeljavo razdalje med vektorjem u in v s predpisom d(u, v) := ∥u − v∥, u, v ∈ U. V prostoru 3 R , kjer elemente (točke) tega prostora identificiramo z njihovimi krajevnimi vektorji (posebnimi reprezentanti razredov geometrijskih vektorjev), na ta način dobimo običajno (evklidsko) razdaljo med točkama. Če sta A(xA, yA, zA) in B(xB, yB, zB) točki in rA = (xA, yA, zA), rB = (xB, yB, zB) njuna krajevna vektorja, potem je q p d(A, B) := ∥rA − rB∥ = ⟨rA − rB, rA − rB⟩ = (xA − xB)2 + (yA − yB)2 + (zA − zB)2. Definicija 4.8 Rečemo, da je vektor u normiranega prostora U normiran ali tudi enotski, kadar je ∥u∥ = 1. Postopku u 7→ ∥u∥−1u, ki ga lahko izvedemo za u ̸= 0, pravimo normiranje vektorja. Z normiranjem neničelnega vektorja u nastane vektor, pogosto ga pišemo tudi v obliki u , ∥u∥ ki je kolinearen z vektorjem u, enako usmerjen (skalirni koeficient je pozitiven), in je njegova norma enaka 1. Res, iz absolutne homogenosti norme za α := 1/∥u∥ sledi u ∥ ∥ = ∥αu∥ = |α|∥u∥ = α∥u∥ = ∥u∥−1∥u∥ = 1. ∥u∥ Ena najpomembnejših uporabnosti skalarnega produkta je, da omogoča vpeljavo koncepta pravokotnosti, ta pa je osnova za razne optimizacijske postopke. Definicija 4.9 Vektorja u in v v vektorskem prostoru s skalarnim produktom sta ortogonalna ali pravokotna (oznaka u ⊥ v), kadar je ⟨u, v⟩ = 0. Po tej definiciji je ničelni vektor ortogonalen na vse vektorje prostora. Zlahka preverimo naslednjo trditev. 4.1 Evklidski in unitaren prostor 87 Izrek 4.10 — Pitagorov izrek. Za ortogonalna vektorja u in v vektorskega prostora s skalarnim produktom velja ∥u + v∥2 = ∥u∥2 + ∥v∥2 . Dokaz. Naj bosta u in v ortogonalna, torej ⟨u, v⟩ = 0 = ⟨v, u⟩. Upoštevajoč lastnosti skalarnega produkta izračunamo ∥u + v∥2 = ⟨u + v, u + v⟩ = ⟨u, u⟩ + ⟨u, v⟩ + ⟨v, u⟩ + ⟨v, v⟩ = ∥u∥2 + ∥v∥2 . ■ Izrek 4.11 — Cauchy-Schwarzeva neenakost. Za poljubna vektorja u in v vektorskega prostora s skalarnim produktom velja: |⟨u, v⟩| ≤ ∥u∥ ∥v∥ . (4.4) Enačaj velja natanko tedaj, ko sta u in v linearno odvisna. Dokaz. Obravnavajmo najprej poseben primer, ko je ∥u∥ = ∥v∥ = 1. Izberimo t ∈ F tako, da bo u + tv ⊥ v. Iz enačbe ⟨u + tv, v⟩ = 0 hitro izračunamo, da je t = −⟨u, v⟩, od koder je |t| = |⟨u, v⟩|. Po Pitagorovem izreku, ker sta vektorja u + tv in tv ortogonalna, imamo ∥u∥2 = ∥(u + tv) + (−tv) ∥2 = ∥u + tv∥2 + ∥ − tv∥2 = ∥u + tv∥2 + |t|2∥v∥2, (4.5) od koder sledi 1 = ∥u∥2 ≥ |t|2∥v∥2 = |t|2 = |⟨u, v⟩|2 (4.6) in potrjuje neenakost (4.4). Če vektorja u in v nista normirana, a sta oba neničelna, ju lahko vedno normirano. Tako vektorja u/∥u∥ in v/∥v∥ zadoščata neenakosti (4.6), zato je u v , ≤ 1. ∥u∥ ∥v∥ Neenakost še pomnožimo z ∥u∥∥v∥ in želeni rezultat je na dlani. Če sta vektorja u in v linearno odvisna (kolinearna), kar vključuje tudi možnost, ko je vsaj eden od vektorjev u oz. v enak 0, v Cauchy-Schwarzevi neenakosti očitno velja enačaj. Iz gornjih premislekov pa vidimo, da pri normiranih vektorjih u,v enačaj velja tedaj in le tedaj, ko je v (4.5) člen ∥u + tv∥2 = 0, kar da u + tv = 0 in sta tako u in v linearno odvisna. ■ 88 Poglavje 4. Vektorski prostori s skalarnim produktom Alternativen dokaz Cauchy-Schwarzeve neenakosti, vendar le za realen primer, je podan v rešitvi naloge 4. Kot smo že omenjali, je zelo pomembna posledica Cauchy-Schwarzeve neenakosti ta, da s skalarnim produktom porojena norma ustreza trikotniški neenakosti in ji zato upravičeno rečemo norma. Posledica 4.12 Preslikava ∥u∥ = p⟨u, u⟩ na prostoru s skalarnim produktom zadošča trikotniški neenakosti. Dokaz. Neenakost 3. v definiciji 4.5 zapišimo v ekvivalentni obliki ∥u + v∥2 ≤ ∥u∥2 + 2∥u∥∥v∥ + ∥v∥2 . (4.7) Preoblikujmo najprej levo stran ∥u + v∥2 = ⟨u + v, u + v⟩ = ∥u∥2 + ⟨u, v⟩ + ⟨v, u⟩ + ∥v∥2 . Če imamo realen vektorski prostor, je zaradi simetričnosti skalarnega produkta in lastnosti absolutne vrednosti realnih števil izpolnjeno ⟨u, v⟩ + ⟨v, u⟩ = 2⟨u, v⟩ ≤ 2|⟨u, v⟩| ≤ 2∥u∥∥v∥, (4.8) od koder nazadnje dobimo (4.7). Pri zadnjem neenačaju v (4.8) smo uporabili Cauchy-Scwarzevo neenakost. V kompleksnem vektorskem prostoru pa upoštevamo naslednjo lastnost poljubnega kompleksnega števila z = a + ib, a, b ∈ R, p z + z = 2a ≤ 2|a| ≤ 2 a2 + b2 = 2|z|, od koder z izbiro z = ⟨u, v⟩ in Cauchy-Schwarzevo neenakostjo sledi (4.7) tudi za kompleksen primer. ■ Vpeljimo še ortogonalnost več kot dveh vektorjev. Definicija 4.13 Vektorji u1, u2, . . . , uk v vektorskem prostoru s skalarnim produktom so paroma ortogonalni, kadar velja ui ⊥ u j za poljubna i ̸= j, i, j ∈ {1, 2, . . . , k}. Množica vektorjev {u1, u2, . . . , uk} je ortonormiran sistem, če so vektorji te mno- žice paroma ortogonalni in vsi normirani. Z vpeljavo diskretne funkcije, imenovane Kroneckerjev simbol delta 1, i = j, δi j = (4.9) 0, i ̸= j, opišemo ortonormiran sistem vektorjev {u1, u2, . . . , uk} na kratko ⟨ui, u j⟩ = δi j, i, j ∈ {1, 2, . . . , k}. (4.10) V prostoru geometrijskih vektorjev je razmeroma očitno, da so paroma ortogonalni vektorji tudi linearno neodvisni. Vendar velja to celo za poljuben vektorski prostor s skalarnim produktom. Trditev 4.14 Paroma ortogonalni neničelni vektorji tvorijo linearno neodvisno množico. Ortonormiran sistem vektorjev je vedno linearno neodvisna množica. 4.1 Evklidski in unitaren prostor 89 Dokaz. Začnimo z linearno kombinacijo vektorjev u1, u2, . . . , uk s koeficienti α1, α2, . . . αk in jo izenačimo z 0; α1u1 + . . . + αkuk = 0. Celotno enakost v smislu skalarnega produkta pomnožimo z izbranim poljubnim u j in upoštevajoč linearnost skalarnega produkta v prvem faktorju dobimo α1⟨u1, u j⟩ + . . . + αk⟨uk, u j⟩ = ⟨0, u j⟩ = 0. Po (4.10) dobimo α j⟨u j, u j⟩ = 0, od koder sledi α j = 0 za vse j = 1, 2, . . . , k, ker je ∥u j∥ = ⟨u j, u j⟩ ̸= 0. ■ Posledica 4.15 V evklidskem ali unitarnem prostoru razsežnosti n, n ≥ 1, je vsak ortonormiran sistem n vektorjev baza. Dokaz. Po točki (1) trditve 2.36, ki pravi, da je v n-razsežnem vektorskem prostoru vsaka množica n linearno neodvisnih vektorjev hkrati ogrodje, izjava sledi. ■ Trivialen vektorski prostor seveda nima linearno neodvisnih vektorjev, zato je v posledici 4.15 predpostavka n ≥ 1. Ortonormiran sistem, ki je hkrati baza, se imenuje ortonormirana baza. Smiselno je naslednje vprašanje. ? Ali v vsakem netrivialnem vektorskem prostoru s skalarnim produktom obstaja ortonormirana baza? Za končnorazsežen vektorski prostor nam dokaz spodnjega izreka ponudi konstruktiven algoritem. Izrek 4.16 — Gram-Schmidtov postopek. V vsakem netrivialnem končnorazsežnem vektorskem prostoru s skalarnim produktom obstaja ortonormirana baza, ki jo iz poljubne izbrane baze e1, e2, . . . , en rekurzivno izračunamo tako, da postopoma generiramo ortonormirano bazo {f1, . . . , f } n : e1 f1 = , ∥e1∥ k−1 (4.11) g g k k = ek − ∑ ⟨ek, fi⟩ fi; fk = , k = 2, 3, . . . , n. ∥g i=1 k∥ Dokaz. Začnemo z e1 in ga le normiramo; tako dobimo f1. Nato iščemo vektor g2, za katerega zahtevamo le, da je ortogonalen na vektor f1 in leži v linearni lupini (geom.: ravnini) vektorjev f1 in e2. Nastavimo g2 = e2 + α1f1 ∈ L (e2, f1) in poiščemo skalar α1 iz pogoja g2 ⊥ f1. Koeficient pri e2 smo smeli nastaviti na 1, ker gotovo ne sme biti enak 0 in s skaliranjem (po potrebi) lahko dosežemo, da je enak 1. Dobimo 0 = ⟨g2, f1⟩ = ⟨e2 + α1f1, f1⟩ = ⟨e2, f1⟩ + α1⟨f1, f1⟩ = ⟨e2, f1⟩ + α1, | {z } =1 90 Poglavje 4. Vektorski prostori s skalarnim produktom od koder je α1 = − ⟨e2, f1⟩ in tako g2 = e2 − ⟨e2, f1⟩ f1. Vektor g2 normiramo in nastane f2. Če je n ≥ 3, nato nastavimo vektor g3 = e3 + α1f1 + α2f2. Iz pogojev g3 ⊥ f1 in g3 ⊥ f2 dobimo podobno kot prej dve enačbi, iz katerih izračunamo α1 = − ⟨e3, f1⟩ in α2 = − ⟨e3, f2⟩ . Vektor f3 dobimo iz g3 = e3 − ⟨e3, f1⟩ f1 − ⟨e3, f2⟩ f2 z normiranjem, f3 = g3/∥g3∥. Če je n > 3, nadaljujemo v istem duhu. Pravkar zapisani postopek lahko hitro nadgradimo v indukcijski korak, ki dokaže pravilnost Gram-Schmidtovega postopka. ■ Naslednji izrek pove, da lahko vsak evklidski vektorski prostor razsežnosti n ≥ 1 identifici-rano z n,1 n R oziroma R in standardnim skalarnim produktom. Podobno, unitaren vektorski prostor se obnaša kot n,1 n C oziroma C s standardnim skalarnim produktom. Izrek 4.17 Naj bo U evklidski (nad R) ali unitaren prostor (nad C) in naj bo {f1, . . . , f } n , n n ≥ 1, poljubna urejena ortonormirana baza prostora U . Za poljubna vektorja u = ∑ αifi i=1 n in v = ∑ βifi velja: i=1 (1) Fourierjev razvoj: αi = ⟨u, fi⟩ , i = 1, 2, . . . , n.   α1 n h i . (2) ⟨u, v⟩ = ∑ α  .  iβ = . . . i β 1 β n .   i=1 αn n n (3) ∥u∥2 = ∑ αiαi = ∑ |αi|2 i=1 i=1 V realnem vektorskem prostoru konjugiranje β 7→ β nima učinka, je identična preslikava. n Dokaz. Enakost u = ∑ αifi z desne skalarno pomnožimo s poljubnim vektorjem f j, j = i=1 1, 2, . . . , n, in dobimo n n ⟨u, f j⟩ = ∑ αi⟨fi,fj⟩ = ∑ αiδi,j = αj, i=1 i=1 kar potrdi trditev v točki (1). Za (2) je zaradi linearnosti skalarnega produkta v prvem in zaradi (konjugirane) linearnosti v drugem faktorju * n n + n n n ⟨u, v⟩ = ∑ αifi, ∑ β jf j = ∑ ∑ αiβj⟨fi,fj⟩ = ∑ αiβi i=1 j=1 i=1 j=1 i=1 in v posebnem, če vzamemo u = v v točki (2), dobimo točko (3). ■ Pravkar omenjeni izrek tudi pove, da je vsak n-razsežen evklidski/unitaren prostor izomorfen evklidskemu/unitarnemu prostoru n-teric n F opremljenim s standardnim skalarnim produktom ⟨ , ⟩n. To pomeni, da je preslikava n ϕ : U → F ϕ (u) = (x1, x2, . . . , xn), 4.1 Evklidski in unitaren prostor 91 kjer je u = x1f1 + x2f2 + · · · + xnfn Fourierjev razvoj vektorja u po ortonormirani bazi {f1, . . . , fn}, izomorfizem vektorskih prostorov in ⟨u, v⟩ = ⟨ϕ(u), ϕ(v)⟩n za poljubna vektorja u, v ∈ U . V smislu trditev izreka 4.17 sta seveda tudi prostora matričnih stolpcev n,1 F in matričnih vrstic 1,n n F na naraven način izomorfna F kot evklidska/unitarna vektorska prostora. Standardni skalarni produkt na n F pa se nato izraža (v realnem primeru je ∗ transponiranje!) n ⟨(x1, . . . , xn), (y1, . . . , yn)⟩ = x n ∑ iyi = y∗x = pq∗, (4.12) i=1 kjer je     x1 y1 x2 y2 x =  .  , y =  .   ..   ..      xn yn in p = x 1 x2 . . . xn , q = y1 y2 . . . yn . Skalarna produkta y∗x matričnih stolpcev in pq∗ matričnih vrstic bomo imeli v mislih, ko bomo govorili o standardnem skalarnem produktu na ustreznih prostorih. 4.1.2 Ortogonalni komplement in ortogonalna projekcija V tem poglavju bomo pojem ortogonalnosti vektorjev posplošili na relacijo ortogonalnosti med podprostori izbranega vektorskega prostora. Definicija 4.18 Podprostora V in W nekega vektorskega prostora sta ortogonalna, če je ⟨v, w⟩ = 0 za vsak par vektorjev v ∈ V in w ∈ W . ■ Zgled 4.19 • Ravnina {(x,y,z); 2x+y−z = 0} in premica {(x,y,z); (x,y,z) = t (2,1,−1), t ∈ R} sta ortogonalna podprostora v 3 R glede na običajni (standardni) skalarni produkt. • Kateri koli dve pravokotni premici v prostoru 3 R , ki tečeta skozi izhodišče, sta ortogonalna podprostora v 3 R . • Trivialen podprostor {0} ≤ U v poljubnem vektorskem prostoru U s skalarnim produktom je ortogonalen na katerikoli podprostor V ≤ U . ■ Trditev 4.20 Naj bo U evklidski/unitaren prostor. Ortonormiran sistem vektorjev, ki ni baza U , je vedno mogoče dopolniti do ortonormirane baze prostora U . Dokaz. Ortonormiran sistem vektorjev, kot linearno neodvisno množico, je najprej vedno mogoče dopolniti do baze, ne nujno ortonormirane. Potem pa lahko z Gram-Schmidtovim postopkom dobimo ortonormirano bazo prostora U upoštevajoč, da smo začeli že z nekaj vektorji ortonormiranega sistema. ■ Dopolnitev ali komplementiranje, omenjeno v trditvi 4.20, poimenujemo v definiciji, ki sledi. 92 Poglavje 4. Vektorski prostori s skalarnim produktom Definicija 4.21 Naj bo M neprazna podmnožica evklidskega ali unitarnega vektorskega prostora U . Ortogonalni komplement M⊥ je množica vseh vektorjev iz U , ki so ortogonalni na vse vektorje iz množice M. Formalen zapis se glasi M⊥ := {u ∈ U ; u ⊥ m za vsak m ∈ M} . (4.13) Ortogonalni komplement smo vpeljali za poljubno neprazno množico, čeprav ga največkat računamo za podprostore. Trditev 4.22 — Lastnosti ortogonalnega komplementa. Naj bo U evklidski ali unitarni prostor in M ⊆ U in V ≤ U . (1) M⊥ ≤ U , ortogonalni komplement je vedno podprostor. (2) dimV + dimV ⊥ = dimU , razsežnosti sta komplementarni. (3) V ∩V ⊥ = {0}; edino ničelni vektor je ortogonalen sam nase. (4) {0}⊥ = U , na 0 so ortogonalni vsi vektorji v U . (5) U ⊥ = {0}, vektor 0 je edini, ki je ortogonalen na vse vektorje v U . (6) M⊥⊥ = L (M) ⊇ M. (7) V ⊥⊥ = V . Dokaz. Dokaze točk (1), (6) in (7) najdete rešitvi naloge 9, ostale so še preprostejše in jih prepustimo bralcu. ■ 3 ■ Zgled 4.23 Naj bo V ⊂ R premica skozi 0, določena s smernim vektorjem n ̸= 0. Potem je V ⊥ ravnina skozi 0, z normalnim vektorjem n. Če pa namesto cele premice vzamemo le M = {n}, torej množico, ki ni vektorski podprostor, saj n ̸= 0, dobimo isti rezultat, tudi {n}⊥ je ista ravnina kot prej. ■ Po točki (1) trditve 4.22 je za vsak podprostor V ≤ U ortogonalni komplement V ⊥ podprostor v U . Zato zadošča poiskati vektorje, ki razpenjajo prostor V ⊥. Kako to naredimo, bo razvidno iz dokaza naslednjega izreka. Izrek 4.24 Naj bo U evklidski ali unitaren vektorski prostor in V ≤ U . Vsak vektor u ∈ U lahko na en sam način razcepimo u = ˆv + v⊥, kjer je ˆv ∈ V ter v⊥ ∈ V ⊥. Dokaz. Bodi {f1, . . . , fk} urejena ortonormirana baza podprostora V . Iz poljubne baze podprostora V jo lahko zgradimo z Gram-Schmidtovim postopkom in nato še razširimo do poljubne ortonormirane baze {f1, . . . , fk, fk+1, . . . , fn} prostora U. Nato lahko poljuben vektor u ∈ U razvijemo po tej bazi (Fourierjev razvoj, izrek 4.17, točka (1)) n k n u = ∑ ⟨u,fi⟩fi = ∑ ⟨u,fi⟩fi + ∑ ⟨u,fi⟩fi. i=1 i=1 i=k+1 Pri tem je prvi sumand na desni ˆv := k ∑ ⟨u, f i=1 i⟩ fi v linearni lupini vektorjev f1, . . . , fk, ki razpenjajo V , medtem ko so vektorji fk+1, . . . , fn baza prostora V ⊥ in je tako vektor v⊥ := n ∑ ⟨u, f i=k+1 i⟩ fi element prostora V ⊥. Očitno je ˆv ortogonalen na v⊥. 4.1 Evklidski in unitaren prostor 93 Ni težko preveriti enoličnosti. Denimo, da bi obstajal še en razcep v = ˆv1 + v⊥, ˆv 1 1 ∈ V , v⊥ ∈ V ⊥. Potem bi imeli 1 ˆv + v⊥ = ˆv1 + v⊥ 1 oziroma ˆv − ˆv1 = v⊥ − 1 v⊥ ∈ U ∩U ⊥ = {0}, od koder zvemo, da je ˆv = ˆv1 in v⊥ = v⊥. 1 ■ u .. .. . v⊥ . . . . . .................................... ...•. ... . ....................... . . ˆv 0 V ................................................................................................................................................................................................... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Slika 4.1: Razcep vektorja na vsoto dveh ortogonalnih komponent. Definicija 4.25 Vektor ˆv ∈ V imenujemo pravokotna projekcija vektorja u ∈ U na podprostor V ≤ U . Definicija 4.26 Naj bo V podprostor normiranega prostora U in u poljuben vektor iz U . Elementu v0 ∈ V rečemo element najboljše aproksimacije vektorja u v podprostoru V , če zanj velja min ∥u − v∥ = ∥u − v0∥. v∈V Pogled na sliko 4.1 nam pove, da je razdalja med vrhoma usmerjenih daljic, ki predstavljata u in ˆv, dolžina vektorja v⊥, po Pitagorovem izreku v originalnem geometrijskem smislu kar najmanjša možna, če v ravnini V za vektor v0 izberemo kar ˆv. Podobno velja v splošnem evklidskem ali unitarnem prostoru, prav zaradi veljave Pitagorovega izreka. Naslednji izrek pove, da je pravokotna projekcija ˆv vektorja u ∈ U na nek podprostor V ≤ U prav tisti vektor, ki je vektorju u najbližje, torej v0 = v⊥. Izrek 4.27 — Pravokotna projekcija je element najboljše aproksimacije. Naj bo V podprostor evklidskega ali unitarnega prostora U opremljenega z normo, ki je porojena s skalarnim produktom. Ortogonalna projekcija ˆv ∈ V vektorja u ∈ U na podprostor V je element najboljše aproksimacije vektorja u v podprostoru V . Dokaz. Najprej razcepimo u = ˆv + v⊥, nato vzemimo katerikoli vektor v ∈ V in preoblikujmo ∥u − v∥2 = ∥(u − ˆv) + (ˆv − v)∥2. 94 Poglavje 4. Vektorski prostori s skalarnim produktom Sumanda v oklepajih na desni sta ortogonalna, saj je vektor ˆv − v ∈ V medtem ko je prvi sumand u − ˆv po konstrukciji element V ⊥; zato je po Pitagorovem izreku 4.10 izpolnjeno ∥u − v∥2 = ∥u − ˆv∥2 + ∥ˆv − v∥2 ≥ ∥u − ˆv∥2 in najmanjša možna razdalja med u in v, ∥u − v∥, je dosežena z izbiro v = ˆv. ■ ■ Zgled 4.28 Poiščimo pravokotni projekciji vektorja ⃗u = (2, 2, −1) na a) ravnino V = {(x, y, z); x + y + z = 0}, b) premico skozi izhodišče in v smeri normalnega vektorja podane ravnine. Ravnina V vsebuje koordinatno izhodišče, zato je podprostor prostora 3 R . Točke ravnine smo kot običajno identificirali z njihovimi krajevnimi vektorji. Poiščimo neko ortonormirano bazo tega podprostora. Za prvi bazni vektor lahko vzamemo npr. ⃗f1 = √ √ 1/ 2(1, 0, −1), za drugega npr. ⃗f2 = 1/ 6(1, −2, 1). Vektorja ⃗f1 in ⃗f2 razpenjata ravnino U . Projekcija b ⃗u se izraža z 3 1 b ⃗u = (⃗u · ⃗f1)⃗f1 + (⃗u · ⃗f2)⃗f2 = (1, 0, 1) − (1, −2, 1) = (1, 1, −2), (4.14) 2 2 kjer smo s piko označili običajni skalarni produkt v prostoru. Za projekcijo na premico dodamo še tretji vektor ortonormirane baze, vzamemo √ kar normalni vektor ravnine in ga normiramo. Naj bo torej ⃗f3 = 1/ 3(1, 1, 1), iskana projekcija je (⃗u · ⃗f3)⃗f3 = (1, 1, 1). (4.15) Za preizkus izračunajmo ⃗u −b ⃗v = (2, 2, −1) − (1, 1, −2) = (1, 1, 1), kjer smo po pričakova- nju dobili isti rezultat; gl. sliko 4.1. ■ 4.2 Ortogonalnost in matrike V tem razdelku se bomo ukvarjali z vektorskima prostoroma matričnih stolpcev n,1 F in matričnih vrstic 1,n F , ki naj bosta oba opremljena s standardnim skalarnim produktom ⟨x, y⟩ n n n = ∑ x x i=1 iyi v unitarnem prostoru in ⟨x, y⟩n = ∑i=1 iyi v evklidskem prostoru, pa naj bosta x in y oba matrična stolpca iz n,1 1,n F ali pa matrični vrstici iz F . Spomnimo se še matričnih zapisov teh skalarnih produktov (4.12). V tem razdelku bomo vse zapisali za F = C, izpeljave pa bodo veljale tudi za realen primer, kjer le ∗ zamenjamo s transponiranjem T . Naj bo {u n,1 1, u2, . . . , un} ⊆ F neka ortonormirana baza (glede na standardni ska- larni produkt) vektorskega prostora stolpcev n,1 F . Tako imamo n matričnih stolpcev u1, u2, . . . , un, ki so paroma ortogonalni in normirani, zato zanje velja ⟨ui, u j⟩ = u∗jui = δij, i, j ∈ {1,2,...,n}, (4.16) kjer je δi j Kroneckerjev simbol delta, definiran v (4.9). Matrične stolpce u1, u2, . . . , un zaporedoma zložimo v bločno matriko U : U = u 1|u2| . . . |un . Zaradi (4.16) matrika U zadošča enakosti U ∗U = I, torej je obrnljiva in je U −1 = U ∗. Od tod pa sledi, da je UU ∗ = U ∗U = I. (4.17) 4.2 Ortogonalnost in matrike 95 Tako iz enakosti UU ∗ = I opazimo, da tudi vrstice matrike U tvorijo ortonormirano bazo prostora matričnih vrstic 1,n F glede na standardni skalarni produkt. Matrike, ki zadoščajo (4.17), smo že srečali v razdelku 1.1.3. V kompleksnem primeru govorimo o unitarnih matrikah, v realnem pa o ortogonalnih. Postopek, ki ga bomo podali v naslednjem izreku, je praktičen način za računanje ortonormirane baze vektorskega prostora stolpcev in tako tudi način, da pridemo do unitarne/ortogonalne matrike. Naravno je, da zložimo stolpce neke baze prostora v (morda pravokotno) matriko A. V tem primeru ima ta matrika maksimalen stolpčni rang oz. razse- žnost prostora SA je enaka številu stolpcev matrike A. Z Gram-Schmidtovim postopkov, gl. izrek 4.16, nato izračunamo ortonormirano bazo tega prostora. To lahko naredimo tudi na način, ki je znan kot QR razcep matrike. Izrek 4.29 — QR-razcep obrnljive matrike. Poljubno obrnljivo matriko A ∈ Mn(F) je mogoče na en sam način razcepiti v produkt A = QR, kjer je Q ∈ Mn(F) unitarna/ortogonalna matrika in R ∈ Mn(F) zgoraj trikotna matrika, ki ima vse diagonalne elemente pozitivne. Dokaz. Stolpci a n,1 1, . . . , an tvorijo bazo prostora stolpcev SA ≤ F . Gram-Schmidtov postopek (4.11) nam da a1 f1 = , ∥a1∥ k−1 g g k k = ak − ∑ ⟨ak, fi⟩ f , k = 2, 3, . . . , n, n i; fk = ∥g i=1 k∥ od koder lahko izrazimo stolpce a1, . . . , an a1 = ∥a1∥f1, k−1 ak = ∥gk∥fk + ∑ ⟨ak,fi⟩ f n i, k = 2, 3, . . . , n. i=1 Uvedba matrik Q = [f 1|f2| . . . |fn] in R = ri j , kjer je rkk = ∥gk∥ in rik = ⟨ak, fi⟩n za i < k in rik = 0 za i > k, nam da želeni razcep. Pokažimo še enoličnost razcepa. Denimo, da bi imeli A = Q1R1 = Q2R2, kjer sta matriki Q1 in Q2 unitarni/ortogonalni ter R1 in R2 zgoraj trikotni s pozitivnimi diagonalnimi elementi. Dobimo Q∗Q . Matrika R je zgoraj trikotna s pozitivnimi diago- 2 1 = R2R−1 1 2R−1 1 nalnimi elementi, medtem, ko je njej enaka matrika Q∗Q 2 1 produkt unitarnih/ortogonalnih matrik in zato tudi unitarna/ortogonalna. Ni težko videti, da je edina taka matrika enotska, od koder sledi, da je Q1 = Q2 in R1 = R2. ■ Bodi sedaj A ∈ m,n F poljubna matrika z linearno neodvisnimi stolpci, ki so zato baza prostora stolpcev SA. Tudi v tem primeru lahko izvedemo QR razcep. 96 Poglavje 4. Vektorski prostori s skalarnim produktom Izrek 4.30 Za poljubno matriko A ∈ m,n F , n ≤ m, obstajata unitarna/ortogonalna matrika Q ∈ M m(F) in matrika R = ri j , ri j = 0 za vse i > j, da velja A = QR. Bolj natančno, matriki R in Q sta oblike R R = 1 , Q = Q , 0 1 | Q2 kjer je R1 ∈ Mn(F) zgoraj trikotna (lahko jo izberemo s pozitivnimi diagonalnimi elementi), stolpci vsake od Q m,n m,m−n 1 ∈ F in Q2 ∈ F pa so ortonormirani. Matrična ničla v matriki R je velikosti (m − n) × n. Nato je R A = QR = Q 1 1 | Q2 = Q 0 1R1. (4.18) Iz (4.18) vidimo, da imamo pri izbiri Q2 precej svobode, če je n < m in tako nasploh ne moremo govoriti o enoličnosti tega razcepa. Matriko Q2 kakorkoli lahko izberemo kot dopolnitev matrike Q1 do unitarne/ortogonalne matrike Q. Dokaz. Podobno kot v dokazu izreka 4.29 sestavimo matriko Q m,n 1 ∈ F z ortonormiranimi stolpci in zgoraj trikotno matriko R1 ∈ Mn(F), da velja A = Q1R1. Do razcepa A = QR pridemo (neenolično v smislu izbire Q2) kot v enakosti (4.18). ■ Naj bo A ∈ m,n n,1 m,1 F poljubna matrika. Za stolpec x ∈F je Ax ∈ F in je tako mogoče izračunati skalarni produkt med Ax in poljubnim vektorjem y ∈ m,1 F . Za standardni skalarni produkt v m,1 F velja zelo praktična lastnost, ki jo navajamo v spodnji trditvi. Trditev 4.31 Za poljubno matriko A ∈ m,n n,1 m,1 F in matrična stolpca x ∈ F , y ∈ F ter standardna skalarna produkta ⟨ , ⟩ n,1 m,1 n in ⟨ , ⟩m na prostorih F oz. F velja ⟨Ax, y⟩ = x,AT y , x ∈ n, y ∈ m, (4.19) m n R R in za F = C ⟨Ax, y⟩ = ⟨x,A∗y⟩ , x ∈ n, y ∈ m. (4.20) m n C C Dokaz. Enakosti bomo preverili le za kompleksen primer, realen je analogen, le adjungiranje nadomestimo s transponiranjem (konjugiranje izpustimo). Standardni skalarni produkt na m,1 C se izraža ⟨Ax, y⟩ = y∗Ax, m po drugi strani pa je po pravilih matričnega računa izpolnjeno y∗Ax = y∗(A∗)∗x = (A∗y)∗x = ⟨x, A∗y⟩n za poljubna stolpca x ∈ n,1 m,1 C in y ∈ C . ■ V naslednjem izreku podamo povezave med ortogonalnostjo in značilnimi podprostori, ki se navezujejo na neko matriko. Zapisa SA in NA označujeta stolpčni oziroma ničelni podprostor matrike A. 4.2 Ortogonalnost in matrike 97 Izrek 4.32 Za poljubno matriko A ∈ m,n C veljata zvezi S ⊥ A = NA∗ (4.21) N ⊥ = S A A∗ (4.22) Za realno matriko A ∈ m,n R veljata podobni zvezi, le da adjungiranje ∗ zamenjamo s transponiranjem T . Dokaz. Iz enakosti ⟨x, A∗y⟩ n n = ⟨Ax, y⟩m, ki velja za poljuben x ∈ F , sledi, da je y ∈ NA∗ natanko tedaj, ko je y ⊥ SA, kar potrjuje enakost (4.21). To lastnost uporabimo še za A∗ in dobimo, da je S ⊥ A∗ = NA. Prehod na ortogonalni komplement in SA∗ = (SA∗ )⊥⊥ nam po točki 6 trditve 4.22 potrdi še drugo trditev (4.22). Realni primer preverimo analogno. ■ Linearne preslikave x → U x, kjer je U ∈ Mn(F) unitarna/ortogonalna matrika, so zelo pomembne v geometriji. Ohranjajo namreč skalarni produkt in posledično dolžine vektorjev. Trditev 4.33 Naj bo U ∈ Mn(F) poljubna unitarna/ortogonalna matrika. Linearna preslikava x 7→ U x, x ∈ n,1 F , ima naslednje lastnosti: (1) ⟨U x,U y⟩ n,1 n = ⟨x, y⟩n, za poljubna vektorja x, y ∈ F ; (2) ∥U x∥ = ∥x∥, za poljuben vektor x; (3) ∥U (x − y)∥ = ∥x − y∥, za poljubna vektorja x, y ∈ n,1 F . Dokaz. Uporabimo (4.20) in U ∗U = I in izračunamo ⟨Ux,Uy⟩n = ⟨x,U∗Uy⟩n = ⟨x, y⟩n, kar potrdi točko (1). Točka (2) je le poseben primer (1), ko namesto y vstavimo x in uporabimo, da je ∥x∥2 = ⟨x, x⟩n. Točka (3) pa sledi iz linearnosti preslikave in točke (2). ■ Iz lastnosti (3) prejšnje trditve, kjer ∥x − y∥ razumemo tudi kot razdaljo (metriko), vidimo, da preslikava x 7→ U x ohranja tudi razdalje med točkami. Takim preslikavam rečemo izometrije. Taka preslikava je npr. vrtenje, ki smo ga srečali v zgledu 3.11, realna matrika, s katero pa smo to preslikavo predstavili, pa je ortogonalna. Na evklidskem vektorskem prostoru lahko vpeljemo pojem kota med neničelnima vektorjema x, y ∈ n,1 R z obrazcem ⟨x, y⟩n yT x cos ϕ := = , (4.23) ∥x∥∥y∥ ∥x∥∥y∥ kjer je ϕ kot med x in y. Obrazec se ujema z obrazcem za kot med vektorjema v trirazsežnem prostoru 3 R . Razlog, zakaj je to v splošnem evklidskem prostoru mogoče, je Cauchy-Schwarzeva neenakost (gl. izrek 4.11), ki pove, da desna stran enakosti (4.23) po absolutni vrednosti ne preseže vrednosti 1. Seveda enakost (4.23) vključuje tudi to, da je kot med neničelnima vektorjema π/2 če in le, če je skalarni produkt med njima enak 0. 98 Poglavje 4. Vektorski prostori s skalarnim produktom 4.2.1 Predoločeni sistemi linearnih enačb – metoda najmanjših kva- dratov. V tem razdelku bomo predstavili eno izmed možnosti uporabe koncepta ortogonalnosti, ki smo ga spoznali v prejšnjih razdelkih. V inženirski praksi pogosto srečamo problem ocenjevanja parametrov, kjer za določene parametre vemo, kako so povezani, želimo pa nekatere od njih empirično določiti z meritvami. Ena od metod je znana po imenu metoda najmanjših kvadratov. Predstavili bomo način ocenjevanja linearno odvisnih parametrov. Za ilustracijo problema začnimo z zelo preprostim zgledom. ■ Zgled 4.34 Znano je, da je temperatura medija T linearno odvisna od časa t, naj bo torej T (t) = T0 + kt. Na osnovi meritev želimo oceniti parametra T0 in k. Meritve temperature Tj v časovnih točkah t j, j = 1, 2, 3, 4, so podane v tabeli 4.1. j 1 2 3 4 t j 0 3 6 9 Tj 10 40 50 60 Tabela 4.1: Meritve temperature Imamo torej štiri meritve, želimo pa oceniti dva parametra. Ponavadi imamo veliko več meritev, kot je potrebno oceniti parameterov. Upoštevajoč Tj = T (t j) = T0 + kTj dobimo sistem štirih linearnih enačb za dve neznanki T0 in k T0 + 0k = 10 T0 + 3k = 40 T0 + 6k = 50 T0 + 9k = 60. Z vpeljavo matrik 1 0 10 1 3 T 40 A = 0   , x = , b =   , 1 6 k 50 1 9 60 dobimo t.i. predoločen sistem linearnih enačb Ax = b, ki ima tipično veliko več enačb kot neznank. Intuitivno seveda pričakujemo, da bomo z več meritvami, za katere se seveda zavedamo, da so do neke mere nenatančne, dobili boljšo oceno parametrov. ■ Rešujemo torej linearen sistem enačb Ax = b, kjer imamo praviloma veliko več enačb kot je neznank. Če je A ∈ m,n F , predpostavimo, da je m ≥ n (tipično je m ≫ n). Običajno je tak sistem v klasičnem smislu rešljivosti nekonsistenten - protisloven, to je tak, ki nima nobene eksaktne rešitve. Privzemimo torej, da ni takega vektorja x, ki bi zadoščal enačbi Ax − b = 0. Poskusimo najti x, za katerega bo veljalo, da je ∥Ax − b∥ minimalna. Naj bo b b ∈ SA ortogonalna projekcija vektorja b na podprostor SA. Linearen sistem Ax = b b je rešljiv, saj b b ∈ SA pomeni, da je b b linearna kombinacija stolpcev matrike A (gl. (2.1)), koeficienti te linearne kombinacije pa so komponente vektorja x. Naj bo x rešitev, torej je Ax = b b b b. Iz lastnosti 4.2 Ortogonalnost in matrike 99 ortogonalne projekcije vemo, da je b b − b = b⊥ ⊥ SA. Torej je b b − b ∈ S ⊥ = N A A∗ po (4.21). Od tod sledi A∗ b b − b = 0, z upoštevanjem Ax = b b b pa je A∗Ax = A∗b, b čemur pravimo normalni sistem enačb . V realnem primeru se ta sistem glasi AT Ax = AT b. b Normalni sistem enačb dobimo preprosto tako, da enačbo Ax = b z leve pomnožimo z A∗ oziroma AT , sistem, ki ga dobimo, je rešljiv in rešitev je stolpec parametrov, ki smo ga iskali. Pripomnimo še, da rešitev ni nujno enolična. Eno samo rešitev pa dobimo, če je A taka matrika, da je NA = {0}, kar je v praksi običajno izpolnjeno, saj ocenjujemo le neodvisne parametre. ■ Zgled 4.35 Ocenimo parametre v problemu, ki smo ga zastavili v zgledu 4.34. Rešiti je treba 2 × 2 linearen sistem AT Ax = AT b, kjer je b 4 18 160 T AT A = , AT b = , x = 0 . 18 126 960 b k Opazimo, da je sistem enolično rešljiv, dobimo T0 = 16◦, k = 16 in rešitev se tako glasi 3 T = 16 + 16t. Graf linearne funkcije dobljene na tak način se imenuje tudi regresijska 3 premica. T 70 60 50 40 30 20 10 0 t 0 2 4 6 8 10 Slika 4.2: Regresijska premica ■ ? Od kod ime metoda najmanjših kvadratov? Vektor b b = Ax je bil izbran po kriteriju, da je norma ∥b − b b b∥ minimalna. Iskali smo min ∥b − Ax∥2 (minimum kvadrata norme nastopi v isti točki kot minim norme). Mini-b n mizirali smo namreč vsoto kvadratov, saj smo imeli evklidsko normo, ∑ (bi − (Ax) )2 = b i i=1 ∥b − Ax∥2. b 100 Poglavje 4. Vektorski prostori s skalarnim produktom 4.3 Naloge 1. Za naslednje preslikave preverite ali so skalarni produkti ali ne. a) 3 R ; ⟨(x1, x2, x3) , (y1, y2, y3)⟩ := 2x1y1 + x2y2 + 3x3y3 b) 3 R ; ⟨(x1, x2, x3) , (y1, y2, y3)⟩ := x1y1 − x2y2 + 3x3y3 c) R2 [x] ; ⟨p (x) , q (x)⟩ = p (0) q (0) + p′ (0) q′ (0) + p′′ (0) q′′ (0) d) C [a, b] = { f ; f je zvezna funkcija na int. [a, b]}, ⟨ f , g⟩ = R b f (x) g (x) dx. a R.: a) da, b) ne, c) da, d) da. 2. Poiščite vse vektorje v 3 R , ki so glede na skalarni produkt, podan v točki a) naloge 1, ortogonalni na vektorja x = (2, 1, 1) in y = (0, 1, 0). R.: Premica skozi (0, 0, 0) v smeri vektorja (3, 0, 4). 3. Izračunajte normo polinoma p (x) = x + x2 glede na skalarni produkt iz točke c) naloge 1. Nato polinom p(x) še normirajte. √ R.: ∥p (x)∥ = 5, normirani polinom je enak p(x) √ . 5 4. Dokažite Cauchy-Schwarzevo neenakost v evklidskem vektorskem prostoru z uporabo neenakosti ∥tu + v∥2 ≥ 0, ki je izpolnjena za vse t ∈ R. R.: Najprej je |⟨u, v⟩| = 0 = ∥u∥∥v∥, če je u = 0 ali v = 0. Torej privzemimo, da sta oba u in v, neničelna. Uporabimo 0 ≤ ∥tu + v∥2 = ⟨tu + v,tu + v⟩ = t2 ∥u∥2 + 2t⟨u, v⟩ + ∥v∥2 , izraz na koncu je kvadratna funkcija v t, ki je za vse t nenegativna. Zato je njena diskriminanta nepozitivna: 4⟨u, v⟩2 − 4∥u∥2∥v∥2 ≤ 0. Delimo s 4, korenimo in rezultat sledi. 5. Izberite neko urejeno ortonormirano bazo 3 R glede na standardni skalarni produkt, katere prvi bazni vektor bo kolinearen z vektorjem (1, 1, 1). Nato zapišite dobljene vektorje v stolpce matrike Q. Katere posebne vrste je dobljena matrika?  1 √ −1 √ −1 √  3 6 2 R.: Za Q je več možnosti, npr.: Q = 1 2  √ √ 0 . Tretji stolpec lahko dobimo  3 6  1 √ −1 √ 1 √ 3 6 2 tudi z vektorskim produktom. Matrika Q je ortogonalna. 6. Izberite neko ortonormirano bazo 2 C glede na standardni kompleksni skalarni produkt, katere prvi bazni vektor bo kolinearen z vektorjem (1, i). Nato zapišite dobljena vektorja v stolpca matrike. Katere vrste je dobljena matrika? 1 R.: ∥(1, i)∥2 = 12 + i (−i) = 1 − i2 = 1 + 1 = 2. Torej prvi stolpec bo 1 √ . 2 i 1 i z 1 Nato je na primer U = 1 √ , ker mora biti 2. stolpec ⊥ , kar 2 i 1 w i da enačbo 1 ∗ z z = 1 −i = z − iw = 0. i w w Dobimo z = iw in izberemo npr. w = 1. Matrika U je unitarna. 7. Glede na standardni skalarni produkt izračunajte neko ortonormirano bazo podprostora V ≤ 4 R , napetega na vektorje v1 = (1, 0, 0, 1) , v2 = (1, −1, 1, 1), v3 = 4.3 Naloge 101 (0, 0, 0, 1), nato pa jo še razširite do ortonormirane baze celega prostora 4 R . Zapi- šite neko ortonormirano bazo V ⊥. R.: Z Gram-Schmidtovim postopkom dobimo f1 = 1 √ v1, f2 = 1 √ (0, −1, 1, 0), 2 2 f3 = 1 (−1, −1, −1, 1); za V = L {f 2 1, f2, f3} imamo V ⊥ = L {(1, −1, −1, −1)}. 8. Poiščite pravokotno projekcijo vektorja x = (2, 2, −1, 1) glede na standardni skalarni 1 0  0 −1 produkt v 4 R na prostor stolpcev SA matrike A =  . 0 1  1 0 R.: Stolpca matrike A sta očitno ortogonalna, za ortonormirano bazo ju le še nor-mirajmo. Naj bo f 1 = 1 √ 1 0 0 1T in f2 = 1 √ 0 −1 1 0T . Pravokotna 2 2 projekcija ˆx = ⟨x, f 1⟩f1 + ⟨x, f2⟩f2 = 3 √ f1 − 3 √ f2 = 3 √ 1 1 −1 1T . 2 2 2 9. Dokažite točke (1), (6) in (7) trditve 4.22. R.: (1) v ∈ M⊥ točno takrat, ko je ⟨v, m⟩ = 0 za vsak m ∈ M. Denimo, da sta v1, v2 ∈ M⊥, potem je ⟨v1 + v2, m⟩ = ⟨v1, m⟩ + ⟨v2, m⟩ = 0. Podobno je ⟨αv, m⟩ = α ⟨v, m⟩ = 0 za vsak m ∈ M. S tem je M⊥ zaprta za seštevanje in skaliranje. (6) Očitno je M ⊂ (M⊥)⊥. Množica na desni je vektorski podprostor po (1), zato je tudi L (M) ⊂ (M⊥)⊥. (7) V = L (V ), uporabimo še (6). 10. Pokažite, da so funkcije 1, cos x in sin x paroma ortogonalne glede na skalarni produkt ⟨ f , g⟩ = R 2π f (x) g (x) dx . 0 R.: R 2π 1 cos xdx = 0, R 2π 1 sin xdx = 0, R 2π cos x sin xdx = 0. 0 0 0 11. Po metodi najmanjših kvadratov določite rešitev linearnega sistema Ax = b, kjer je  1 1 −1   1   1 1 1   2  A =   , b =   .  1 −1 1   0  1 −1 1 1 R.: Enačba (sistem linearnih enačb) Ax = b, gotovo ni rešljiva, ker stolpec b / ∈ SA. V SA imajo namreč vsi stolpci 3. in 4. koordinato enaki, to pa za vektor b ne velja. Rešitev normalnega sistema enačb AT Aˆx =AT b se glasi ˆx = [ 3 3 1 ]T . 4 4 2 12. Za linearno odvisnost dveh veličin x in y = αx + β imamo naslednje meritve. xi yi −1, 1 −3, 2 0, 2 −0, 9 0, 9 1, 0 2, 2 3, 2 Z rešitvijo normalnega sistema določite parametra α in β regresijske premice. R.: Regresijska premica ima enačbo y = 1, 97x − 1, 06. 5. Spektralna teorija matrik 5.1 Problem lastnih vrednosti 5.1.1 Diagonalizacija Naj bo V končnorazsežen vektorski prostor nad poljem F in F : V → V linearna preslikava. Denimo, da je B = {e1, e2, . . . , en} taka urejena baza prostora V , da je matrika D = [F ]B, prirejena preslikavi F v tej bazi, diagonalna:   λ1 0 . . . 0  0 λ2 . . . 0  D =  . . . .  . (5.1)  .. .. . . ..    0 0 . . . λn To pomeni, da je F e1 = λ1e1 + 0e2 + ... + 0en F e2 = 0e1 + λ2e2 + ... + 0en ... F en = 0e1 + 0e2 + ... + λnen. Zastavimo si dve temeljni in povezani vprašanji. ? Ali obstaja taka baza prostora V , da bo matrika preslikave F v tej bazi diagonalna? ? Pri katerih pogojih je matrika A ∈ Mn(F) podobna (gl. definicijo 1.31) diagonalni matriki (to pomeni: obstajata taka obrnljiva matrika S in diagonalna matrika D, da je A = SDS−1)? Definicija 5.1 Matriko A ∈ Mn(F) je mogoče diagonalizirati (oziroma A je diagonalizabilna), kadar obstajata taka obrnljiva matrika S ∈ Mn(F) in diagonalna matrika D ∈ Mn(F), da velja A = SDS−1. Drugo vprašanje lahko sedaj preoblikujemo v: Pri katerih pogojih je A diagonalizabilna? V trditvi, ki sledi, je podana povezava med gornjima vprašanjema. Trditev 5.2 — Diagonalizacija preslikave – diagonalizacija matrike. Naj bo A matrika linearne preslikave F : V → V v katerikoli izbrani urejeni bazi prostora V . Taka baza prostora V , da je matrika preslikave F v tej bazi diagonalna, obstaja natanko tedaj, ko je matrika A diagonalizabilna. 104 Poglavje 5. Spektralna teorija matrik Dokaz. Denimo, da je A = [ai j] matrika preslikave F v izbrani bazi {e1, . . . , en} in je A = SDS−1 za neko obrnljivo matriko S = [si j] in diagonalno matriko D = diag(d1, . . . , dn). Postavimo e′ = n s k ∑ j=1 jke j, j = 1, 2, . . . , n, in pokažimo, da so to prav vektorji iskane baze. Zaradi obrnljivosti matrike S so linearno neodvisni. Nadalje iz A = SDS−1 sledi AS = SD oziroma n ∑ a j=1 i js jk = dksik, i, k = 1, 2, . . . , n. Upoštevamo še linearnost F , dejstvo, da je F e n j = ∑ a i=1 i jei, j = 1, 2, . . . , n, in n n n n n F e′ = ( k ∑ s jkF e j = ∑ s jk ∑ ai jei = ∑ ∑ ai js jk)ei j=1 j=1 i=1 i=1 j=1 n n = ∑ dksikei = dk ∑ sikei = dke′ , k i=1 i=1 za vsak k = 1, 2, . . . , n. To pomeni, da je diagonalna matrika D matrika preslikave F v bazi {e′ , . . . , e′ }. 1 n Obratno, recimo, da matrika A ni diagonalizabilna in hkrati obstaja baza, v kateri je matrika preslikave F diagonalna. Matriki, ki predstavljata isto preslikavo, sta podobni, kar pomeni, da je A podobna diagonalni matriki, torej diagonalizabilna, kar je očitno protislovje. ■ Denimo, da je A diagonalizabilna; naj bo A = SDS−1 za neko diagonalno matriko D = diag(λ1, . . . , λn) in obrnljivo matriko S. Stolpci matrike S so zaradi obrnljivosti S linearno neodvisni in, ker jih je točno n, tvorijo bazo prostora stolpcev n,1 F . Te stolpce označimo xi = Sei, i = 1, 2, . . . , n, in upoštevajoč A = SDS−1 in (5.1) izračunajmo Axi = SDS−1Sei = SDei = Sλiei = λiSei = λixi. Tako smo izvedeli, da ima vsak stolpec x j matrike S lastnost Ax j = λ jx j. To nas vodi do naslednje definicije. Definicija 5.3 Neničeln matrični stolpec x ∈ n,1 F je lastni vektor matrike A ∈ Mn(F), če obstaja tak skalar λ ∈ F, da velja Ax = λ x, x ̸= 0. Skalar λ se imenuje lastna vrednost matrike A, matrični stolpec x pa lastni vektor matrike A, ki pripada lastni vrednosti λ . Za par (x, λ ) rečemo, da je lastni par. Podobna definicija je za lastni par linearne preslikave. Definicija 5.4 Neničeln vektor v ∈ V se imenuje lastni vektor linearne preslikave F : V → V, kadar obstaja tako število λ ∈ F, da je F v = λv, v ̸= 0. Številu λ rečemo lastna vrednost preslikave F . n,1 n,1 ■ Zgled 5.5 Denimo, je linearna preslikava F : F → F podana s predpisom F x = Ax, x ∈ n,1 F , kjer je A ∈ Mn(F) poljubna kvadratna matrika. V tem primeru se lastni pari linearne preslikave F ujemajo z lastnimi pari matrike A. ■ 5.1 Problem lastnih vrednosti 105 3 3 ■ Zgled 5.6 Recimo, da je P : R → R pravokotna projekcija na ravnino Σ skozi izhodišče, Σ = {⃗r; ⃗r = t⃗a + s⃗b, t, s ∈ R}, kjer kot ponavadi točke ravnine enačimo z njihovimi krajevnimi vektorji, in jo določata linearno neodvisna vektorja ⃗a in⃗b, vektor ⃗n, na primer ⃗n = ⃗a ×⃗b, pa naj bo normalni vektor te ravnine. Očitno vektorji ⃗a,⃗b in ⃗n v tem vrstnem redu tvorijo neko urejeno bazo prostora 3 R . Hkrati pa imamo: P⃗a =⃗a = 1⃗a P⃗b =⃗b = 1⃗b P⃗n =⃗0 = 0⃗n. Opazimo, da sta vektorja ⃗a in⃗b lastna vektorja projekcije P pri lastni vrednosti λ1 = 1, prav tako je vsak vektor t⃗a + s⃗b ̸=⃗0 lastni vektor za λ = 1, saj je zaradi linearnosti P P(t⃗a + s⃗b) = tP⃗a + sP⃗b = t⃗a + s⃗b = 1(t⃗a + s⃗b). Vektor ⃗n, prav tako pa tudi vsak neničeln skalarni večkratnik t⃗n, pa je lastni vektor pri lastni vrednosti λ2 = 0, saj je P(t⃗n) = tP⃗n = 0⃗n. Matrika preslikave P v urejeni bazi B = {⃗a,⃗b,⃗n}, kjer vzamemo tako urejenost kot so po vrsti bazni vektorji napisani, je zaradi 1 0 0 h i h i h i [P⃗a] ⃗ ⃗ B = [⃗a]B = P⃗ 0 , b = b = 1 , [P⃗n] 0 = 0 B B B = B 0 0 0 diagonalna in se glasi  1 0 0  P := [P]B =  0 1 0 . 0 0 0 Omenimo, da sta števili 1 (dvakratna) in 0 hkrati tudi lastni vrednosti matrike P. Zgoraj smo pokazali tudi, da so vsi neničelni vektorji ravnine Σ lastni vektorji, ki ustrezajo lastni vrednosti 1, in da so krajevni vektorji neničelnih točk na premici (skozi izhodišče) v smeri vektorja ⃗n lastni vektorji za lastno vrednost 0. ■ 5.1.2 Računanje lastnih parov V duhu trditve 5.2 se bomo omejili le na obstoj in računanje lastnih vektorjev in lastnih vrednosti matrik. Naj bo A ∈ Mn(F) in denimo, da je matrični stolpec x lastni vektor matrike A pri lastni vrednosti λ . Torej je x ̸= 0 in Ax = λ x. Imamo (nelinearno) enačbo z neznankama x in λ . Vendar, če bi λ že poznali, bi imeli opravka z linearnim, celo homogenim sistemom linearnih enačb (A − λ I)x = 0. Imamo pa še podatek, da mora biti λ tako število, da bo ta sistem imel tudi neničelne rešitve. Tako mora biti matrika A − λ I singularna (sicer bi bila edina rešitev ničelni stolpec) in tako njena determinanta enaka 0. Tako smo dobili enačbo z eno samo neznanko det(A − λ I) = 0. (5.2) 106 Poglavje 5. Spektralna teorija matrik Za lažjo predstavo razpišimo matriko A − λ I za n = 4. a  11 − λ a12 a13 a14  a  A − 21 a22 − λ a23 a24 λ I =   .  a31 a32 a33 − λ a34  a41 a42 a43 a44 − λ Trditev 5.7 Bodi A ∈ Mn(F). Izraz det(A − λ I) je polinom stopnje n v skalarni spremenljivki λ . Trditev bo direktno sledila iz malo splošnejše trditve. Lema je v matematiki ime za bodisi zelo preprosto bodisi pomožno trditev. Lema 5.8 Če je a i j − εi jλ ∈ Mn(F) taka matrika, da je εi j = 1 največ enkrat v vsaki vrstici in največ enkrat v kateremkoli stolpcu, sicer pa enak 0, je det a i j − εi jλ polinom stopnje kvečjemu n v spremenljivki λ . V posebnem, ko so vsi εii = 1, vsi ostali pa enaki 0, je [ai j − εi jλ ] = A − λ I in det(A − λ I) polinom natanko stopnje n. Dokaz leme. Začnimo z bazo indukcije. Če je n = 1, je det [a11 − ε11λ ] bodisi enaka a11 − λ , bodisi a11, torej v obeh primerih polinom v λ , ki ne preseže stopnje 1. Tudi drugi del trditve, ko je ε11 = 1, očitno velja. Denimo, da obe trditvi v lemi že velja za n − 1 ≥ 1 in naj bo A ∈ Mn(F). Z razvojem det a i j − εi jλ po npr. prvi vrstici dobimo n det a i j − εi jλ = ∑ (a1j − ε1jλ)k1j(λ), j=1 kjer so k1 j(λ ) kofaktorji pozicij (1, j), j = 1, 2, . . . , n, in k1 j(λ ) = (−1) j+1 det A′ ( 1 j λ ). Pri tem so A′ ( z izpustitvijo 1. vrstice 1 j λ ) ∈ Mn−1(F) matrike, ki jih dobimo iz ai j − εi jλ in j-tega stolpca. Po indukcijski predpostavki so vsi kofaktorji k1 j(λ ) polinomi stopnje kvečjemu n − 1 in zato je det a i j − εi jλ polinom največ stopnje n. Kadar pa so εii = 1 za vse i = 1, 2, . . . , n, in vsi ostali εi j = 0, imamo n det a i j − εi jλ = det(A − λ I) = (a11 − λ )k11(λ ) + ∑ a1jk1j(λ), j=1 kjer je k11(λ ) po indukcijski predpostavki polinom natanko stopnje n − 1, vsi ostali k1 j(λ ) pa ne presežejo stopnje n − 1. Tako je končno det(A − λ I) polinom natanko stopnje n. ■ Omenjeni polinom je tako pomemben, da ga poimenujemo. Definicija 5.9 Za poljubno kvadratno matriko A se polinom pA(λ ) := det(A − λ I) imenuje karakteristični polinom matrike A. Nekateri kot karakteristični polinom matrike A vpeljejo det(λ I − A), ki se od naše definicije razlikuje kvečjemu v predznaku. Vodilni koeficient det(λ I − A) je vedno enak 1, medtem, ko je vodilni koeficient polinoma pA(λ ) = det(A − λ I) enak (−1)n za matriko A ∈ Mn(F). Naša definicija je bolj primerna za praktično računanje, ker elementi matrike A tako ostanejo nespremenjeni (sicer bi se vsi pomnožili z (-1)). 5.1 Problem lastnih vrednosti 107 Omenimo še eno lastnost koeficientov karakterističnega polinoma. Trditev 5.10 Naj bo p n n−1 A(λ ) = det(A − λ I) = (−1)nλ + cn−1λ + · · · + c1λ + c0 karak- teristični polinom matrike A = [ai j] ∈ Mn(F). Potem je c0 = det A in cn−1 = (−1)n−1(a11 + a22 + · · · + ann). Izrazu a11 + a22 + · · · + ann rečemo sled matrike A = [ai j] in jo bomo označili s sled A. Ni težko videti, da je preslikava iz Mn(F) v F, A 7→ sled A, linearna preslikava. Trditev 5.11 Lastne vrednosti matrike so natanko ničle karakterističnega polinoma, pripadajoči lastni vektorji pa vsi neničelni elementi ničelnega prostora matrike A − λ I. Dokaz. Matrika sistema (A − λ I)x = 0 mora biti singularna, ker iščemo neničelne rešitve tega linearnega sistema enačb. Torej je det(A − λ I) = pA(λ ) = 0 za vsako lastno vrednost λ matrike A. Hkrati mora biti vsak pripadajoči lastni vektor x ∈ NA−λI \ {0}. ■ Definicija 5.12 Ničelni podprostor matrike A − λ I, NA−λI = {x; (A − λ I)x = 0}, imenujemo lastni podprostor k lastni vrednosti λ . Vsi neničelni vektorji lastnega podprostora so hkrati tudi lastni vektorji, ki ustrezajo lastni vrednosti λ . Vektor 0 je edini element lastnega podprostora, ki ni lastni vektor. ? Ali ima vsaka kvadratna matrika A ∈ Mn(F) kako lastno vrednost? Odgovor na to vprašanje je nikalen v primeru, ko je F = R. Že polinom druge stopnje z realnimi koeficienti ima lahko le par konjugiranih kompleksnih ničel in tako enačba pA(λ ) = 0 nima realnih rešitev. V naslednjem primeru srečamo prav tako matriko. 0 −1 ■ Zgled 5.13 Karakteristični polnim matrike A = se glasi: 1 0 − λ −1 det( A − 2 λ I) = = λ + 1 1 −λ in enačba 2 λ + 1 = 0 premore le rešitvi ±i. Matrika A torej nima realnih lastnih vrednosti, če pa bi jo obravnavali kot A ∈ M2(C), pa bi imela dve konjugirani lastni vrednosti i in −i. ■ Po osnovnem izreku algebre ima vsak polinom stopnje n ≥ 1 s kompleksnimi koeficienti vsaj eno kompleksno ničlo. Če štejemo še njihove večkratnosti, jih ima natanko n. Od tod zaključimo: Trditev 5.14 Vsaka kompleksna kvadratna matrika A ∈ Mn(C) ima vsaj eno lastno vrednost. Šteto z večkratnostmi v karakterističnem polinomu jih ima natanko n. Zato se v bodoče dogovorimo, da če ni posebej rečeno drugače, obravnavamo le matrike s kompleksnimi elementi. Ti so lahko tudi vsi realni, a realna matrika, kot smo videli zgoraj, ima lahko kompleksne lastne vrednosti. Te lahko nastopijo le v konjugiranih parih, ker je vsak realen polinom razcepen do faktorjev stopnje kvečjemu 2. 108 Poglavje 5. Spektralna teorija matrik 0 1 1  ■ Zgled 5.15 Za matriko A = 3 1 −2 izračunajmo karakteristični polinom, lastne 5 4 −1 vrednosti in pripadajoče lastne vektorje. Karakterističlni polinom se glasi −  λ 1 1 pA (λ ) = det (A − λ I) = det  3 1 − λ −2  = λ (1 − λ ) (1 + λ ) . 5 4 −1 − λ Lastne vrednosti, ničle karakterističnega polinoma, so λ1 = 0, λ2 = 1, λ3 = −1. Sedaj za vsako lastno vrednost izračunamo še pripadajoče lastne vektorje, t.j. poiščemo vse neničelne rešitve homogenega sistema (A − λ I)x = 0. Dobimo:  1  • pri λ = 0 : x1 = C1 −  1  , 0 ̸= C1 ∈ R; 1  2  • pri λ = 1 : x2 = C2 −  1  , 0 ̸= C2 ∈ R; 3  4  • pri λ = −1 : x3 = C3 −  5  , 0 ̸= C3 ∈ R. 1 Opazimo, da smo dobili tri lastne podprostore, vsak od njih je, gledano geometrijsko, premica v smeri lastnega vektorja skozi izhodišče koordinatnega sistema. Z izbiro npr. C j = 1, j = 1, 2, 3, izberemo bazične vektorje lastnih podprostorov. Matriko A lahko gledamo kot matriko linearne preslikave x 7→ Ax glede na standardno bazo v prostoru 3,1 R . Če v tem prostoru izberemo urejeno bazo B = {x1, x2, x3}, sestavljeno iz lastnih vektorjev matrike A, bo v tej bazi (v našem primeru je potrebno še preveriti, da so res linearno neodvisni), nova matrika te linearne preslikave diagonalna. Naj bo S = [x1|x2|x3] prehodna matrika spremembe baze iz standardne v B. Račun pokaže, da det S ̸= 0. Potem ima preslikava x 7→ Ax v bazi iz lastnih vektorjev diagonalno matriko D = diag(0, 1, −1) in velja zveza A = SDS−1, gl. razdelek 3.2.1. Matriko A je bilo torej mogoče diagonalizirati oz. A je podobna diagonalni matriki D (gl. def. 1.29). Omenimo še, da je matrika A realna in ima tri realne lastne vrednosti, zato je bilo mogoče določiti bazo iz realnih lastnih vektorjev. ■ 5.1.3 Pogoji za diagonalizabilnost Spet začnimo s temeljnim vprašanjem. ? Ali je vsako kompleksno matriko mogoče diagonalizirati? Videli bomo, da je odgovor na to vprašanje nikalen. Zalomi se lahko le pri tem, da linearno neodvisnih lastnih vektorjev ni dovolj, da bi tvorili bazo prostora n,1 C , kar ponazori naslednji zgled. 5.1 Problem lastnih vrednosti 109 2 1 0 ■ Zgled 5.16 Trdimo, da se matrike A = 0 2 1 ne da diagonalizirati. Edina lastna 0 0 2 vrednost te matrike je λ = 2, lastni podprostor te lastne vrednosti pa enorazsežen po izreku 2.45 (Rang-ničelnost) za matriko A − 2I. Tako ni mogoče sestaviti baze prostora 3,1 R , ki bi vsebovala le lastne vektorje matrike A. ■ Trditev 5.17 Matriko A ∈ Mn(C) je mogoče diagonalizirati natanko tedaj, ko obstaja baza n,1 C iz lastnih vektorjev matrike. Dokaz. Zelo preprost, prepuščen bralcu. ■ Denimo, da je F : V → V linearna ter A in A′ matriki, ki predstavljata preslikavo F v različnih bazah. Potem sta A in A′ podobni in videli bomo, da imata ista karakteristična polinoma. Zato lahko govorimo tudi o karakterističnem polinomu poljubne linearne preslikave na končnorazsežnem vektorskem prostoru. Trditev 5.18 Podobni matriki imata isti karakteristični polinom in posledično tudi iste lastne vrednosti vključno z večkratnostmi. Dokaz. Bodita A in A′ podobni matriki; naj velja A′ = SAS−1 za neko obrnljivo matriko S. Potem je pA′ (λ ) = det A′ − λ I = det SAS−1 − λ I = det SAS−1 − λ SS−1 = det S (A − λ I) S−1, upoštevajoč še multiplikativnost determinante in dejstvo, da je det S det S−1 = 1, pa je nadalje pA′(λ ) = det S det (A − λ I) det S−1 = det (A − λ I) = pA (λ ) . ■ Vpeljimo še nekaj pojmov. Definicija 5.19 Algebrska večkratnost lastne vrednosti λ0 (oznaka: alg(λ0)) je stopnja ničle λ0 v karakterističnem polinomu. Spekter matrike A je množica vseh njenih paroma različnih lastnih vrednosti σ (A) := {λ1, . . . , λk}. Geometrijska večkratnost lastne vrednosti λ0, (oznaka: geo (λ )) je razsežnost pripadajočega lastnega podprostora NA−λ0I. Trditev 5.20 Geometrijska večkratnost poljubne lastne vrednosti matrike nikoli ne preseže njene algebrske večkratnosti in ni manjša od ena. Zapišimo to lastnost še formalno 1 ≤ geo (λ0) ≤ alg (λ0) za poljubno lastno vrednost λ0 ∈ σ (A). Dokaz. Naj bo A ∈ Mn(C), λ0 ∈ σ (A) in geo(λ0) = r ≥ 1. Naj bo {e1, . . . , er} urejena baza lastnega podprostora N n,1 A− in v novi bazi λ0I . Dopolnimo jo do baze prostora C predstavimo preslikavo x 7→ Ax z novo bločno matriko λ A′ = 0Ir A12 , 0 A22 110 Poglavje 5. Spektralna teorija matrik ki je, kot vemo, podobna matriki A. Zato je njen karakteristični polinom enak karakterističnemu polinomu matrike A, gl. trditev 5.17. Z razvojem determinante zaporedoma po stolpcih do r-tega stolpca dobimo, da je pA′ (λ ) = det A′ − λ I ( λ = det 0 − λ ) Ir A12 0 A22 − λ In−r = (λ0 − λ )r det (A22 − λ In−r) . Od tod vidimo, da je alg(λ0) vsaj r, lahko pa je tudi več, saj je λ0 lahko še ničla polinoma det (A22 − λ In−r). ■ V zgledu 5.16 ima matrika A eno samo lastno vrednost λ = 2 z algebraično večkratnostjo 3 in geometrijsko večkratnostjo le 1. ? Kateri pogoj bi bil potreben in zadosten za diagonalizacijo matrike? Korak proti odgovoru na to vprašanje je spodnja trditev. Trditev 5.21 Katerikoli lastni vektorji, ki pripadajo paroma različnim lastnim vrednostim, so linearno neodvisni. Dokaz. Denimo, da so λ1, λ2, . . . , λk paroma različne lastne vrednosti kompleksne matrike A. Naj bodo x1, x2, . . . , xk pripadajoči lastni vektorji, t.j. Ax j = λ jx j, j = 1, 2, . . . , k. Postavimo linearno kombinacijo lastnih vektorjev in jo izenačimo z 0, β1x1 + β2x2 + · · · + βkxk = 0. (5.3) Z matematično indukcijo na k, število različnih lastnih vrednosti matrike A, bomo pokazali, da so vsi koeficienti β1, . . . , βk te linearne kombinacije enaki 0 in posledično, stolpci x1, x2, . . . , xk linearno neodvisni. Za k = 1 uporabimo le, da je x1 lastni vektor in zato po definiciji 5.3 neničeln. Iz β1x1 = 0 tako takoj sledi, da je β1 = 0. Za indukcijski korak predpostavimo, da trditev že velja za množico k − 1 lastnih vektorjev. Pomnožimo enačbo (5.3) z leve z matriko A in upoštevajmo, da so vsi x j lastni vektorji matrike A. Tako dobimo β1λ1x1 + β2λ2x2 + · · · + βkλkxk = β1Ax1 + β2Ax2 + · · · + βkAxk = 0. (5.4) Enačbo (5.3) pomnožimo z λ1 in jo odštejmo od enačbe (5.4). Prvi člen se odšteje, torej dobimo β2(λ2 − λ1)x2 + · · · + βk(λk − λ1)xk = 0. (5.5) To je linearna kombinacija k − 1 lastnih vektorjev, ki pripadajo paroma različnim lastnim vrednostim, torej so po indukcijski predpostavki linearno neodvisni. Sledi, da so vsi koeficienti linearne kombinacije (5.5) ničelni, β2(λ2 − λ1) = β3(λ3 − λ1) = · · · = βk(λk − λ1) = 0. Zaradi λ j − λ1 ̸= 0, j = 2, . . . , k, imamo β2 = · · · = βk = 0. S to informacijo se vrnemo v enačbo (5.3), da dobimo še β1 = 0. ■ 5.1 Problem lastnih vrednosti 111 Izrek 5.22 — Zadosten pogoj za diagonalizabilnost. Matrika A ∈ Mn(F), ki ima n različnih lastnih vrednosti v polju F, je podobna diagonalni matriki z vrednostmi diagonalnih elementov v F. Dokaz. Po zgornji trditvi je n lastnih vektorjev, ki ustrezajo različnim lastnim vrednostim, linearno neodvisnih in tako tvorijo bazo n,1 C . ■ ■ Zgled 5.23 Zadosten pogoj v prejšnji trditvi nikakor ni tudi potreben pogoj. Za poljuben skalar α ∈ F je skalarna matrika αI ne le diagonalizabilna, temveč celo diagonalna, a ima le eno, n-kratno lastno vrednost. Za skalarno matriko je vsak neničelni vektor tudi lastni vektor. ■ Izrek 5.24 — Potreben in zadosten pogoj za diagonalizabilnost. Matrika A ∈ Mn(C) je diagonalizabilna natanko tedaj, ko se algebrajske večkratnosti vseh lastnih vrednosti ujemajo z geometrijskimi. Dokaz. Denimo, da so λ1, . . . , λk paroma različne lastne vrednosti matrike A ∈ Mn(F) in se njen karakteristični polinom glasi pA(λ ) = (λ − λ1)r1(λ − λ2)r2 . . . (λ − λk)rk, r1 + r2 + · · · + rk = n. Diagonalizabilna matrika A je podobna matriki   λ1Is 0 . . . 0 1  0 λ2Is . . . 0  2  . . .  ,  .. .. . . 0    0 0 0 λkIsk kjer je geo( k k λ j) = s j ≤ r j = alg(λ j), j = 1, 2, . . . , k, pri čemer je ∑ s r j=1 j = n = ∑ j=1 j. Če bi bil kak si < ri, bi pristali v protislovju. Zato velja geo(λ j) = r j = alg(λ j) za vsak j = 1, 2, . . . , k. Obratno denimo, da se ujemajo algebrske in geometrijske večkratnosti vseh paroma ( j) ( j) različnih lastnih vrednosti. Za vsak j = 1, 2, . . . , k imamo neko bazo {x , . . . , x } la- 1 r j stnega podprostora za λ j, sestavljeno iz linearno neodvisnih lastnih vektorjev matrike A. Videti je potrebno, da tvori množica r1 + · · · + rk = n vektorjev { (1) (1) (2) (2) (k) (k) x , . . . , x , x , . . . , x , . . . , x , . . . , x } 1 r1 1 r2 1 rk bazo n,1 C oz. preveriti je potrebno le linearno neodvisnost, kar pa lahko naredimo zelo podobno kot v dokazu trditve 5.21 in bomo izpustili. Podoben problem je predstavljen v rešitvi naloge 1 v razdelku 5.3. ■ 112 Poglavje 5. Spektralna teorija matrik 5.2 Trikotljivost matrike V prejšnjem poglavju smo spoznali, da ima lahko matrika premalo linearno neodvisnih lastnih vektorjev, da bi tvorili bazo ustreznega prostora in zato ni diagonalizabilna. Vseeno pa bi želeli do podobnosti bolj preprosto obliko. Na mestu je vprašanje: ? Ali lahko dobimo kako posebno preprosto obliko matrike glede na relacijo podobnosti tudi v primeru, ko lastnih vektorjev ni dovolj, da bi tvorili bazo? Izkaže se, da lahko (razmeroma enostavno) dosežemo zgoraj ali pa spodaj trikotno obliko in to celo z unitarno podobnostjo (gl. def. 1.29). Izrek 5.25 — Schurov izrek. Vsaka kompleksna kvadratna matrika je unitarno podobna trikotni matriki. Vrednosti na diagonali te trikotne matrike so lastne vrednosti matrike. Z drugimi besedami: za kvadratno kompleksno matriko A ∈ Mn(C) obstaja taka unitarna matrika U in taka (zgoraj ali spodaj) trikotna matrika T z lastnimi vrednostmi matrike A v poljubnem vrstnem redu na diagonali, da je A = U TU ∗. (5.6) Podobno velja za realno matriko, a le, če ima samo realne lastne vrednosti. Unitarno matriko U , ki inducira unitarno podobnost, je v realnem primeru mogoče izbrati realno, zato je ta ortogonalna, saj je U −1 = U ∗ = U T . Dokaz. Izvedemo z matematično indukcijo na n. Za n = 1 je trditev v izreku očitna. Za lažje razumevanje si oglejte primer n = 2 v rešitvi naloge 2 v tem poglavju. Podobno idejo bomo uporabili za indukcijski korak. Denimo, da izrek že velja za matrike velikosti n − 1, n ≥ 2. Kot vemo, po trditvi 5.14, obstaja vsaj ena lastna vrednost matrike A; izberimo poljubno lastno vrednost λ1 in poljuben pripadajoči lastni vektor f1. Po potrebi ga normiramo in tako lahko vzamemo, da je ∥f1∥ = 1. Množico {f1} lahko najprej dopolnimo do neke baze {f1, e2, . . . en} prostora matričnih stolpcev n,1 C . Nato lahko iz te baze z Gram-Schmidtovim postopkom (gl. izrek 4.16) dobimo ortonormirano bazo, recimo {f1, f2, . . . , fn}, ki porodi bločno unitarno matriko (gl. def. 1.16) U1 = [f1|f2| . . . fn]. Matrika A je matrika linearne preslikave x 7→ Ax v standardni bazi. Nova (bločna) matrika te preslikave v urejeni bazi {f1, f2, . . . , fn} se glasi λ U ∗ 1 T12 1 A1U1 = , (5.7) 0 A22 ker je Af1 = λ1f1; o vektorjih Af2,. . . , Afn pa ne vemo ničesar posebnega, tem pripada drugi bločni stolpec matrike na desni strani (5.7). Nato uporabimo indukcijsko predpostavko za matriko A22 ∈ Mn−1(C). Obstajata taka unitarna matrika V ∈ Mn−1(C) in zgoraj trikotna matrika T22, da velja A22 = V22T22V ∗ . Iz računa 22 λ1 T12 λ 1 0 λ 1 0 = 1 T12 = 1 ∗ , 0 A22 0 V22T22V ∗ 0 V 0 T 0 V ∗ 22 22 22 22 kjer ∗ v prvi vrstici in drugem stolpcu predstavlja izraz, ki nas posebej ne zanima. Ozna- čimo 1 0 V = 0 V22 5.2 Trikotljivost matrike 113 in bralcu prepustimo preverjanje, da je V unitarna matrika ter (U1V )∗ = V ∗U1. Tako dobimo, da je λ A = U 1 ∗ 1V (U 0 T 1V )∗. 22 Nazadnje upoštevamo še, da je U1V kot produkt unitarnih matrik unitarna matrika (gl. trditev 1.17), kar sklene indukcijski korak. Nazadnje še dejstvo, da so na diagonali trikotne matrike T lastne vrednosti matrike A, sledi iz enakosti karakterističnih polinomov podobnih (zato tudi unitarno podobnih) matrik, gl. trditev 5.18. ■ Kakor je avtorici znano, je za dve podani matriki na splošno razmeroma težko presoditi ali sta unitarno podobni. Če pa se omejimo na kako "ta pravo" podmnožico kvadratnih matrik, pa je to mogoče. Na primer normalne matrike so ena od takih podmnožic, o tem bomo več povedali v poglavju 6, natančneje v izreku 6.1. 5.2.1 Polinomske funkcije matrik Naj bo p (x) = a0 + a1x + · · · + akxk s koeficienti a0, a1, . . . , ak ∈ F poljuben polinom in A ∈ Mn(F) poljubna matrika. Na naraven način temu polinomu priredimo n × n matriko kot vrednost polinoma z matričnim argumentom p (A) := a0I + a1A + · · · + akAk ∈ Mn(F). Omenimo, da smo člen a0 nadomestili z matriko a0I. Hitro se lahko prepričamo, da je vedno izpolnjeno Ap (A) = p (A) A. (5.8) O zvezi med matriko in njenim karakterističnim polinomom govori pomemben izrek. Izrek 5.26 — Izrek Hamilton-Cayley. Vsaka kvadratna matrika je ničla svojega karakterističnega polinoma:   0 . . . 0 . . p .  . . .  A (A) = 0 = . . . .   0 . . . 0 Pred dokazom si oglejmo, kaj pove izrek o konkretni 2 × 2 matriki. 3 1 ■ Zgled 5.27 Naj bo A = . Karakteristični polinom matrike A je −1 1 3 − λ 1 pA (λ ) = = (λ − 2)2 . −1 1 − λ Izračunajmo pA(A). 1 1 2 0 0 pA (A) = (A − 2I)2 = = . −1 −1 0 0 ■ 114 Poglavje 5. Spektralna teorija matrik Dokaz izreka 5.26. Naj bo pA(x) = a0 + a1x + · · · + anxn. Matriki A − λ I priredimo njeno prirejenko C := (A − λ λ I)(p) (gl. def. 1.53). Iz same konstrukcije te matrike ugotovimo, da so vsi njeni elementi polinomi kvečjemu stopnje n − 1, zato se izraža z C = C λ 0 + λ C1 + · · · + n−1 λ Cn−1, kjer so C0, . . . ,Cn−1 matrike. Hkrati ima pomembno lastnost (gl. (1.11) trditve 1.54). (A − λ I)C = C (A − λ λ λ I) = det(A − λ I)I = pA(λ )I. Najprej bomo pokazali, da zaradi prve enakosti v prejšnji vrstici vse matrike C0, . . . ,Cn−1 komutirajo z matriko A. Res, ker sta enakosti (A − 2 λ I)C =AC (−C λ 0 + λ (−C0 + C1A) + λ 1 + C2A) + . . . + n−1 n λ (−Cn−2 +Cn−1A) − λ Cn−1 in C (A − 2(−C λ λ I) =C0A + λ (−C0 + AC1) + λ 1 + AC2) + . . . + n−1 n λ (−Cn−2 + ACn−1) − λ Cn−1 izpolnjeni za vsak j λ , lahko enačimo koeficiente pri potencah λ in zaporedoma za j = 0, . . . , n − 1 dobimo, da vse matrike Cj, komutirajo z A. Nadalje vidimo, da je a0 = C0A a1 = −C0 + AC1 a2 = −C1 + AC2 ... an−1 = −Cn−2 + ACn−1 an = −Cn−1, od koder izračunamo pA(A) = a0I + a1A + a2A2 + · · · + anAn = C0A + (−C0 + AC1)A + (−C1 + AC2)A2 + . . . + (−Cn−2 + ACn−1)An−1 −Cn−1An = C0A + (−C0A +C1A2) + (−C1A2 +C2A3) + . . . + (−Cn−3An−2 +Cn−2An−1) + (−Cn−2An−1 +Cn−1An) −Cn−1An = 0. ■ Alternativni dokazi za posebne matrike, tudi take, o katerih bo tekla beseda v nadaljevanju, so v rešitvah naloge 3 tega poglavja. 5.2 Trikotljivost matrike 115 Nadaljujmo z vprašanjem: ? Kako učinkovito izračunati vrednost p(A) pri poljubno izbranem polinomu p(x)? Videli bomo, da je to mogoče, če je matrika A podobna razmeroma preprosti matriki B, npr. diagonalizabilna, saj se računanje p(A) prenese na p(B). Velja namreč: Trditev 5.28 Naj bo A = SBS−1 ∈ Mn(F). Potem je p(A) = Sp(B)S−1 pri poljubnem polinomu p(x). Dokaz. Na začetku preverimo (natančen dokaz z indukcijo prepustimo bralcu), da je za vsak k ∈ N0 izpolnjeno Ak = (SBS−1)k = SBS−1SBS−1 . . . SBS−1 = SBkS−1. Naj bo p(x) = a0 + a1x + a2x2 + · · · + amxm. Sedaj enakost p(B) = a0I + a1B + a2B2 + · · · + amBm pomnožimo z leve z S in z desne z S−1 ter upoštevamo lastnosti seštevanja in skaliranja matrik Sp(B)S−1 = S(a0I + a1B + a2B2 + · · · + amBm)S−1 = a0SS−1 + a1SBS−1 + a2SB2S−1 + · · · + amSBmS−1 = a0I + a1SBS−1 + a2(SBS−1)2 + · · · + am(SBS−1)m = a0I + a1A + a2A2 + · · · + amAm = p(A). ■ Pomembno vlogo bo igral poseben polinom, ki ima iste ničle kot karakteristični polinom, vendar je lahko (a ne nujno) njegova stopnja manjša od stopnje karakterističnega polinoma. Definicija 5.29 Polinom m (λ ) najnižje možne stopnje, za katerega je m (A) = 0 in ima vodilni koeficient enak 1, imenujemo minimalni polinom matrike A ∈ Mn(F) in ga označimo z mA(λ ).  1 0 0  ■ Zgled 5.30 Določimo minimalni polinom matrike A =  0 2 0 . Ni težko videti, 0 0 3 da je  m  A(1) 0 0 mA(A) =  0 mA(2) 0  , 0 0 mA(3) torej iščemo polinom stopnje kvečjemu 3 z vodilnim koeficientom 1, ki bo imel ničle 1, 2 in 3. Edina možnost je mA(λ ) = (λ − 1)(λ − 2)(λ − 3) = −pA(λ ). V tem primeru je minimalni polinom iste stopnje kot karakteristični. ■ 116 Poglavje 5. Spektralna teorija matrik  2 1 0  ■ Zgled 5.31 Naj bo A =  0 2 0  . Hitro vidimo, da je karakteristični polinom 0 0 2 pA (λ ) = (2 − λ )3. Podobno kot v prejšnjem zgledu, tokrat pa zaradi trikotne oblike matrike, mora biti izpolnjeno m  A(2) ∗ ∗ 0 = mA(A) =  0 mA(2) ∗  , 0 0 mA(2) zato je 2 edina ničla minimalnega polinoma. Torej bo minimalni polinom mA(λ ) natanko eden od polinomov λ − 2, (λ − 2)2 in (λ − 2)3. Zato izračunajmo A − 2I, (A − 2I)2 in  0 1 0  (A − 2I)3 . Najprej vidimo, da A − 2I = ̸  0 0 0  = 0, nato pa je (A − 2I)2 = 0 = 0 0 0 (A − 2I)3 . Tako smo se prepričali, da je mA (λ ) = (λ − 2)2 minimalni polinom matrike A, ki se v tem primeru razlikuje od karakterističnega polinoma matrike A. ■ Trditev 5.32 — Lastnosti minimalnega polinoma. Ničle minimalnega polinoma mA(λ ) in ničle karakterističnega polinoma pA(λ ) poljubne kompleksne matrike A se ujemajo. Karakteristični polinom pA(λ ) je deljiv z minimalnim polinomom mA(λ ). Dokaz. Naj bo µ ∈ C ničla minimalnega polinoma mA(λ ), ki ni lastna vrednost matrike A. To pomeni, da je matrika A − µI obrnljiva (ker je det(A − µI) ̸= 0). Minimalni polinom lahko razcepimo v mA(λ ) = (λ − µ)q(λ ), kjer je stopnja polinoma q(λ ) manjša od stopnje minimalnega polinoma. Potem je mA(A) = (A − µI)q(A) = 0. Z leve lahko desno enakost pomnožimo z (A − µI)−1 in dobimo, da je q(A) = 0. Prišli smo v protislovje z dejstvom, da je mA(λ ) polinom najnižje možne stopnje, ki ima A za svojo ničlo. Protislovje se razreši le, če so vse ničle minimalnega polinoma tudi ničle karakterističnega polinoma. Obratno, preverimo še, da je vsaka lastna vrednost matrike tudi ničla njenega minimalnega polinoma. Naj bo λ poljubna lastna vrednost matrike A in x ̸= 0 ustrezen lastni vektor. Hitro se vidi, da iz Ax = k λ x sledi, da je Akx = λ x za vsak k ∈ N. Denimo, da je mA(x) = b0 + b1x + b2x2 + · · · + bmxm. Potem je seveda mA(A) = 0 in zato 0 = mA(A)x = (b0I + b1A + b2A2 + · · · + bmAm)x = b0x + b1Ax + b2A2x + · · · + bmAmx = (b 2 m 0 + b1λ + b2λ + · · · + bmλ )x = mA(λ )x. Vektor x ̸= 0, zato je mA(λ ) = 0. 5.2 Trikotljivost matrike 117 Druga trditev sledi iz naslednjega razmisleka. Denimo, da se karakteristični in minimalni polinom matrike A glasita pA(λ ) = (λ − λ1)r1(λ − λ2)r2 . . . (λ − λk)rk in mA(λ ) = (λ − λ1)s1(λ − λ2)s2 . . . (λ − λk)sk, kjer so λ1, λ2, . . . , λk paroma različne lastne vrednosti matrike A. Videti je treba, da je s j ≤ r j za vse j = 1, 2, . . . , k. Dokaz bo z matematično indukcijo na k, ki je število različnih lastnih vrednosti matrike A. Za k = 1 je po Schurovem izreku taka matrika A podobna zgoraj trikotni matriki z edino lastno vrednostjo λ1 na diagonalnih mestih. Kot že vemo, minimalni polinom deli karakterističnega, zato je minimalni polinom nujno oblike mA(λ ) = (λ − λ1)s, kjer je 1 ≤ s ≤ n. Nadalje naj ima A vsaj k ≥ 2 različnih lastnih vrednosti λ1, λ2, . . . , λk. Po Schurovem izreku je podobna (unitarna podobnost nas sedaj ne zanima) zgoraj trikotni matriki z lastnimi vrednostmi na diagonali in te lastne vrednosti lahko poljubno uredimo, denimo λ + T A = S 1Ir1 1 ∗ S−1, 0 T2 kjer je T1 ∈ Mr ( 1 C) zgoraj trikotna matrika s samimi ni člami na diagonali, T2 pa zgoraj trikotna matrika, ki ima k − 1 lastnih vrednosti λ2, λ3, . . . λk. Karakteristični polinom matrike A se izraža pA(λ ) = (λ1 − λ )r1 pT (λ ), minimalni polinom pa m 2 A(λ ) = (λ − λ1)s1 (λ − λ2)s2 . . . (λ − λr)sr . Opazimo, da je (λ − λ2)s2 . . . (λ − λr)sr prav minimalni polinom mT (λ ) matrike T 2 2, ki ima le k − 1 različnih lastnih vrednosti, zato je s j ≤ r j za vse j = 2, 3, . . . , k. Analogen razmislek ponovimo tako, da namesto λ1 vzamemo npr. λk in zvemo dodatno še, da je s1 ≤ r1. ■ V naslednjem razdelku bomo predstavili najpreprostejšo trikotno obliko, ki jo je za kompleksne matrike mogoče dobiti s podobnostjo. Dokazu, ki je sicer lahko konstruktiven, se bomo v tem delu izognili, ker je dolg in zapleten ter presega cilje tega učbenika. 5.2.2 Jordanova normalna oblika V tem poglavju bomo predstavili najpreprostejšo znano obliko matrike, ki je podobna podani matriki. Matrika v Jordanovi obliki (formi), ki jo bomo spoznali, bo prav posebej odlikovana oblika matrike v ekvivalenčnem razredu glede na relacijo podobnosti matrik (gl. def. 1.31 ). Spomnimo se posebnih nilpotentnih matrik (gl. def. 1.18) Nr ∈ Mr(F). Za r = 1 je N1 = 0, sicer pa  0 1 . . . 0 0  .    0 0 . . 0 0  0 1 0 0    . . .   0 0 1 0  N . . . . . . . r :=  . . . . .  , npr.: N4 =   . (5.9)    0 0 0 1   .. ..   . . . . . 0 1  0 0 0 0 0 0 . . . 0 0 118 Poglavje 5. Spektralna teorija matrik Pomembna lastnost takih matrik je, da so nilpotentne z redom nilpotentnosti (gl. def. 1.18) enakim r, (Nr)r = 0, (Nr)r−1 ̸= 0, kjer smo upoštevali dogovor N0 = 00 = I. S takimi matrikami smo se ukvarjali v zgledu 1 1.20. Definicija 5.33 Za poljubno število µ ∈ C in r ∈ N se matrika Jr(µ) := µI +Nr imenuje Jordanova kletka. Bločno diagonalna matrika, katere vsi diagonalni bloki so Jordanove kletke, je matrika v Jordanovi normalni obliki ali krajše v Jordanovi obliki (formi). Rekli bomo tudi, da je matrika v tem primeru jordanska. ■ Zgled 5.34 Za Jordanovo kletko velikosti 4 × 4 in µ = 5 določimo karakteristični in minimalni polinom. J := J4(3) se glasi  3 1 0 0   0 3 1 0  J4(3) =   ,  0 0 3 1  0 0 0 3 njen karakteristični polinom pa pJ(λ ) = (3 − λ )4. Za minimalni polinom je potrebno izračunati zaporedne potence matrike J − 3I = N4. Iz zgleda 1.20 se spomnimo, da N3 ̸= 0 4 in N4 = 0. Tako je m 4 J (λ ) = (λ − 3)4, saj je mJ (λ ) polinom najnižje možne stopnje z vodilnim koeficientom 1, za katerega je mJ(J) = 0. ■ Zgornji zgled lahko posplošimo. Trditev 5.35 Stopnja minimalnega polinoma Jordanove kletke Jr(µ) se ujema s stopnjo karakterističnega polinoma matrike Jr(µ). Dokaz. Dokaz sledi ideji iz zgleda 5.34, upošteva namreč, da je Jr(µ) − µI = Nr nilpotentna matrika nilindeksa natanko r in ga zato izpustimo. ■ ■ Zgled 5.36 Primer večje matrike v Jordanovi obliki (bloki, ki niso izpisani, so enaki 0):  2 1 0  0 2 1    0 0 2       2 1     0 2  J =   . (5.10)  3     −1 1     0 −1     −1 1  0 −1 ■ Za bločno diagonalno matriko, katere diagonalni bloki so A1, A2, . . . , Ak, je v navadi zapis A1 ⊕ A2 ⊕ · · · ⊕ Ak. 5.2 Trikotljivost matrike 119 Jordansko matriko (5.10) lahko tako na kratko zapišemo kot J = J3 (2) ⊕ J2 (2) ⊕ J1 (3) ⊕ J2 (−1) ⊕ J2 (−1) . ■ Zgled 5.37 Za matriko J iz (5.10) določimo karakteristični in minimalni polinom. Matrika J je zgoraj trikotna, zato preprosto izračunamo karakteristični polinom pJ(λ ) = (2 − λ )5 (3 − λ )(−1 − λ )4. Kot je znano iz trditve 5.32, bo minimalni polinom mJ(λ ) = (λ − 2)s (λ − 3)(λ + 1)t, kjer je 1 ≤ s ≤ 5 in 1 ≤ t ≤ 4. Določimo še s in t! V ta namen izračunajmo (J − 2I)s = Ns ⊕ ⊕ 3 Ns2 J1(3 − 2) ⊕ J2(−1 − 2)s ⊕ J2(−1 − 2)s = Ns ⊕ ⊕ 3 Ns2 A3 ⊕ A4 ⊕ A5 J − 3I = B1 ⊕ B2 ⊕ 0 ⊕ B4 ⊕ B5 (J + I)t = C1 ⊕C2 ⊕C3 ⊕ Nt ⊕ 2 Nt2, kjer so Ai, B j,Ck določene obrnljive matrike. Npr.: A4 = A5 = J2(−3)s. Matrike na levi še zmnožimo (J − 2I)s(J − 3I)(J + I)t = Ns ⊕ 3B1C1 ⊕ Ns 2B2C2 ⊕ 0 ⊕ A4B4Nt2 A5B5Nt2. Iščemo minimalni polinom, zato mora biti ta produkt enak 0. Tudi produkti matrik Ai, B j,Ck so obrnljivi. Če naj bo NsB = 0 zaradi obrnljivosti B 3 1C1 = 0, mora biti Ns 3 1C1. Potem je s = 3, hkrati pa imamo tudi Ns = 0. Tako vidimo, da je najmanjši možni s enak 3 2 in najmanjši možni t enak 2. Vidimo, da se s in t ujemata z velikostma največjih kletk, ki pripadata ustreznima lastnima vrednostma. ■ Motivirani z zgornjim zgledom sestavimo splošnejšo trditev. Dokaz bomo ponovno izpustili, ker spet sledi omenjenemu zgledu, le zapis je v splošnem primeru težavnejši. Trditev 5.38 Za vsako lastno vrednost µ matrike J v Jordanovi normalni obliki je velikost največje Jordanove kletke enaka stopnji s faktorja (λ − µ)s v minimalnem polinomu mJ(λ ). Posledica 5.39 Matrika je diagonalizabilna natanko takrat, ko je njen minimalni polinom produkt samih različnih faktorjev stopnje 1. Brez dokaza (ker bi bil prezahteven za večino ciljnih bralcev tega teksta) navedimo enega od glavnih strukturnih izrekov matrične analize. Izrek 5.40 — O Jordanovi normalni obliki. Vsaka kvadratna kompleksna matrika je podobna jordanski matriki in ta je do zamenjave vrstnega reda Jordanovih kletk enolično določena. Formalno: za poljubno matriko A ∈ Mn(C) obstajata taka obrnljiva matrika S ∈ Mn(C) in matrika v Jordanovi normalni obliki J, da velja A = SJS−1. 120 Poglavje 5. Spektralna teorija matrik Dodajmo nekaj komentarjev. Predpostavka, da je matrika A kompleksna, je v splošnem potrebna, ker je, kot vemo, mogoče, da realna matrika nima niti ene realne lastne vrednosti. Vendar, če ima realna matrika A vse lastne vrednosti realne (karakteristični polinom v realnem razcepen do linearnih faktorjev), je matrika A podobna jordanski matriki. Diagonalna matrika je poseben primer Jordanove oblike, vse Jordanove kletke so namreč velikosti 1 × 1. Ena od težav Jordanove normalne oblike v praksi je ta, da je zelo občutljiva za numerično računanje. Npr., če bi elemente matrike v obliki Jordanove kletke zelo malo spremenili z dodatkom nekega šuma, bi najverjetneje po-stala diagonalizabilna s samimi različnimi lastnimi vrednostmi, torej bi se njena Jordanova oblika bistveno spremenila. Zato je njen pomen morda bolj teoretične narave. Izrek 5.40 zagotavlja obstoj Jordanove normalne oblike, ne pove pa, kako dobimo matriko S. Če matrika ni diagonalizabilna, je lastnih vektorjev premalo, da bi tvorili bazo in moramo tako poiskati dodatne, tako imenovane posplošene lastne vektorje, ki nato vzpostavijo jordansko matriko v novi bazi. 5.2.2.1 Polinomi in analitične funkcije jordanskih matrik Dejstvo, da je matrika podobna jordanski matriki (v posebnem primeru diagonalni) omogoči, da lahko izračunamo poljubno potenco te matrike. Res, denimo, da je A = SJS−1 in J jordanska matrika. Potem je za poljuben k ∈ N Ak = (SJS−1)k = SJS−1SJS−1 . . . SJS−1 = SJkS−1. | {z } k faktorjev Vidimo, da se računanje potence prevede na preprostejšo matriko J. Če je npr. J kar diagonalna, J = D = diag(λ1, . . . , λn), se hitro vidi, da je Dk = diag( k k λ1 , . . . , λn ). ? Kako pa se izraža potenca jordanske matrike? Začnimo z Jordanovo kletko, Jn(λ ) = λ I + Nn, kjer je Nn nilpotentna n × n matrika, ki ima enice na prvi vzporednici nad diagonalo, sicer pa ima same ničle, vpeljana je bila v (5.9). Nato je po binomskem obrazcu k k min{k,n−1} k J k− j k− j n(λ )k = (λ I + N)k = ∑ N jλ = ∑ N jλ . (5.11) j j j=0 j=0 Pri zadnji enakosti smo upoštevali, da je N j = 0 za vse j ≥ n. 5.2 Trikotljivost matrike 121 ■ Zgled 5.41 Izračunajmo 3. potenco matrike J5(λ ). Dobimo J 3 2 5(λ )3 = λ I + 3λ N + 3λ N2 + N3  3 2  λ 3λ 3λ 1 0 3 2  0 λ 3λ 3λ 1  =  3 2   0 0 λ 3λ 3λ  .  3 2  0 0 0 λ 3λ  0 0 0 0 3 λ ■ Kot bomo videli v trditvi, ki sledi, bo mogoče na podoben način izračunati vrednost ne le kateregakoli polinoma temveč tudi analitične funkcije, konvergentne npr. na kakem odprtem krogu v ∞ C (ali R). Funkcija x 7→ ex = ∑ x j/ j! je primer take funkcije s kon- j=0 vergenčnim območjem, ki je kar enako R. Tukaj se ne bomo spuščali v teorijo analitičnih funkcij, temveč se bomo omejili le na omenjeno eksponentno funkcijo. Uporabili bomo le dejstvo, da na nekem območju, npr. odprtem krogu v C ali odprtem intervalu v R konvergentna potenčna vrsta določa neskončnokrat odvedljivo funkcijo, ki jo smemo poljubno mnogo krat členoma odvajati in je rezultat spet konvergentna potenčna vrsta. Izrek 5.42 — Polinom jordanske matrike. Naj bo A ∈ Mn(C) in A = SJS−1 ∈ Mn(C) razcep matrike A z jordansko matriko J = J1 ⊕J2 ⊕. . . , ⊕Jk, kjer so Ji = Jr (λ i i) Jordanove kletke, ki pripadajo ne nujno različnim lastnim vrednostim λ1, . . . , λk matrike A. Za poljuben polinom p(x) = a0 + a1x + · · · + amxm s kompleksnimi koeficienti je p(A) = S (p(J1) ⊕ p(J2) ⊕ · · · ⊕ p(Jk)) S−1 (5.12) in   p(λ ) p′(λ ) p′′(λ )/2! . . . p(r−1)(λ )/(r − 1)!  0 p(λ ) p′(λ ) . . . p(r−2)(λ )/(r − 2)!   p(J . . .  .  r(λ )) = . . . . . , (5.13)  . . . . . .     0 0 0 . . . p′(λ )  0 0 0 . . . p(λ ) kjer p( j) označuje j-ti odvod polinoma p. Dokaz. Najprej se spomnimo (gl. trditev 5.28), da za poljuben polinom p(x) velja p(SAS−1) = Sp(A)S−1 in ugotovimo, da je za bločno diagonalne matrike izpolnjeno p(A1 ⊕ A2 ⊕ · · · ⊕ Ak) = p(A1) ⊕ p(A2) ⊕ · · · ⊕ p(Ak). Tako nam preostane izračunati vrednost p(Jr(λ )). V ta namen bomo polinom p(x) izrazili z razvojem po potencah x − λ , to je t.i. Taylorjev razvoj, p(x) = c0 +c1(x −λ )+· · ·+cm(x − λ )m. Znano je, da se koeficienti izražajo z c j = p( j)(λ )/ j!, j = 0, . . . , m. Jordanova kletka je oblike Jr(λ ) = λ I + Nr, nakar je je Jr(λ ) − λ I = Nr, kjer je Nr specifična nilpotentna matrika nilindeksa r, omenjena v (5.9). Tako dobimo p(Jr(λ )) = c0I + c1(Jr(λ ) − λ I) + · · · + cm(Jr(λ ) − λ I)m = c0I + c1Nr + c2N2r + · · · + cmNm r , 122 Poglavje 5. Spektralna teorija matrik ki je matrika, ki ima c0 na diagonali, c1 na prvi vzporednici diagonale nad diagonalo, c2 na drugi vzporednici itd. do skrajnega zgornjega desnega kota matrike, kjer je cr−1. Koeficienti cm, če je m > r − 1, so irelevantni. Upoštevajoč, kako se izražajo koeficienti c j, končno dobimo (5.13). ■ Praktično identičen rezultat kot smo ga zgoraj videli za polinome, velja za funkcije, ki se izražajo s konvergentno Taylorjevo vrsto na odprti enostavno povezani podmnožici C, ki vsebuje vse lastne vrednosti matrike A. V izrazih (5.12) in (5.13) le polinom p zamenjamo z ustrezno analitično funkcijo f . Celo dokaz je zelo podoben, le trenutek pozornosti je dodatno potrebno nameniti konvergenci. Izkaže pa se, da s tem ni težav. ■ Zgled 5.43 Izračunajmo poljubno potenco Am, m ≥ 2, za matriko   λ 1 0 0 0  0 λ 1 0 0    A = 0 0 λ 0 0  = J3(λ ) ⊕ J2(µ).    0 0 0 µ 1  0 0 0 0 µ Postavimo p(x) = xm, potem je p′(x) = mxm−1 in p′′(x) = m(m − 1)xm−2. Nadalje je  m m−1 m−2  λ mλ m(m − 1)λ /2 J m m−1 3(λ )m =  0 λ mλ  0 0 m λ in m m−1 µ mµ J2(µ)m = . 0 m µ Končni rezultat je  m m−1 m−2  λ mλ m(m − 1)λ /2 0 0 m m−1  0 λ mλ 0 0    Am = m  0 0 λ 0 0  .  m m−1  0 0 0 µ mµ  0 0 0 0 m µ ■ ■ Zgled 5.44 Znano je, da se eksponentna funkcija izraža s povsod konvergentno potenčno vrsto: x x2 xm ∞ xm ex = 1 + + + · · · + + · · · = . (5.14) 1! 2! ∑ m! m! m=0 Za matriko A iz prejšnjega zgleda izračunajmo eA. Po komentarju, ki sledi izreku 5.42, lahko uporabimo obrazca (5.12) in (5.13), le namesto polinoma p uporabimo funkcijo f (x) = ex, pri čemer velja f ( j)(x) = ex, j ≥ 0. Dobimo 5.2 Trikotljivost matrike 123 eλ eλ eλ /2 0 0   0 eλ eλ 0 0    eA =  0 0 eλ 0 0  .    0 0 0 eµ eµ  0 0 0 0 eµ ■ Eksponentna funkcija matrike bo igrala pomembno vlogo v naslednjem poglavju. 5.2.3 Uporaba pri sistemih diferencialnih enačb Jordanovo normalno obliko je moč koristno uporabiti za reševanje sistemov linearnih diferencialnih enačb s konstantnimi koeficienti. Pokazali bomo, da je etA prav tista matrika, za katero se rešitev homogenega sistema linearnih diferencialnih enačb s podanim začetnim pogojem ˙x (t) =Ax (t) , x (0) = b, (5.15) izraža kot x (t) = etAb. (5.16) Primerjajmo rešitev (5.16) z rešitvijo skalarne diferencialne enačbe: v ta namen rešimo diferencialno enačbo ˙ x (t) = ax (t) ob začetnem pogoju x (0) = b. Hitro vidimo, da je splošna rešitev x(t) = ceat , kjer je c poljubna konstanta. Ob upoštevanju začetnega pogoja je c = b. V nadaljevanju bomo pokazali, kako lahko koristno uporabimo Jordanovo normalno obliko za reševanje sistema linearnih diferencialnih enačb 5.15. Denimo, da je A = SJS−1, kjer je J matrika v Jordanovi obliki. Ta razcep matrike A vstavimo v sistem 5.15 in obe enakosti v (5.15) z leve pomnožimo z S−1. Tako dobimo S−1 ˙x (t) =JS−1x (t) , S−1x (0) = S−1b. (5.17) S je od t neodvisna matrika, zato lahko vpeljemo novo neznano vektorsko funkcijo y(t) = S−1x(t), za katero zaradi lastnosti odvajanja velja ˙y(t) = S−1 ˙x(t). Označimo še d := S−1b in tako se nov sistem linearnih diferencialnih enačb za vektorsko funkcijo y(t) glasi ˙y (t) = Jy (t) , y (0) = d. (5.18) ■ Zgled 5.45 Naj bo J diagonalna matrika s samimi različnimi lastnimi vrednostmi λ1, . . . , λn. Sistem (5.18) ima sedaj zelo preprosto obliko, kjer je n diferencialnih enačb med seboj neodvisnih, ˙ y j = λ jy j, y j(0) = d j, j = 1, 2, . . . , n, (5.19) komponente rešitve pa se glasijo y j(t) = Cjeλjt, j = 1, 2, . . . , n, pri čemer so Cj zaenkrat poljubne konstante. Iz začetnega pogoja razberemo, da je Cj = d j za vse j. 124 Poglavje 5. Spektralna teorija matrik Če sistemu (5.19) priredimo matrično funkcijo eλ  1t 0 . . . 0  0 eλ2t . . . 0  E(t) =  . . .  ,  . . . .. . . ..    0 0 . . . eλnt lahko rešitev tega sistema zapišemo v strnjeni matrični obliki y = E(t)d. Nazadnje upoštevamo še, da je x = Sy, d = S−1b in izrazimo rešitev prvotnega sistema (5.15) x(t) = SE(t)S−1b. Vidimo, da je sedaj matrična funkcija, ki začetno stanje b ponese v stanje v trenutku t, enaka SE(t)S−1. Omenimo še, da je E(0) = I in zato tudi SE(0)S−1 = I. Po analogiji s skalarnim primerom, kjer se rešitev sistema ˙ x = ax(t) pri začetnem pogoju x(0) = b izraža z x(t) = eat b, bi bilo zaželeno, da je SE(t)S−1 = etA. V našem posebnem primeru, ko je matrika A diagonalizabilna, torej njena Jordanova oblika diagonalna, je to res izpolnjeno. Res, za funkcijo f (x) = etx je etA = SetJS−1 in etJ = E(t). Tako se rešitev (5.16) formalno enako izraža kot rešitev skalarne diferencialne enačbe. ■ ■ Zgled 5.46 Denimo, da je J = J3(λ ) ⊕ J2(µ ), y := y(t) = [y1 . . . y5]T , d = [d1 . . . d5]T . Po komponentah razpisan sistem (5.18) je sedaj ˙ y1 = λ y1 + y2 ˙ y2 = λ y2 + y3 ˙ y3 = λ y3 ˙ y4 = µ y4 + y5 ˙ y5 = µ y5. Opazimo, da prve tri enačbe vključujejo le neznane funkciji y1, y2 in y3, medtem ko sta neznanki v zadnjih dveh enačbah funkciji y4 in y5. Sistem je tako razpadel na dva manjša ločena sistema diferencialnih enačb. Oba sta zgoraj trikotna in ju je mogoče rešiti od zadnje enačbe proti prvi s standardnimi metodami za reševanje skalarnih linearnih diferencialnih enačb prvega reda s konstantnimi koeficienti. Dobimo splošno rešitev y1 = (C3t2/2 +C2t +C1)eλt y2 = (C3t +C2)eλt y3 = C3eλt y4 = (C5t +C4)eµt y5 = C5eµt, 5.2 Trikotljivost matrike 125 kjer so C1, . . . ,C5 poljubne konstante. Upoštevanje začetnega pogoja y(0) = d nam da še C j = d j, j = 1, . . . , 5. Tako se končna rešitev z upoštevanim začetnim pogojem glasi y      1(t ) etλ tetλ t2etλ /2 0 0 d1 y2(t )  0 etλ tetλ 0 0  d2       y3(t ) =  0 0 etλ 0 0  d3 . (5.20)       y4(t )  0 0 0 etµ tetµ  d4 y5(t) 0 0 0 0 etµ d5 ■ Naj bo A = S (J1 ⊕ J2 ⊕ · · · ⊕ Jk) S−1 in J1, J2, . . . , Jk Jordanove kletke. Potem je tA = S (tJ1 ⊕ tJ2 ⊕ · · · ⊕ tJk) S−1 in etA = S (etJ1 ⊕ etJ2 ⊕ · · · ⊕ etJk ) S−1, torej zadošča, da izračunamo etJ, kjer je J Jordanova kletka. Upoštevajoč, da so odvodi funkcije f (x) = etx enaki f ′(x) = tetx, . . . , f ( j)(x) = t jetx, j ∈ N, vidimo, da je za J = λ I + Nr,  1 t t2  . . . tr−1 0! 1! 2! (r−1)!  t   0 1 . . . tr−2  etJ = etλ 0! 1! (r−2)!  . . . .   . . . .. ... .   . . .  0 0 0 . . . 1 0! Za matriko J = J3(λ ) ⊕ J2(µ) imamo potem etλ tetλ t2etλ /2 0 0   0 etλ tetλ 0 0  exp(   tJ) =  0 0 etλ 0 0  = etJ3(λ ) ⊕ etJ2(µ). (5.21)    0 0 0 etµ tetµ  0 0 0 0 etµ Primerjajte s končnim rezultatom zgleda 5.46. Za reševanje sistema linearnih diferencialnih enačb s konstantnimi koeficienti bi zadoščalo, če bi matriko le do podobnosti izrazili z zgoraj trikotno matriko (Schurov izrek) in potem reševali sistem od zadnje enačbe proti prvi. Vendar se v tem primeru rešitev sistema ne izraža tako enostavno kot z Jordanovo normalno obliko. 126 Poglavje 5. Spektralna teorija matrik 5.3 Naloge 1. Matrika A ∈ M5(C) naj ima 2 različni neničelni lastni vrednosti λ1 in λ2. Pri tem naj imata geometrijski večkratnosti geo(λ1) = 3 in geo(λ2) = 2. Pokažite, da je matrika diagonalizabilna. R.: Izbira katerihkoli treh bazičnih vektorjev NA−λ1I skupaj z dvema bazičnima vektorjema NA−λ2I zadošča zahtevanemu pogoju. Naj bodo x1, x2 in x3 linearno neodvisni lastni vektorji za λ1 ter y1 in y2 linearno neodvisna lastna vektorja za λ2. Zapišimo linearno kombinacijo teh vektorjev, jo enačimo z 0 in z leve pomnožimo z matriko A. Upoštevamo, da je Ax j = λ1x j, j = 1, 2, 3, in Ayi = λ2yi, i = 1, 2. α1x1 + α2x2 + α3x3 + β1y1 + β2y2 = 0 α1λ1x1 + α2λ1x2 + α3λ1x3 + β1λ2y1 + β2λ2y2 = 0. Prvo enačbo še pomnožimo z λ1 in odštejemo od druge. Dobimo β1(λ2 − λ1)y1 + β2(λ2 − λ1)y2 = 0, od koder zaradi linearne neodvisnosti y1, y2 in predpostavke λ2 ̸= λ1 sledi β1 = β2 = 0. Potem pa je zaradi linearne neodvisnosti x1, x2 in x3 v začetni enačbe izpolnjeno tudi α1 = α2 = α3 = 0. 2. Za matriko A ∈ M2(C) direktno pokažite, da je unitarno podobna zgoraj trikotni matriki z lastnimi vrednostmi na diagonali (podobno kot indukcijski korak v dokazu Schurovega izreka, gl. izrek 5.25). R.: Po trditvi 5.14 obstaja vsaj ena lastna vrednost λ1 ∈ C matrike A. Izberimo poljuben pripadajoči lastni vektor f1. Po potrebi ga normiramo in tako lahko vzamemo, da je ∥f1∥ = 1. Množico {f1} lahko najprej dopolnimo do neke baze {f1, e2} prostora matričnih stolpcev 2,1 C . Nato lahko iz te baze z enim korakom Gram-Schmidtovega postopka (gl. izrek 4.16) dobimo ortonormirano bazo, recimo f1, f2, ki porodi bločno unitarno matriko U = [f1|f2]. Matrika A je matrika linearne preslikave x 7→ Ax v standardni bazi. Nova matrika te preslikave v bazi f1, f2 se glasi λ T = 1 α , 0 λ2 ker je Af1 = λ1f1, Af2 pa neka linearna kombinacija baznih vektorjev f1 in f2, Af2 = αf1 + β f2. Nadalje je β = λ2 še druga (morda enaka λ1) lastna vrednost matrike A. Po spremembi baze (gl. izrek 3.15) je A = U TU ∗, upoštevajoč, da je U −1 = U ∗, saj je U unitarna. 3. Pokaži, da velja izrek Hamilton-Cayley za vse matrike, ki so podobne: a) diagonalni matriki; b) Jordanovi kletki. R.: Naj bo A = SBS−1 ∈ Mn(F) in B matrika, ki ustreza zahtevanemu pogoju. a) B = D je diagonalna matrika, pA(λ ) = pD(λ ) = (λ − λ1)r1 . . . (λ − λk)rk in so λ1, λ2, . . . , λk paroma različne lastne vrednosti matrike A. Lahko vzamemo, da je D = λ1Ir ⊕ λ ⊕ · · · ⊕ λ . Nato je 1 2Ir2 kIrk pA (A) = (A − λ1I)r1 . . . (A − λkI)rk = S (D − λ1I)r1 . . . (D − λkI)rk S−1, 5.3 Naloge 127 kjer so D − λ1I = 0r ⊕ (λ ⊕ · · · ⊕ (λ 1 2 − λ1)Ir2 k − λ1)Irk D − λ2I = (λ1 − λ2)Ir ⊕ 0 ⊕ · · · ⊕ (λ 1 r2 k − λ2)Irk ... D − λkI = (λ1 − λk)Ir ⊕ (λ ⊕ · · · ⊕ 0 1 2 − λk)Ir2 rk Vidimo, je njihov produkt enak ničelni matriki, ker ima matrika D − λ j prav na j-tem diagonalnem mestu vedno ničlo. b) Če je B = Jn(λ ) = λ I + Nn, imamo takoj pA(A) = (A − λ I)n = S(B − λ I)nS−1 = SNnnS−1 = 0 zaradi lastnosti nilpotentne matrike Nn. 4. Naj bo p(x) poljuben polinom in T zgoraj trikotna matrika z diagonalo t11, . . . ,tnn. Pokažite, da so diagonalni elementi matrike p(T ) v istem vrstnem redu p(t11), . . . , p(tnn). R.: Najprej pokažemo, da trditev velja za monome p(x) = akxk, nato s seštevanjem dobimo rezultat za veččlenski polinom p(x).  0 3 3  5. Podana je matrika A = −  2 4 6 , katere karakteristični polinom je pA(λ ) = 1 −1 −2 −λ (λ − 1)2. • Določite minimalni polinom matrike A. • Na podlagi minimalnega polinoma določite strukturo Jordanovih kletk. • Poiščite bazo, v kateri bo matrika podobna jordanski matriki. • Za poljubno naravno število n določite An. • Izračunajte lim 1 n→ An. ∞ n R.: Ker za polinom p(λ ) = λ (λ − 1), ki ima iste ničle kot pA(λ ), velja p(A) ̸= 0, in ima minimalni polinom po definiciji vodilni koeficient enak 1, je mA(λ ) = −pA(λ ). Tako bo pri λ = 1 kletka velikosti 2 × 2 in A = S(J1(0) ⊕ J2(1))S−1. Za x1 in x2 lahko vzamemo katerakoli lastna vektorja za lastni vrednosti 0 in 1. Vektorja x1 in x 3,1 2 lahko dopolnimo do baze R na več načinov. Potem se v novi bazi matrika glasi 0 0 ? J = 0 1 ? . 0 0 1 Tretji vektor x3 baze pa lahko izberemo tudi tako, da bo matrika v prejšnji vrstici jordanska: (A − I)x3 = x2, kar je ekvivalentno Ax3 = 1x3 + x2. V matriko S po stolpcih zložimo x1, x2 in x3. Ob razcepu A = SJS−1 po nekaj računih dobimo 3 − 3n −3 + 6n −6 + 9n An = SJnS−1 = −  2 4 6  , 2 − n −3 + 2n −5 + 3n od koder sledi še −3 6 9 1 lim An =  0 0 0 . n→∞ n −1 2 3 6. Spektralne lastnosti posebnih matrik V tem poglavju se bomo posvetili mnogim pomembnim, na nek način notranjim in bistve-nim lastnostim matrik, ki so lahko hkrati tudi lastnosti linearnih preslikav, ki jih te matrike na naraven način predstavljajo. Ukvarjali se bomo z mnogimi posebnimi matrikami iz razdelka 1.1.3. Izvedeli bomo, da je razred normalnih matrik maksimalna množica z unitarno podobnostjo diagonalizabilnih matrik znotraj izbrane množice vseh realnih ali kompleksnih kvadratnih matrik. Spomnimo se, da je spekter kvadratne matrike množica vseh njenih lastnih vrednosti in prikličimo definicije normalne matrike, kompleksne hermitske matrike, realne simetrične matrike, kompleksne unitarne in realne ortogonalne matrike (gl. def. 1.29). Izrek 6.1 Naj bo A ∈ Mn(F). (1) AA∗ = A∗A natanko tedaj, ko je A = U DU ∗ za neko diagonalno matriko D in unitarno matriko U . (2) F = C : A = A∗ natanko tedaj, ko je A = UDU∗ za neko realno diagonalno matriko D. (3) F = R : A = AT natanko tedaj, ko je A = QDQT za neko realno diagonalno matriko D in realno ortogonalno matriko Q. (4) F = C : UU∗ = U∗U = I natanko tedaj, ko je U = V DV ∗ za neko diagonalno matriko D, katere vsi diagonalni elementi so po absolutni vrednosti enaki 1, in unitarno matriko V . Dokaz. Preprosto je preveriti, da je matrika oblike A = U DU ∗ za vsako unitarno matriko U in diagonalno matriko D normalna, to je AA∗ = A∗A. Res, potem je A∗ = (U DU ∗)∗ = U D∗U ∗ in AA∗ = U DD∗U ∗ in A∗A = U D∗DU ∗. Matrika D je diagonalna, zato je DD∗ = D∗D in posledično AA∗ = A∗A. Če je A = U DU ∗ za neko realno diagonalno matriko D, imamo A∗ = U D∗U ∗ = U DU ∗ = A∗, torej je A hermitska. Podoben razmislek velja za simetrične matrike, kjer bi lahko začeli z A = QT QT in je Q ortogonalna, T pa zgoraj trikotna matrika. Nadaljevanje je podobno kot v kompleksnem primeru. Nazadnje, če je V = U DU ∗ in diagonalni elementi matrike D po absolutni vrednosti enaki 1, je VV ∗ = V ∗V = I in V posledično unitarna. Po točkah preverimo trditve še v drugi smeri. (1) Po Schurovem izreku (gl. izrek 5.25) je A unitarno podobna zgoraj trikotni matriki, A = U TU ∗, kjer je T zgoraj trikotna matrika z lastnimi vrednostmi na diagonali. Potem je T ∗ spodaj trikotna in A∗ = U T ∗U ∗. Iz enakosti AA∗ = A∗A, saj je A normalna, dobimo, da mora biti U T T ∗U ∗ = U T ∗TU ∗. Enačbo na levi pomnožimo z U ∗ in na desni z U, upoštevajmo, da je U unitarna in 130 Poglavje 6. Spektralne lastnosti posebnih matrik dobimo T T ∗ = T ∗T.     t11 t12 . . . t1n t11 0 . . . 0  0 t22 . . . t2n   t12 t22 . . . 0  Naj bo T =  . . .  , potem je T ∗ =  . . . in izraču-  .. .. ..   .. .. ..      0 0 . . . tnn t1n t2n . . . tnn najmo (T ∗T ) in (T T ∗) . Vidimo, da je 11 11 (T T ∗) = |t 11 11|2 + |t12|2 + . . . |t1n|2 (T ∗T ) = |t 11 11|2 zato mora biti t12 = t13 = · · · = t1n = 0. Z indukcijo lahko nadalje pokažemo, da so edino diagonalni elementi lahko neničelni in je tako T diagonalna matrika. (2) Vsaka hermitska matrika A je tudi normalna, zato je unitarno podobna diagonalni matriki: A = U DU ∗. Če je A hermitska, je A = A∗, od koder upoštevajoč obrnljivost unitarne matrike U sledi, da je D = D∗ in za vse diagonalne elemente matrike D = diag (d1, . . . , dn) velja d j = d j, j = 1, 2, . . . , n. Torej je D realna matrika, na njeni diagonali pa so prav lastne vrednosti matrike A. (3) Naj bo sedaj A = AT realna. Če za tako matriko A uporabimo točko (2), ta pove, da ima A same realne lastne vrednosti. Potem je trikotljivost v Schurovem izreku mogoče izvesti v realnem, nato pa, podobno kot v kompleksnem primeru, mora biti ustrezna trikotna matrika diagonalna. (4) Unitarna matrika je očitno normalna, zato je unitarno podobna diagonalni matriki, recimo U = V DV ∗ za neko unitarno matriko V in diagonalno matriko D z lastnimi vrednostmi matrike U na diagonali. Potem iz UU ∗ = U ∗U = I sledi, da mora biti DD∗ = D∗D = I. Če zapišemo D = diag (d1, . . . , dn), je didi = |di|2 enako dia-gonalnemu elementu enotske matrike I, torej je |di|2 = 1, i = 1, 2, . . . , n. Da so vse lastne vrednosti unitarne matrike na enotski krožnici, sledi tudi iz U x =λ x in ∥Ux∥2 = ∥x∥2 = |λ |2 ∥x∥2. Torej je |λ | = 1. Nazadnje smo uporabili točko (2) trditve 4.33. ■ Ortogonalna matrika ima karakteristični polinom z realnimi koeficienti. Ničle tega polinoma so bodisi realne bodisi nastopijo v konjugiranih parih, torej nasploh ne moremo pričakovati realne diagonalizacije. Glede na predznačenost lastnih vrednosti hermitske (simetrične) matrike posebej imenujmo nekaj tipov matrik. Definicija 6.2 Hermitska (simetrična) matrika je • pozitivno definitna, če so vse njene lastne vrednosti pozitivne; • pozitivno semidefinitna, če so vse njene lastne vrednosti nenegativne; • negativno definitna, če so vse njene lastne vrednosti negativne; • negativno semidefinitna, če so vse njene lastne vrednosti večje ali enake 0. V nadaljevanju bomo z ⟨x, y⟩ označili standardni skalarni produkt; ⟨x, y⟩ = yT x v realnem primeru oziroma ⟨x, y⟩ = y∗x v kompleksnem primeru. 6.1 Kvadratne forme 131 Trditev 6.3 Hermitska/simetrična matrika je • pozitivno definitna natanko tedaj, ko je ⟨Ax,x⟩ > 0 za vsak x ̸= 0; • pozitivno semidefinitna natanko tedaj, ko je ⟨Ax,x⟩ ≥ 0 za vsak x; • negativno definitna natanko tedaj, ko je ⟨Ax,x⟩ < 0 za vsak x ̸= 0; • negativno semidefinitna natanko tedaj, ko je ⟨Ax,x⟩ ≤ 0 za vsak x. Dokaz. Denimo najprej, da je ⟨Ax, x⟩ > 0 za vsak x ̸= 0. Potem to velja tudi za vsak lastni vektor x, Ax = λ x, Torej je ⟨Ax, x⟩ = ⟨λ x, x⟩ = λ ∥x∥2 > 0, od koder sledi, da je λ > 0. Obratno, naj bodo vse lastne vrednosti matrike A pozitivne. Ker je A hermitska, je A = U DU ∗ za neko unitarno matriko U in diagonalno matriko D, katere diagonala sestoji iz pozitivnih lastnih vrednosti λi, i = 1, 2, . . . , n. Zapišimo ⟨Ax, x⟩ = ⟨UDU∗x, x⟩ = ⟨DU ∗x,U ∗x⟩ in naj bo U ∗x = y T 1 y2 . . . yn =: yT . Nato je ⟨Ax, x⟩ = ⟨Dy, y⟩ = ∑ λi |yi|2 ≥ 0. Še več, ∑ λi |yi|2 = 0 edinole, ko so vsi λi |yi|2 = 0. Ker po predpostavki λi ̸= 0, mora biti vsak yi = 0. Torej je U∗x = 0 in ker je U unitarna, torej obrnljiva, mora biti x = 0. Iz ⟨Ax, x⟩ ≥ 0 za vse x, podobno dobimo, da so vse lastne vrednosti matrike A nenegativne in tako A pozitivno semidefinitna. Obratno, matrika, ki je pozitivno semidefinitna in ni pozitivno definitna, bo imela vsaj eno ničelno lastno vrednost. V tem primeru lahko vzamemo poljuben lastni vektor x za lastno vrednost 0, in dobimo, da je ⟨Ax, x⟩ = ⟨0, x⟩ = 0, sicer pa je vedno, podobno kot v prejšnjem delu dokaza, ⟨Ax, x⟩ = ⟨Dy, y⟩ = ∑ λi |yi|2 ≥ 0. Za negativno definitne in negativno semidefinitne matrike je dokaz podoben. ■ 6.1 Kvadratne forme Ukvarjali se bomo samo z realnim primerom. Definicija 6.4 Kvadratna forma v spremenljivkah x1, x2, . . . , xn je izraz oblike a11x21 + 2a12x1x2 + a22x22 + 2a13x1x3 + 2a23ax2x3 + a33x23 + · · · + anx2n+ (6.1) +b1x1 + b2x2 + b3x3 + · · · + bnxn + c, (6.2) kjer so ai j, bi, i, j = 1, 2, . . . n, in c podana realna števila. Lahko bi rekli tudi, da je kvadratna forma kvadratičen izraz v n spremenljivkah. ■ Zgled 6.5 Primer kvadratne forme v dveh spremenljivkah x in y je 4x2 + 6xy + y2 + 8x − 2y + 10. (6.3) ■ Z izbiro A = a i j ∈ Mn(R), b = [b1 .. . bn]T in x = [x1 . . . xn]T lahko kvadratno formo 6.1 zapišemo v obliki xT Ax + bT x+c, oziroma v notaciji, kjer ⟨ , ⟩ v tem razdelku predstavlja standardni skalarni produkt na realnem prostoru matričnih stolpcev, ⟨Ax, x⟩ + ⟨x, b⟩ + c 132 Poglavje 6. Spektralne lastnosti posebnih matrik in je A = AT simetrična matrika. Bralec naj preveri, da lahko ob izbiri x = [x y]T formo (6.3) zapišemo v obliki 4 3 x x x y + 8 −2 + 10. 3 1 y y Na splošno velja, da je ob privzetku, da je A simetrična matrika, ta za zapis xT Ax enolično določena. Geometrijski pomen kvadratnih form v dveh spremenljivkah so stožnice (krivulje, ki so preseki stožca z ravninami) oziroma v treh spremenljivkah ploskve drugega reda v prostoru. Tako krivuljo ali ploskev dobimo, če kvadratno formo izenačimo z 0. ■ Zgled 6.6 Enačba x2 − y2 − 1 = 0, ki ima na levi kvadratno formo, predstavlja hiperbolo 1 0 v ravnini. Matrika A je v tem primeru diagonalna, A = , ker ni mešanega člena 0 −1 z xy. ■ Posebej zanimive so kvadratne forme, kjer je matrika A diagonalna. Izkaže se, da z izbiro ustreznega koordinatnega sistema kvadratno formo zmeraj lahko izrazimo z diagonalno matriko, nato pa se lahko s translacijo (vsaj v primeru, ko je A nesingularna) znebimo tudi linearnega dela bT x. Konstantni člen c pa ne povzroča težav. 6.1.1 Diagonalizacija kvadratne forme. Tukaj se bomo omejili na homogeni del 2. stopnje, to je ⟨Ax, x⟩. Homogenost 2. stopnje pomeni, da je ⟨Atx,tx⟩ = t2⟨Ax, x⟩ za poljubno realno število t. V nadaljevanju bo bistvenega pomena, da je A simetrična matrika. Iz izreka 6.1 vemo, da je moč simetrično matriko A diagonalizirati v ortonormirani bazi, pri čemer so vse lastne vrednosti realne. Torej je A = QDQT , kjer je D neka realna diagonalna matrika. Nato je ⟨Ax, x⟩ = QDQT x, x = DQT x, QT x , z vpeljavo nove spremenljivke y = QT x pa dobimo ⟨Ax, x⟩ = ⟨Dy, y⟩ . Naj bo y = (y1, . . . , yn) in D = diag (λ1, . . . , λn) . Potem je ⟨Dy, y⟩ = yT Dy =λ1y21 + λ2y22 + ··· + λny2n diagonalizirana kvadratna forma kvadratna forma!diagonalizacija, kar pomeni, da ne vsebuje členov oblike yiy j, i ̸= j. Pravkar smo dokazali naslednji izrek. Izrek 6.7 — Diagonalizacija kvadratne forme. Naj bo A = AT realna matrika. Obstaja ortogonalna matrika Q in realna diagonalna matrika D = diag(λ1, . . . , λn), da je A = QDQT in za [y1 . . . yn]T = QT x velja xT Ax = λ1y21 + λ2y22 + ·· · + λny2n. 6.1 Kvadratne forme 133 ■ Zgled 6.8 S kvadratno formo je podana enačba 2xy − 1 = 0. Matrika te forme je 0 1 A = . Lastni vrednosti te matrike sta λ 1 0 1 = 1 in λ2 = −1 in pripadajoča normirana 1 −1 1 −1 lastna vektorja q1 = 1 √ , q2 = 1 √ . Prehodna matrika Q = 1 √ je 2 1 2 1 2 1 1 1 0 očitno ortogonalna in A = Q QT . V novem, za π v pozitivno smer zavrtenem 0 −1 2 koordinatnem sistemu, v katerem se koordinate stolpca y izražajo x′ 1 1 1 x 1 x + y y= = QT x= √ = √ , y′ 2 −1 1 y 2 −x + y se kvadratna forma glasi 1 0 x′ yT Dy= x′y′ T = x′2 − y′2 0 −1 y′ in krivulja v tem koordinatnem sistemu, katerega os x′ leži na premici y = x in os y′ na premici y = −x ima enačbo x′2 − y′2 = 1 in je torej hiperbola. Preizkus našega računa x′ x lahko naredimo tudi takole: x in y izrazimo z x′, y′ iz zveze = QT oziroma y′ y x x′ 1 1 −1 x′ 1 x′ − y′ = Q = √ = √ y y′ 2 1 1 y′ 2 x′ + y′ Tako dobimo x = 1 √ (x′ − y′) , y = 1 √ (x′ + y′). Nato je 2 2 1 1 2xy − 1 = 2 √ √ x′ − y′ x′ + y′ − 1 = x′2 − y′2 − 1. 2 2 S tem smo tudi pojasnili, zakaj je krivulja y = 1 hiperbola. 2x ■ 6.1.2 Pozitivno ali negativno definitne kvadratne forme V praksi so pogosto (npr. pri analizi stabilnosti sistemov) pomembne pozitivno ali negativno definitne kvadratne forme. Definicija 6.9 Naj bo A simetrična matrika. Kvadratna forma xT Ax je • pozitivno definitna, ko velja xT Ax >0 za vsak x ̸= 0; • negativno definitna, ko je xT Ax < 0 za vsak x ̸= 0; • pozitivno semidefinitna, ko velja xT Ax ≥ 0 za vsak x; • negativno semidefinitna, ko je xT Ax ≤ 0 za vsak x; • nedefinitna, ko obstajata taka neničelna vektorja x1, x2, da velja xT Ax 1 1 > 0 in xT Ax 2 2 < 0. Hitro vidimo, da je xT Ax pozitivno definitna natanko tedaj, ko je matrika A pozitivno definitna, kar pa je izpolnjeno natanko takrat, ko so vse lastne vrednosti λ1, . . . , λn matrike A pozitivne. V ustreznem koordinatnem sistemu se taka kvadratna forma glasi λ1y21 + λ2y22 + · · · + λny2n in so vsi λ j > 0. Analogen rezultat velja za negativno definitnost. 134 Poglavje 6. Spektralne lastnosti posebnih matrik 6.2 Razcep s singularnimi vrednostmi (SVD) Za kvadratne kompleksne matrike vemo, da so vedno (celo unitarno) podobne trikotnim matrikam. Z uporabo Jordanove normalne oblike je mogoče to trikotno obliko matrike približati diagonalni. V poglavju 6, (gl. izrek 6.1) smo videli, da je mogoče razmeroma velik razred matrik (normalne matrike) diagonalizirati celo v ortonormirani bazi. ? Kako pa "diagonalizirati" pravokotne (nekvadratne) matrike? Na to vprašanje odgovori naslednji izrek. Izrek 6.10 — Razcep s singularnimi vrednostmi. Za poljubno kompleksno ali realno matriko A ∈ m,n F obstajata taki unitarni (ortogonalni) matriki U ∈ Mm(F) in V ∈ Mn(F) ter realna matrika m,n Σ ∈ F , da je A = U ΣV ∗, S 0 Σ = , S = diag(s 0 0 1, s2, . . . , sr), r = rang matrike A ≤ min {m, n} . Števila s1 ≥ s2 ≥ · · · ≥ sr > 0 imenujemo singularne vrednosti matrike A. Matrika Σ je enolično določen posebej odlikovani predstavnik ekvivalenčnega razreda glede na relacijo unitarne ekvivalence. Za hip denimo, da smo razcep A = U ΣV ∗ že dobili. Potem je A∗A = (U ∗ ΣV ∗)∗U ΣV ∗ = V Σ U ∗U ΣV ∗ | {z } =I S2 0 = V ∗ Σ ΣV ∗ = V V ∗ ∈ M 0 0 n(F) unitarna diagonalizacija matrike A∗A in števila s2, . . . , s2 1 r neničelne lastne vrednosti matrike A∗A. Pri tem je V unitarna (ortogonalna) matrika, katere stolpci so ortonormirana baza lastnih vektorjev matrike A∗A. S2 0 Podobno bi dobili, da je AA∗ = U ∗ ΣΣ U ∗ = U U ∗ ∈ M 0 0 m(F), torej so stolpci matrike U ortonormirana baza sestavljena iz lastnih vektorjev matrike AA∗. Na podlagi razcepa s singularnimi vrednostmi lahko matriko A zapišemo kot vsoto matrik ranga 1: r r r A = U ΣV ∗ = U ∑ sieie∗iV ∗ = ∑ siUei (V ei)∗ = ∑ siuiv∗i, i=1 i=1 i=1 kjer smo označili ui = Uei in vi = V ei. Pri tem so vektorji ei vektorji standardne ortonormirane baze v m,1 n,1 F oziroma F (površno smo obakrat uporabili isti simbol ei). Na primer, 6.2 Razcep s singularnimi vrednostmi (SVD) 135 če je m = 3 in n = 2, je  1   1 0  e 1e∗ 1 =  0  1 0 =  0 0  0 0 0  0   1 0  e 2e∗ 2 =  1  1 0 =  0 0  0 0 0  s  1 0 S s1e1e∗1 + s2e2e∗2 =  0 s2  = . 0 0 0 Trditev 6.11 Za vsako realno ali kompleksno matriko A ∈ Mn(F) sta matriki AA∗ ∈ Mm(F) in A∗A ∈ Mn(F) hermitski/simetrični in pozitivno semidefinitni (gl. def. 6.2). Dokaz. Naj bo A ∈ m,n C . Najprej preverimo, da sta B = AA∗ ∈ Mm(C) in C = A∗A ∈ Mn(C) hermitski. B∗ = (AA∗)∗ = A∗∗A∗ = AA∗ = B C∗ = (A∗A)∗ = A∗A∗∗ = A∗A = C. Nadalje, izračunajmo pri poljubnem x ∈ m,1 n,1 C in y ∈C ⟨Bx, x⟩ = ⟨AA∗x, x⟩ = ⟨A∗x,A∗x⟩ = ∥A∗x∥2 ≥ 0 ⟨Cy, y⟩ = ⟨A∗Ay, y⟩ = ⟨Ay,A∗∗y⟩ = ⟨Ay,Ay⟩ = ∥Ay∥2 ≥ 0. ■ Dokaz izreka o razcepu s singularnimi vrednostmi. Vse bo zapisano za F = C, popol-noma isti dokaz je za realen primer, le ∗ se zamenja s transponiranjem. Brez škode lahko na začetku predpostavimo, da število stolpcev matrike A ne presega njenega števila vrstic, da je torej m ≥ n. Sicer bi razcepili matriko A∗ in razcep nazaj konjugirano tran-sponirali. Vemo že, da je matrika B = A∗A ∈ Mn(F) hermitska in pozitivno semidefinitna. Zato so njene lastne vrednosti nenegativne in jih lahko, štete z njihovimi algebrskimi večkratnostmi uredimo nenaraščajoče λ1 ≥ λ2 ≥ · · · ≥ λn ≥ 0. Pri tem naj bo prvih r lastnih vrednosti neničelnih in λr+1 = · · · = λn = 0, pri čemer je seveda mogoče tudi, da je r = n in ničelnih lastnih vrednosti ni. Nato jih lahko za-pišemo kot λ j = s2, j = 1, 2, . . . , r, pri čemer so s j 1 ≥ s2 ≥ · · · ≥ sr > 0. Postavimo S = diag (s1, s2, . . . , sr). Naj bodo u1, . . . , um po vrsti stolpci matrike U in v1, . . . , vn stolpci matrike V . Če naj velja enakost A = U ΣV ∗, potem velja tudi AV = U Σ, oziroma za prvih r stolpcev Av j = s ju j, za j = 1, 2, . . . , r. Zato definirajmo stolpce u j, ki bodo tvorili prvih r stolpcev unitarne matrike U na naslednji način: 1 u j = Av j, j = 1, 2, . . . , r. s j 136 Poglavje 6. Spektralne lastnosti posebnih matrik Pokažimo, da u1, . . . , ur tvorijo ortonormiran sistem vektorjev. 1 1 1 u i, u j = Avi, Av j = Avi, Av j si s j sis j 1 1 s j = v i, A∗Av j = vi, s2 = vi, v j . s j v j is j sis j si Pri tem smo upoštevali, da so vektorji v1, . . . , vr lastni vektorji matrike A∗A pri lastnih vrednostih s2, . . . s2 = 0 in zato tudi u = 0. Podobno 1 r . V primeru, ko i ̸= j, je vi, v j i, u j tudi vidimo, da je ∥ui∥2 = ⟨ui, ui⟩ = si ⟨v s i, vi⟩ = 1, za vse i = 1, 2, . . . , r. Ortonormirano i množico {u m,1 1, . . . , ur} poljubno dopolnimo do ortonormirane baze F – to je potrebno le, če je r < m – in stolpce zložimo v matriko U ∈ Mm(F). Iz zapisa S 0 A[ V1 | V2] = [ U1 |U2] = [U 0 0 1S | 0] |{z} |{z} r r vidimo, da ni pomembno, kako dopolnimo m × r matriko U1 z matriko U2 do unitarne matrike U = [U1 | U2]; izraz na desni je namreč neodvisen od U2. ■ Za realno matriko A lahko ves postopek napravimo v realnem; unitarni matriki U in V je namreč mogoče izbrati realni ortogonalni, kjer uporabimo, da se da simetrične matrike diagonalizirati v realnem (gl. (3) izreka 6.1). 6.2.1 Uporaba razcepa SVD pri stiskanju slik Razcep s singularnimi vrednostmi lahko dobro prikažemo z uporabo pri stiskanju slik. Sliko si lahko predstavljamo kot matriko A velikosti m × n, katere elementi povedo, katere barve ali jakosti sivine je posamezna točka. Tukaj se seveda ne bomo ukvarjali s podrobnostmi take predstavitve, ker je tu gotovo več različic. Zaradi enostavnosti denimo, da je slika črnobela in predstavljena kot realna matrika števil iz nekega intervala, ki predstavljajo jakosti sivin. Razcep s singularnimi vrednostmi A = U ΣV T naredimo tako, da uredimo singularne vrednosti v nenaraščajočem vrstnem redu – seveda ustrezno uredimo tudi stolpce matrik U in V : s1 ≥ s2 ≥ · · · ≥ sr > 0, r ≤ min {m, n} . r k Uporabimo obrazec A = ∑ siuiv∗ in naredimo aproksimacijo A s za k << r. i k = ∑ iuiv∗ i i=1 i=1 Na ta način smo uporabili bistveni del informacije, ki je v sliki. Pri tem je potrebno poudariti, da smo tako uporabili le k stolpcev matrik U in V . Numerično računanje razcepa SVD, o katerem tukaj ne bo tekla beseda, pa je dejansko tako, da zaporedoma računamo s j, u j, v j, j = 1, 2, . . . , k. Če je bila prvotna slika velika m × n, moramo sedaj izračunati za vsak j = 1, 2, . . . , k še m oz. n komponent vektorjev u j in v j in eno singularno vrednost s j, kar je skupaj k (m + n + 1) vrednosti, kjer je k << r ≤ min {m, n}. Na sliki 6.1 je primer stiskanja slike, kjer vidimo, da že aproksimacija k = 100 v primerjavi z r = k = 640 da odličen rezultat. Podoben način iskanja bistvene informacije lahko uporabimo tudi pri drugih primerih tabelaričnih podatkov z veliko vrednostmi, npr. aproksimacije po metodi najmanjših kvadratov, t.i. "analiza glavnih komponent", rudarjenje podatkov, strojno učenje, prepoznava obrazov in še mnogo drugih sodobnih problemov. 6.2 Razcep s singularnimi vrednostmi (SVD) 137 (a) k = 10 (b) k = 20 (c) k = 100 (d) Originalna slika, k = r = 640. Slika 6.1: Aproksimacije slike z razcepom SVD s k stolpci 6.2.2 Operatorska norma matrike in število pogojenosti S singularnimi vrednostmi je povezano računanje operatorske norme matrike, ki pove, do kakšne mere preslikava, določena z matriko A, raztegne/skrči enotsko kroglo. s 1 0 ■ Zgled 6.12 Kam preslikava x 7→ Ax, določena z matriko A = , s 0 s 1 ≥ s2 > 0, 2 preslika enotski krog {(x, y); x2 + y2 ≤ 1}? ■ h i Naj bo x′ = A [ x in y = y′ , in iz neenakosti x2 + y2 ≤ 1 y′ y ] = [ s1x s2y ]. Od tod je x = x′ s1 s2 sledi x′2 + y′2 ≤ 1. Preslikani enotski krog je tako elipsa s polosema s s2 s2 1 in s2. 1 2 Obstaja veliko matričnih norm, mi omenimo le eno. Definicija 6.13 Operatorska norma matrike A ∈ m,n F je ∥A∥ = max{∥Ax∥, x ∈ n,1 F , ∥x∥ ≤ 1}. 138 Poglavje 6. Spektralne lastnosti posebnih matrik Izrek 6.14 Operatorska norma poljubne matrike A ∈ m,n F je njena največja singularna vrednost. Dokaz. Razcepimo matriko A = U ΣV ∗, kjer so v matriki Σ singularne vrednosti s1 ≥ s2 ≥ · · · ≥ sr > 0 matrike A. Če je A = 0, je očitno ∥A∥ = 0 = s1. Naj bo sedaj A ̸= 0; potem je s1 > 0. Pri poljubno izbranem vektorju x izračunajmo ∥Ax∥ = ∥UΣV ∗x∥ = ∥ΣV ∗x∥, kjer smo upoštevali, da unitarna matrika U ohranja normo (gl. (2) trditve 4.33). Sedaj označimo y = V ∗x, nato je max ∥Ax∥ = max ∥Σy∥ = s1. ∥x∥≤1 ∥y∥≤1 Zadnji sklep je podoben kot smo ga srečali v prejšnjem zgledu, do tega rezultata pa bi lahko prišli tudi z računanjem vezanih ekstremov, ki je čisto analitična metoda. ■ Za matriko iz zgleda 6.12 je ∥A∥ = s1, to je največja dolžina z našo preslikavo preslikanega vektorja dolžine kvečjemu 1, hkrati pa največja singularna vrednost. Operatorska norma matrike mi torej pove, kako linearna preslikava x 7→ Ax, razpihne ali skrči množico vektorjev, katerih norma ne presega 1, to je t.i. enotska krogla v evklidskem ali unitarnem prostoru n,1 F . Iz numerične analize reševanja sistemov linearnih enačb je znano število pogojenosti, cond(A), obrnljive matrike A. Definirano je z cond(A) = ∥A∥∥A−1∥, pove pa, kako so rešitve sistema linearnih enačb Ax = b občutljive na razne napake, ki so prisotne pri numeričnem računanju in se jim ni moč izogniti. Običajno je zaželeno, da je cond(A) velikostnega reda 1. Iz prejšnjega izreka hitro izpeljemo obrazec za število pogojenosti matrike. Posledica 6.15 Naj bo A obrnljiva n × n matrika. Potem je s1 cond(A) = , sn kjer sta s1 največja in sn najmanjša singularna vrednost matrike A. Dokaz. Najprej je zaradi obrnljivosti rang matrike enak n in zato je sn > 0. Iz A = UΣV ∗ vidimo, da je A−1 = V −1 Σ U ∗, od koder se vidi, da je 1 največja singularna vrednost sn matrike A−1. Nato je cond(A) = ∥A∥∥A−1∥ = s 1 1 . ■ sn 6.2.3 Posplošeni inverzi matrik Vemo, da je inverzna matrika definirana le za kvadratne matrike. Ideja posplošitve inverzne matrike je v tem, da bi invertirali le tisti "del" matrike, ki ga je pač mogoče invertirati. Tako bomo z uporabo SVD razcepa prišli do neke vrste inverza tudi za nekvadratne matrike. 6.2 Razcep s singularnimi vrednostmi (SVD) 139 Definicija 6.16 Za matriko A ∈ m,n F , za katero je S 0 A = U ΣV ∗ = U V ∗ 0 0 razcep s singularnimi vrednostmi, je posplošeni inverz matrika S−1 0 A+ := V U ∗. 0 0 Posplošenih inverzov je lahko tudi več vrst, mi smo omenili le enega, ki se v literaturi pojavlja tudi z imenom psevdoinverz ali Moore-Penroseov inverz. Videli bomo, da se za obrnljivo hermitsko/simetrično matriko posplošeni inverz ujema z običajno inverzno matriko. ■ Zgled 6.17 Naj bo A = A∗ ∈ Mn(F) obrnljiva hermitska/simetrična matrika. Res, kot vemo, je A unitarno podobna diagonalni matriki D = diag(λ1, . . . , λn) z realnimi lastnimi vrednostmi λ j, j = 1, 2, . . . , n, A = UDU∗. Potem je A∗A = A2 = U D2U ∗, in matrika Σ = diag(|λ1|, |λ2|, . . . , |λn|). Matriko D lahko izrazimo s Σ na naslednji način: D = Σ diag(±1, . . . , ±1) = ΣW, kjer smo uporabili, da se vsak λ j izraža λ j = ±|λ j| in je W diagonalna matrika z ustreznimi ±1 na diagonali. Očitno je W unitarna (ortogonalna) matrika, potem pa je tudi WU∗ taka. Označimo V ∗ = U ∗W . Potem imamo SVD razcep A = U ΣV ∗, kjer je Σ obrnljiva diagonalna matrika in se njen posplošeni inverz izraža z A+ = V −1 Σ U ∗. Izračunajmo A+A = V −1 −1 Σ U ∗U ΣV ∗ = V Σ ΣV ∗ = V V ∗ = I in še AA+ = U −1 −1 ΣV ∗V Σ U ∗ = U ΣΣ U ∗ = UU ∗ = I. Enolična definiranost inverzne matrike pove, da je v tem primeru A+ = A−1. ■ V splošnem pa sta matrika A in A+ povezani na naslednji način. Trditev 6.18 — Lastnosti posplošenega inverza. Naj bo A ∈ m,n F poljubna kompleksna ali realna matrika. Potem sta matriki AA+ ∈ Mm(F) in A+A ∈ Mn(F) hermitski/simetrični in za njiju velja (AA+)2 = AA+ in (A+A)2 = A+A, (6.4) za posplošeni inverz iz definicije 6.16 pa velja še: AA+A = A in A+AA+ = A+. Če je dodatno matrika A ∈ m,n F polnega stolpčnega ranga, rang A = n, velja A+A = I. 140 Poglavje 6. Spektralne lastnosti posebnih matrik Dokaz. Enakosti (6.4) povesta, da sta matriki AA+ in A+A projektorja (gl. def. 1.19 in verifikacijo v nalogi 12). Naj bo A = U + ΣV ∗ in A+ = V Σ U ∗. Z neposrednim računom se prepričamo, da je + + + + ΣΣ Σ = Σ in Σ ΣΣ = Σ . Nazadnje izračunamo še AA+A = U + + ΣV ∗V Σ U ∗U ΣV ∗ = U ΣΣ ΣV ∗ = U ΣV ∗ = A in A+AA+ = V + + + + Σ U ∗U ΣV ∗V Σ U ∗ = V Σ ΣΣ U ∗ = A+. (6.5) Denimo, da je A+A singularna. Potem je A+Ax = 0 za nek neničeln matrični stolpec x. Pomnožimo to enakost z A in upoštevajmo (6.5). Dobimo Ax = 0, kar je protislovje, saj je A polnega stolpčnega ranga in zato ima ta sistem enolično rešitev x = 0, protislovje. Torej je A+A obrnljiv projektor (v nalogi 2 pokažemo, sta edini lastni vrednosti projektorja 1 ali 0), ne more imeti lastne vrednosti 0 in zato mora biti A+A = I. ■ 6.3 Naloge  2 1 1  1. Za simetrično matriko A =  1 3 −2  poiščite realno diagonalno matriko D 1 −2 3 in ortogonalno matriko Q, da bo veljalo A = QDQT . R.: Lastne vrednosti matrike A so λ1 = 0, λ2 = 3 in λ3 = 5, torej bo D = diag (0, 3, 5). Matrika A je simetrična, zato so vse lastne vrednosti realne. Pripadajoči lastni vek-  −1   2   0  torji so po vrsti x1 = −  1 , x2 =  1  in x3 =  1  . Paroma so ortogonalni, 1 1 1 saj pripadajo paroma različnim lastnim vrednostim. Da bodo generirali ortogo- √ √ nalno prehodno matriko, jih je potrebno le še normirati ∥x1∥ = 3, ∥x2∥ = 6 in √ √   √ −1/ 3 2/ 6 0 √ √ √ ∥x3∥ = 2. Dobimo Q =  1/ 3 1/ 6 −1/ 2 √ √ √  in A = QDQT . Spomnimo 1/ 3 1/ 6 1/ 2 se, da je Q−1 = QT , ker je Q ortogonalna matrika. 2. Pokažite, da sta edini možni lastni vrednosti projektorja 0 in 1. R.: Projektor P je hermitska/simetrična matrika, zato je v neki ortonormirani bazi diagonalizabilna. Po drugi strani je P2 − P = 0. Minimalni polinom tega projektorja je bodisi m 2 P(λ ) = λ − λ = λ (λ − 1) bodisi mP(λ ) = λ bodisi mP(λ ) = λ − 1. Vse ničle minimalnega polinoma so lastne vrednosti, od koder trditev sledi. i 1 3. Pokažite, da je matrika U = 1 √ unitarna. Izračunajte njeni lastni vrednosti 2 1 i in preverite, da ležita na enotski krožnici. −i 1 √ R.: U ∗ = 1 √ ; UU ∗ = U ∗U = I. Lastni vrednosti sta 2 λ1 = (1 − i) , 2 1 −i 2 √2 λ2 = (−1 − i) , | 2 λ1| = |λ2| = 1. √  1/ 3 ? ?  √ 4. Dopolnite matriko Q =  1/ 3 ? ? √  do neke ortogonalne matrike. 1/ 3 ? ? R.: Prvi stolpec Q je normiran, zato je problem smiseln. Drugi stolpec matrike Q določimo tako, da bo pravokoten na 1 √ 1 1 1 T , npr.: 1 0 −1 T in ga 3 6.3 Naloge 141 še normiramo in dobimo 1 √ 1 0 −1 T . Nato tretji stolpec določimo bodisi 2 z vektorskim produktom, bodisi z Gram-Schmidtovim postopkom, pa še kaj bi se √ √ √  1/ 3 1/ 2 −1/ 6  √ √ našlo. Tako dobimo Q =  1/ 3 0 2/ 6 √ √ √  . Prav tako bi lahko tretji 1/ 3 −1/ 2 −1/ 6 stolpec pomnožili z (−1) ali pa drugi in tretji stolpec med seboj zamenjali. 5. Pokažite, da so lastne vrednosti realne ortogonalne matrike lahko le 1, −1 ali pa nastopijo v konjugiranih parih oblike cos ϕ ± i sin ϕ. R.: Ortogonalna matrika je tudi unitarna, če jo obravnavamo kot kompleksno matriko, zato so njene lastne vrednosti na enotski krožnici v C. Hkrati so lastne vrednosti ničle karakterističnega polinoma, ki je v našem primeru polinom z realnimi koeficienti. Pri takem nerealne ničle nastopajo le v konjugiranih parih, realni z absolutno vrednostjo pa sta lahko le 1 in −1. 6. Pojasnite, zakaj ima matrika, ki je hkrati hermitska in unitarna, edini možni lastni vrednosti 1 in −1. R.: Edini realni števili na enotski krožnici v C sta 1 in -1. 7. Pokažite, da sta lastna vektorja hermitske/simetrične matrike, ki ustrezata dvema različnima lastnima vrednostma, ortogonalna glede na običajni skalarni produkt. R.: Bodita sedaj x in y lastna vektorja hermitske/simetrične matrike A, Ax = λ x, Ay = µy in λ ̸= µ. Vemo že, da sta obe lastni vrednosti λ in µ realni. Pokažimo, da sta x in y ortogonalna. Nato je ⟨Ax, y⟩ = ⟨λ x, y⟩ = λ ⟨x, y⟩ , po drugi strani pa imamo ⟨Ax, y⟩ = ⟨x, A∗y⟩ = ⟨x, Ay⟩ = ⟨x, µy⟩ = µ ⟨x, y⟩ , kjer smo upoštevali, da je µ realno število. Enakost λ ⟨x, y⟩ = µ ⟨x, y⟩ lahko drugače zapišemo (λ − µ) ⟨x, y⟩ = 0, nakar iz λ ̸= µ sledi ⟨x, y⟩ = 0, kot smo želeli. 8. Naj bo u ∈ n,1 C normiran matrični stolpec. Pokažite, da je matrika U = I − 2uu∗ hermitska in unitarna. Preverite, da je u lastni vektor in določite pripadajočo lastno vrednost. Pokažite še, da je {u}⊥ lastni podprostor za drugo lastno vrednost. Za obe lastni vrednosti določite tudi večkratnosti. R.: U ∗ = (I − 2uu∗)∗ = I∗ − 2 (uu∗)∗ = I − 2u∗∗u∗ = U , torej je U hermitska. UU ∗ = U 2 = (I − 2uu∗) (I − 2uu∗) = I − 2uu∗ − 2uu∗ + 4uu∗uu∗ = I − 4uu∗ + 4u (u∗u) u∗ = I − 4uu∗ + 4u⟨u, u⟩u∗ = I, torej je U unitarna. | {z } =1 Nadalje je U u = (I − 2uu∗) u = −u, torej je λ1 = −1. Če je v ⊥ u, imamo U v = (I − 2uu∗) v = v−2u(u∗v) = v, torej je λ2 = 1, lastni | {z } =0 podprostor u⊥ je razsežnosti n − 1, zato ima λ2 geometrijsko večkratnost enako n − 1. Tako je geo(λ1) = 1 in geo(λ2) = n − 1. 9. Ugotovite, katero krivuljo drugega reda v ravnini predstavlja enačba 3x2 + 2xy + 3y2 − 8 = 0. Z drugimi besedami: diagonalizirajte podano kvadratno formo. Krivuljo drugega reda, ki jo kvadratna forma predstavlja, tudi narišite. 3 1 R.: Kvadratni formi 3x2 + 2xy + 3y2 priredimo simetrično matriko A = , ki 1 3 ima lastni vrednosti λ1 = 2 in λ2 = 4 in pripadajoča normirana lastna vektorja q1 = 142 Poglavje 6. Spektralne lastnosti posebnih matrik 1 1 1 √ [1 − 1]T in q2 = 1 √ [1 1]T . Ortogonalna matrika Q = 1 √ predstavlja 2 2 2 −1 1 zasuk koordinatnih osi za − π . Os x′ leži namreč v smeri vektorja q 2 1. V novem koordinatnem sistemu x′, y′ se kvadratna forma (enačba krivulje) glasi λ1x′2 + λ2y′2 = 8 2x′2 + 4y′2 = 8 / : 8 x′2 y′2 + = 1 4 2 √ in je torej elipsa s polosema 2 in 2. Preizkus: v enačbo 3x2 + 2xy + 3y2 vstavite x x′ = Q . y y′ y 2 1 x -2 -1 1 2 -1 -2 Slika 6.2: Elipsa 3x2 + 2xy + 3y2 − 8 = 0 z nosilkama polosi −1 1 −1 10. Izvedite razcep s singularnimi vrednostmi matrike A = . 1 1 −1  −1 √  " # 0 1 √ 1 −1 −1 1 −1 √ √ 2 0 0 2 2 R.: A = = 2 2 √  1 0 0  . 1 1 −1 1 √ 1 √ 0 2 0   2 2 0 1 √ 1 √ 2 2 11. Naj bo m,n Σ ∈ R matrika, ki smo jo srečali pri razcepu s singularnimi vrednostmi. Pokažite, da sta matriki + + ΣΣ in Σ Σ, kjer + označuje posplošeni inverz, projektorja. S 0 S−1 0 R.: V bločni obliki je r,n−r + r,m−r Σ = , Σ = , 0m−r,r 0m−r,n−r 0n−r,r 0n−r,m−r bločna vrstica ničel ali bločni stolpec ničel lahko tudi manjkata. Potem je + ΣΣ = I r 0m−r I ∈ M + r 0n−r Σ = ∈ M 0 m(R), medtem ko je Σ n(R). m−r,r 0m−r,m−r 0n−r,r 0n−r,n−r Obe dobljeni matriki, ki sta v splošnem različne velikosti, sta simetrični in se s kvadriranjem ne spremenita. 12. Pokažite, da sta matriki AA+ in A+A, kjer A+ označuje posplošeni inverz, projektorja. 6.3 Naloge 143 R.: Preveriti je potrebno, da za matriki P1 = AA+ in P2 = A+A velja P2 = P , j j = P∗ j j = 1, 2. Matriko A razcepimo s singularnimi vrednostmi: A = U ΣV ∗, nato je A+ = V + + + + Σ U ∗. Nadalje je P1 = U ΣV ∗V Σ U ∗ = U (ΣΣ )U ∗, P2 = V Σ U ∗U ΣV ∗ = V + + + Σ ΣV ∗. Iz rešitve naloge 11 uporabimo, da sta ΣΣ in Σ Σ projektorja, potem pa podobno kot v zgledu 1.23 pokažemo, da sta P1 in P2 projektorja. Literatura [1] D. Benkovič, Vektorji in matrike, Univerza v Mariboru, FNM, 2014. [2] S. J. Leon, Linear algebra with applications, 6th ed., Prentice-Hall, New Jersey, 2002. [3] C. D. Meyer, Matrix Analysis and Applied Linear Algebra, 2nd Ed., SIAM, 2023. [4] T. Petek, Izbrana poglavja iz tehniške matematike, skripta, Univerza v Mariboru, FERI, 2014. [5] G. Strang, Introduction to linear algebra, Cambridge Press, 2003. [6] G. Strang, Linear algebra and its applications, 4th Ed., Brooks/Cole, Belmont, 2006. [7] M. Kolar in B. Zgrablič, Več kot nobena a manj kot tisoč in ena rešena naloga iz Linearne algebre, Pitagora-PeF Univerze v Ljubljani, 1996. Stvarno kazalo baza, 42 matrike, 104 ortonormirana, 89 lastni par, 104 standardna, 51 lastni podprostor, 107 lastni vektor Cauchy-Schwarzeva neenakost, 87 matrike, 104 Cramerjevo pravilo, 28 lastni vektor determinanta, 25 linearne preslikave, 104 diagonalizacija, 103 linearen sistem, 16 linearna kombinacija, 36 ekvivalenca matrik, 15 linearna lupina, 36 stolpčna, 15 linearna preslikava unitarna, 15 izomorfizem, 74 vrstična, 15 element najboljše aproksimacije, 93 matrika, 3 elementarne transformacije, 46 bločna, 7 bločno diagonalna, 9 grupa, 33 bločno spodaj trikotna, 9 komutativna, 33 bločno zgoraj trikotna, 9 homogen sistem, 17 diagonala, 9 homomorfizem, 63 diagonalizabilna, 103 diagonalna, 9 Jordanova kletka, 118 elementarna, 13 Jordanova normalna oblika, 118 enotska, 4 hermitska, 11 karakteristični polinom, 106 idempotentna, 12 kofaktor, 25 identična, 4 komutiranje matrik, 5 jedro, 54 konjugirana simetričnost, 83 jordanska, 118 Kroneckerjev simbol delta, 88 koeficientov sistema, 17 kvadratna forma, 131 kofaktorjev, 27 nedefinitna, 133 kompleksna, 3 negativno definitna, 133 kvadratna, 3 negativno semidefinitna, 133 lastni vektor, 104 pozitivno definitna, 133 negativno definitna, 130 pozitivno semidefinitna, 133 negativno semidefinitna, 130 lastna vrednost nesingularna, 6 linearne preslikave, 104 nilpotentna, 12 algebrska večkratnost, 109 ničelna, 4 geometrijska večkratnost, 109 ničelnost, 54 STVARNO KAZALO 147 normalna, 11 pravokotna projekcija, 93 obrnljiva, 6 pravokotnost, 86 ortogonalna, 10 preslikava, 63 pozitivno definitna, 130 aditivna, 63 pozitivno semidefinitna, 130 bijektivna, 73 poševno hermitska, 11 domena, 63 poševno simetrična, 10 homogena, 63 prehodna, 52 injektivna, 73 rang, 56 inverzna, 73 realna, 3 izometrija, 97 simetrična, 10 kodomena, 63 singularna, 6 linearna, 63 singularna vrednost, 134 jedro, 76 sistema, 17 ničelnost, 76 skalarna, 9 rang, 76 sled, 107 slika, 76 spekter, 109 surjektivna, 73 spodaj trikotna, 9 prirejenka, 27 stolpčni rang, 54 projektor, 12 stopničasta, 9 psevdoinverz, 139 število pogojenosti, 138 razdalja, 86 unitarna, 11 razširjena matrika sistema, 22 vrstični rang, 54 red nilpotentnosti, 12 zgoraj trikotna, 9 regresijska premica, 99 matrična vrstica, 3 relacija, 14 matrični stolpec, 3 na množici, 14 metoda najmanjših kvadratov, 98 ekvivalenčna, 14 metrika, 86 ekvivalenčni razred, 14 metričen prostor, 86 refleksivna, 14 minimalni polinom, 115 simetrična, 14 Moore-Penroseov inverz, 139 tranzitivna, 14 norma, 85 simetričnost, 83 evklidska, 85 sistem linearnih enačb, 16 normalni sistem enačb, 99 ekvivalenten, 17 normiranje vektorja, 86 enolično rešljiv, 17 homogen, 17 ortogonalni komplement , 92 nekonsistenten, 17 ortogonalnost, 86 protisloven, 17 ortonormiran sistem, 88 skalar, 3, 33 paroma ortogonalni vektorji, 88 skalarni produkt, 83 Pitagorov izrek, 87 standardni, 83 pivot, 9 skaliranje, 33 podobnost matrik, 15 transponiranka, 4 unitarna, 16 posplošeni inverz, 139 vektor, 33 pozitivna definitnost skal. prod., 83 enotski, 86 148 Stvarno kazalo normiran, 86 vektorski podprostor, 36 vektorski prostor, 33 dimenzija, 50 evklidski, 83 izomorfen, 74 kompleksen, 34 normiran, 85 razsežnost, 50 realen, 34 trivialen, 37 unitaren, 83 Seznam slik 1.1 Sarrusovo pravilo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 3.1 Vrtenje za kot ϕ v ravnini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 3.2 Linearnost preslikave V . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 ϕ 3.3 Pravokotna projekcija na ravnino skozi izhodišˇ ce . . . . . . . . . . . . . . . . . . . . . 65 3.4 Zavrtena vektorja⃗i in ⃗j . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 3.5 Povezava matrik ob spremembi baze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 4.1 Razcep vektorja na vsoto dveh ortogonalnih komponent. . . . . . . . . . . . . . 93 4.2 Regresijska premica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 6.1 Aproksimacije slike z razcepom SVD s k stolpci . . . . . . . . . . . . . . . . . . . . . . 137 6.2 Elipsa 3x2 + 2xy + 3y2 − 8 = 0 z nosilkama polosi . . . . . . . . . . . . . . . . . . . . . . . 142 OSNOVE DOI https://doi.org/ 10.18690/um.feri.7.2024 MATRIČNE ANALIZE ISBN 978-961-286-911-3 TATJANA PETEK Univerza v Mariboru, Fakulteta za elektrotehniko, računalništvo in informatiko, Maribor, Slovenija tatjana. petek@um.si Uvodoma predstavimo matrični račun, sisteme linearnih enačb in determinanto. Ključne besede: Nato spoznamo vektorski prostor kot algebrsko strukturo, predstavitev vektorjev z matrika, determinanta, matričnimi stolpci glede na izbrano bazo, pojem vektorskega podprostora ter sistem linearnih enačb, pomembne podprostore, povezane z matrikami. Nadalje se na kratko posvetimo vektorski prostor, skalarni produkt, norma, linearnim preslikavam in njihovi matrični predstavitvi. Analiza značilnih lastni vektor, lastna podprostorov, ki so prirejeni matriki, omogoča obravnavo določenih lastnosti vrednost, diagonalizacija, Jordanova normalna ustreznih linearnih preslikav. Vektorski prostor dodatno opremimo še s skalarnim oblika, produktom, kar omogoča vpeljavo pojma ortogonalnosti, ta pa pripelje do razcep s singularnimi vrednostmi, učinkovite optimizacijske metode, metode najmanjših kvadratov, ki je v inženirski posplošeni inverz praksi zelo pogosta in uporabna. Obravnavamo osrednji problem linearne algebre oziroma matrične analize, problem lastnih vrednosti. S tem je povezana diagonalizacija matrike, Jordanova normalna oblika in unitarna podobnost trikotni matriki. Slednja na enostaven način omogoči obravnavo hermitskih in simetričnih matrik, ki imajo v inženirski uporabi posebno mesto. Na koncu nanizamo še nekaj primerov uporabe teorije iz prejšnjih poglavij, ki se nanašajo na spektralne lastnosti matrik. Posebej izpostavimo razcep s singularnimi vrednostmi, ki ima zelo široke možnosti uporabe. Učbenik zaključimo s posplošenimi inverzi matrik. DOI https://doi.org/ 10.18690/um.feri.7.2024 FUNDAMENTALS OF ISBN MATRIX ANALYSIS 978-961-286-911-3 TATJANA PETEK University of Maribor, Faculty of Electrical Engineering and Computer Science, Maribor, Slovenia tatjana.petek@um.si Keywords: In the introduction, we present matrix calculus, systems of linear equations and matrix, determinant, the determinant. Next, we explore the vector space as an algebraic structure, system of linear representing vectors with matrix columns based on a chosen basis, the concept equations, vector space, of a vector subspace, and important subspaces related to matrices. We then inner product, briefly focus on linear transformations and their matrix representation. norm, eigenvector, Analyzing characteristic subspaces associated with a matrix allows us to eigenvalue, examine certain properties of the corresponding linear transformations. We diagonalization, further equip the vector space with an inner product, which introduces the Jordan normal form, singular value concept of orthogonality, leading to an effective optimization method, the least decomposition, squares method, which is very common and useful in engineering practice. We generalized inverse address the central problem of linear algebra or matrix analysis, the eigenvalue problem. This includes matrix diagonalization, Jordan normal form and unitary similarity to a triangular matrix, which facilitates the treatment of Hermitian and symmetric matrices, which hold a special place in engineering applications. Finally, we list some examples of applying the theory from previous chapters, relating to the spectral properties of matrices. We particularly highlight the singular value decomposition, which has very broad applications. We close the textbook with generalized inverses of matrices. Document Outline Predgovor 1 Uvodna poglavja 1.1 Matrike 1.1.1 Matrike in računske operacije z njimi 1.1.2 Bločne matrike 1.1.3 Posebni razredi matrik 1.1.4 Posebne ekvivalenčne relacije na matrikah 1.2 Sistemi linearnih enačb 1.2.1 Determinanta 1.3 Naloge 2 Algebrska struktura vektorski prostor 2.1 Definicija in lastnosti vektorskega prostora 2.2 Podprostori 2.3 Linearna neodvisnost 2.4 Baza vektorskega prostora 2.4.1 Stolpec koeficientov razvoja po urejeni bazi 2.4.2 Uporaba elementarnih transformacij Gaussove metode 2.5 Razsežnost vektorskega prostora 2.5.1 Sprememba matričnega stolpca ob spremembi baze 2.6 Značilni podprostori matrike 2.6.1 Ničelni, vrstični in stolpčni prostor 2.7 Naloge 3 Linearne preslikave 3.1 Aditivnost, homogenost in linearnost 3.2 Matrika prirejena linearni preslikavi 3.2.1 Sprememba matrike ob spremembi baz 3.3 Izomorfizmi 3.3.1 Jedro in slika linearne preslikave 3.4 Naloge 4 Vektorski prostori s skalarnim produktom 4.1 Evklidski in unitaren prostor 4.1.1 Normiran in metričen prostor 4.1.2 Ortogonalni komplement in ortogonalna projekcija 4.2 Ortogonalnost in matrike 4.2.1 Predoločeni sistemi linearnih enačb – metoda najmanjših kvadratov. 4.3 Naloge 5 Spektralna teorija matrik 5.1 Problem lastnih vrednosti 5.1.1 Diagonalizacija 5.1.2 Računanje lastnih parov 5.1.3 Pogoji za diagonalizabilnost 5.2 Trikotljivost matrike 5.2.1 Polinomske funkcije matrik 5.2.2 Jordanova normalna oblika 5.2.3 Uporaba pri sistemih diferencialnih enačb 5.3 Naloge 6 Spektralne lastnosti posebnih matrik 6.1 Kvadratne forme 6.1.1 Diagonalizacija kvadratne forme. 6.1.2 Pozitivno ali negativno definitne kvadratne forme 6.2 Razcep s singularnimi vrednostmi (SVD) 6.2.1 Uporaba razcepa SVD pri stiskanju slik 6.2.2 Operatorska norma matrike in število pogojenosti 6.2.3 Posplošeni inverzi matrik 6.3 Naloge Blank Page Blank Page Blank Page