wykłady-2009
-
Upload
filiplubniewski -
Category
Documents
-
view
3 -
download
0
description
Transcript of wykłady-2009
Notatki do wykładu z algebry2009/2010
Zbigniew Jaskólski1
Instytut Fizyki TeoretycznejUniwersytet Wrocławski
1e-mail: [email protected]
1
Spis treści
1 Elementy logiki formalnej 51.1 Zdania i operacje logiczne . . . . . . . . . . . . . . . . . . . . . . . . . 51.2 Tautologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81.3 Kwantyfikatory . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2 Elementy teorii mnogości 122.1 Zbiory . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122.2 Relacje . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162.3 Funkcje . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202.4 Zasada indukcji matematycznej . . . . . . . . . . . . . . . . . . . . . . 27
3 Grupy 293.1 Działanie w zbiorze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 293.2 Grupa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 343.3 Grupa symetryczna, permutacje . . . . . . . . . . . . . . . . . . . . . . 353.4 Podgrupy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 433.5 Dzielnik normalny i grupa ilorazowa . . . . . . . . . . . . . . . . . . . . 473.6 Homomorfizmy grup . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4 Ciała 544.1 Definicja . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 544.2 Rozwiązywanie równań i rozszerzanie ciała liczb rzeczywistych. . . . . . 564.3 Ciało liczb zespolonych . . . . . . . . . . . . . . . . . . . . . . . . . . . 574.4 Reprezentacje liczb zespolonych . . . . . . . . . . . . . . . . . . . . . . 624.5 Wielomiany . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
5 Przestrzenie liniowe 745.1 Definicja . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 745.2 Podprzestrzenie liniowe . . . . . . . . . . . . . . . . . . . . . . . . . . . 765.3 Wektory liniowo niezależne . . . . . . . . . . . . . . . . . . . . . . . . . 785.4 Baza i wymiar przestrzeni . . . . . . . . . . . . . . . . . . . . . . . . . 815.5 Przekrój i suma podprzestrzeni, suma prosta. . . . . . . . . . . . . . . 875.6 Przestrzeń ilorazowa . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
6 Macierze i wyznaczniki 946.1 Macierze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 946.2 Wyznaczniki . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 996.3 Własności wyznacznika . . . . . . . . . . . . . . . . . . . . . . . . . . . 1086.4 Twierdzenie Cauchy’ego . . . . . . . . . . . . . . . . . . . . . . . . . . 1136.5 Macierz odwrotna . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
2
7 Układy równań liniowych 1207.1 Twierdzenie Kroneckera-Capelliego . . . . . . . . . . . . . . . . . . . . 1207.2 Rząd macierzy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1237.3 Rozwiązywanie układów równań liniowych przy pomocy wzorów Cramera1297.4 Metoda eliminacji Gaussa . . . . . . . . . . . . . . . . . . . . . . . . . 1327.5 Zadania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
8 Przekształcenia liniowe. 1468.1 Przekształcenia liniowe . . . . . . . . . . . . . . . . . . . . . . . . . . . 1468.2 Izomorfizmy przestrzeni liniowych . . . . . . . . . . . . . . . . . . . . . 1508.3 Macierz przekształcenia liniowego . . . . . . . . . . . . . . . . . . . . . 1548.4 Zmiana bazy, macierz przejścia . . . . . . . . . . . . . . . . . . . . . . 1608.5 Automorfizmy i macierze nieosobliwe . . . . . . . . . . . . . . . . . . . 165
9 Struktura przekształceń liniowych 1669.1 Podprzestrzenie niezmiennicze . . . . . . . . . . . . . . . . . . . . . . . 1669.2 Wektory i wartości własne . . . . . . . . . . . . . . . . . . . . . . . . . 1729.3 Diagonalizacja . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
10 Formy liniowe, dwuliniowe i kwadratowe 18610.1 Formy liniowe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18610.2 Formy dwuliniowe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19110.3 Formy kwadratowe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19310.4 Formy kwadratowe na przestrzeniach rzeczywistych . . . . . . . . . . . 203
11 Przestrzenie liniowe z iloczynem skalarnym 20811.1 Przestrzenie euklidesowe . . . . . . . . . . . . . . . . . . . . . . . . . . 20811.2 Baza ortonormalna w przestrzeni euklidesowej . . . . . . . . . . . . . . 21311.3 Przekształcenia ortogonalne . . . . . . . . . . . . . . . . . . . . . . . . 21911.4 Struktura przekształceń ortogonalnych . . . . . . . . . . . . . . . . . . 22311.5 Przestrzeń Minkowskiego . . . . . . . . . . . . . . . . . . . . . . . . . . 230
12 Zespolone przestrzenie liniowe z iloczynem skalarnym 23212.1 Hermitowskie formy dwuliniowe . . . . . . . . . . . . . . . . . . . . . . 23212.2 Przestrzenie unitarne . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23712.3 Przekształcenia unitarne . . . . . . . . . . . . . . . . . . . . . . . . . . 23812.4 Sprzężenie hermitowskie przekształcenia liniowego . . . . . . . . . . . . 24012.5 Przekształcenia hermitowskie . . . . . . . . . . . . . . . . . . . . . . . 243
3
13 Tensory 24813.1 Tensory - własności transformacyjne . . . . . . . . . . . . . . . . . . . 24813.2 Formy wieloliniowe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25413.3 Tensory symetryczne i antysymetryczne . . . . . . . . . . . . . . . . . . 25513.4 Algebra zewnętrzna . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257
14 Przestrzenie afiniczne 26614.1 Definicja . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26614.2 Podprzestrzenie afiniczne . . . . . . . . . . . . . . . . . . . . . . . . . . 27014.3 Przekształcenia afiniczne . . . . . . . . . . . . . . . . . . . . . . . . . . 27214.4 Afiniczne przestrzenie euklidesowe . . . . . . . . . . . . . . . . . . . . . 276
4
1 Elementy logiki formalnej
1.1 Zdania i operacje logiczne
W każdej teorii matematycznej występuje zespół pojęć pierwotnych, przy pomocyktórych można ściśle sformułować wszystkie inne pojęcia, aksjomaty i twierdzenia.Pojęć pierwotnych nie można precyzyjnie zdefiniować (wymagałoby to innych, jeszczebardziej podstawowych pojęć), poprzestajemy więc na ich intuicyjnym określeniu.
W przypadku logiki formalnej, którą zajmiemy się w tym rozdziale pojęciami pier-wotnymi są zdania i operacje logiczne.
Zdaniem logicznym (lub zdaniem) nazywamy stwierdzenie, które jestalbo prawdziwe, albo fałszywe. Jeżeli zdanie jest prawdziwe to przypisu-jemu mu wartość logiczną 1, jeżeli jest fałszywe to ma wartość logiczną0.
Uwagi:
1. Wartości logiczne 0, 1 to kwestia umowy, istotne jest to, że są tylko dwie. Z tegopowodu omawianą logikę nazywa się czasem dwuwartościową.
2. Zdania będziemy oznaczać symbolami literowymi, np. p, q, r, s, . . ..
Przykłady:
1. “ Dzisiejszą datą jest 7 października 2008 roku.” jest zdaniem logicznym.
2. “ Liczba π jest liczbą wymierną.” jest zdaniem logicznym (fałszywym).
3. “ π jest literą alfabetu greckiego.” jest zdaniem logicznym (prawdziwym).
4. “Czy jutro jest środa?” nie jest zdaniem logicznym.
Operacją logiczną (lub funktorem zdaniotwórczym) nazywamy op-erację dzięki której ze zdań logicznych budujemy nowe zdania logiczne.
Przegląd definicji podstawowych operacji logicznych rozpoczniemy od operacji,której argumentem jest tylko jedno zdanie.
Definicja 1.1 Negacją zdania p nazywamy zdanie ∼ p, którego wartość log-iczną definiujemy następująco :– jeżeli p ma wartość logiczną 1, to ∼ p ma wartość logiczną 0;– jeżeli p ma wartość logiczną 0, to ∼ p ma wartość logiczną 1.
5
Uwagi:
1. Zauważmy, że dzięki podanym w Def.1.1. regułom przyporządkowywania wartościlogicznych, wyrażenie ∼ p ma dobrze określoną wartość logiczną tzn. jest alboprawdziwe albo fałszywe, a więc jest zdaniem logicznym. Negacja przekształca-jąca zdanie p w zdanie ∼ p jest, więc operacją logiczną.
2. Zdanie ∼ p oznacza “nieprawda, że p” lub po prostu “nie p”.
3. Regułę według której przyporządkowujemy zdaniu ∼ p wartości logiczne wygod-nie jest podać przy pomocy tabeli wartości:
p ∼ p1 00 1
Zajmiemy się teraz operacjami logicznymi, które z dwóch zdań tworzą trzecie.Zdefiniujemy je przy pomocy tabelek wartości logicznych.
Definicja 1.2 Koniunkcją zdań p i q nazywamy zdanie p∧q, którego wartośćlogiczną określa tabela:
p q p ∧ q0 0 00 1 01 0 01 1 1
Uwagi:
1. Koniunkcja zdań p ∧ q oznacza zdanie “p i q”.
2. Koniunkcja zdań jest prawdziwa tylko wtedy gdy oba zdania są prawdziwe.
Definicja 1.3 Alternatywą zdań p i q nazywamy zdanie p ∨ q, któregowartość logiczną określa tabela:
p q p ∨ q0 0 00 1 11 0 11 1 1
Uwagi:
6
1. Alternatywa zdań p ∧ q oznacza zdanie “p lub q”.
2. Alternatywa zdań jest fałszywa tylko wtedy gdy oba zdania są fałszywe.
Definicja 1.4 Implikacją nazywamy zdanie p⇒ q utworzone ze zdań p i q,którego wartość logiczną określa tabela:
p q p⇒ q0 0 10 1 11 0 01 1 1
W implikacji p ⇒ q, zdanie p nazywamy założeniem, a zdanie q tezą imp-likacji.
Uwagi:
1. Implikacja p⇒ q oznacza zdanie “jeżeli p to q”.
2. Implikacja jest fałszywa tylko wtedy gdy założenie jest prawdziwe, a teza jestfałszywa (z prawdy nie może wynikać fałsz).
Definicja 1.5 Równoważnością zdań p i q nazywamy zdanie p⇔ q, któregowartość logiczną określa tabela:
p q p⇔ q0 0 10 1 01 0 01 1 1
Uwagi:
1. Równoważność zdań p⇔ q oznacza zdanie “p wtedy i tylko wtedy gdy q”.
2. Równoważność zdań jest prawdziwa tylko wtedy gdy oba zdania są jednocześnieprawdziwe lub fałszywe.
7
1.2 Tautologie
Definicja 1.6 Tautologią nazywamy zdanie logiczne, które jest zawszeprawdziwe.
Uwagi:
1. Wszystkie twierdzenia w matematyce są tautologiami.
2. Wykazanie czy dane zdanie jest tautologią nazywamy dowodem tautologii.
3. W ramach logiki formalnej tautologie konstruowane są najczęściej przy pomocyoperacji logicznych ze zdań, które mogą przybierać dowolne wartości logiczne.Dowód polega wtedy na obliczeniu wartości logicznej tautologii dla wszystkichmożliwych wartości logicznych tworzących ją zdań.
Przykład: Sprawdzimy, czy zdanie p ∨ ∼ p jest tautologią. Skorzystamy w tymcelu z ostatniej uwagi. Obliczanie wartości logicznej zdania p ∨ ∼ q dla wszystkichmożliwych wartości logicznych zdania p wygodnie jest zorganizować w postaci tabelki:
p ∼ q p ∨ ∼ p0 1 11 0 1
Tautologie, które są szczególnie często wykorzystywane sformułujemy w postacitwierdzeń.
Twierdzenie 1.1 Następujące zdania są tautologiami:
i) (p⇔ q)⇔ (p⇒ q) ∧ (q ⇒ p)ii) (p⇒ q)⇔ ∼ (p ∧ ∼ q)iii) (p⇒ q)⇔ (∼ q ⇒ ∼ p )
8
Uwagi:
1. Pierwsza tautologia wyraża dobrze znaną zasadę, że udowodnienie równoważnościjest równoznaczne z udowodnieniem implikacji w “obie strony”.
2. Druga tautologia wyraża ideę dowodu przez sprowadzenie do absurdu.Mówi ona, że implikacja p ⇒ q jest prawdziwa wtedy i tylko wtedy gdy ko-niunkcja p ∧ ∼ q jest fałszywa. Żeby udowodnić implikację p ⇒ q wystar-czy więc pokazać, że założenie prawdziwości p i nieprawdziwości q prowadzi dosprzeczności.
3. Trzecia tautologia jest podstawą rozumowania zwanego dowodem nie wprost.Wynika z niej, że dla udowodnienia implikacji p ⇒ q wystarczy wykazać imp-likację “odwrotną” ∼ q ⇒ ∼ p.
Dowód:Udowodnimy, że zdanie i) jest tautologią przez obliczenie jego wartości logicznej
dla wszystkich możliwych wartości logicznych tworzących je zdań:
p qa
p ⇒ qb
q ⇒ pR
a ∧ bL
p⇔ q L⇔ R0 0 1 1 1 1 10 1 1 0 0 0 11 0 0 1 0 0 11 1 1 1 1 1 1
ii) Postępujemy tak jak w punkcie pierwszym:
p qL
p ⇒ q ∼ qa
p ∧ ∼ qR∼ a L⇔ R
0 0 1 1 0 1 10 1 1 0 0 1 11 0 0 1 1 0 11 1 1 0 0 1 1
iii) Dowód tego punktu pozostawiamy jako zadanie. •
9
Twierdzenie 1.2 Następujące zdania są tautologiami
i. prawa łącznościp ∧ (q ∧ r)⇔ (p ∧ q) ∧ rp ∨ (q ∨ r)⇔ (p ∨ q) ∨ r
ii. prawa rozdzielności
p ∧ (q ∨ r)⇔ (p ∧ q) ∨ (p ∧ r)p ∨ (q ∧ r)⇔ (p ∨ q) ∧ (p ∨ r)
iii. prawa de Morgana
∼ (p ∨ q)⇔ (∼ p) ∧ (∼ q)∼ (p ∧ q)⇔ (∼ p) ∨ (∼ q)
1.3 Kwantyfikatory
Definicje operacji logicznych zwanych kwantyfikatorami wymagają pojęcia zbioru. Zbiórjest pojęciem pierwotnym, którego nie definiujemy. Zbiór rozumiemy intuicyjniejako coś co składa się ze swoich elementów.
Będziemy stosować następujące oznaczenia:
A,B,C, . . . − zbiory
a ∈ A − a jest elementem zbioru Aa należy do zbioru A
a /∈ A − a nie jest elementem zbioru Aa nie należy do zbioru A
Definicja 1.7 Niech φ(a) będzie zdaniem dla każdego elementu a ze zbioru A.Kwantyfikatorem ogólnym nazywamy operację logiczną, która ze wszystkichzdań φ(a) tworzy nowe zdanie
∀ a ∈ A : φ(a)
które jest prawdziwe tylko wtedy gdy dla każdego a ∈ A zdanie φ(a) jestprawdziwe.
Uwagi:
10
1. Zdanie “∀ a ∈ A : φ(a)„ czytamy: dla każdego a ze zbioru A, φ(a).
2. Stosowane jest często inne oznaczenie na kwantyfikator ogólny:
∧a∈A
φ(a) ≡ ∀ a ∈ A : φ(a)
Definicja 1.8 Niech φ(a) będzie zdaniem dla każdego elementu a ze zbioruA. Kwantyfikatorem szczególnym nazywamy operację logiczną, która zewszystkich zdań φ(a) tworzy nowe zdanie
∃ a ∈ A : φ(a)
które jest prawdziwe tylko wtedy gdy przynajmniej dla jednegoa ∈ A zdanie φ(a) jest prawdziwe.
Uwagi:
1. Zdanie “∃ a ∈ A : φ(a)„ czytamy: istnieje takie a ze zbioru A, że φ(a).
2. Stosowane jest często inne oznaczenie na kwantyfikator szczególny:
∨a∈A
φ(a) ≡ ∃ a ∈ A : φ(a)
Twierdzenie 1.3 Prawa de MorganaNastępujące zdania są tautologiami
∼ (∀ a ∈ A : φ(a)) ⇔ ∃ a ∈ A : ∼ φ(a)
∼ (∃ a ∈ A : φ(a)) ⇔ ∀ a ∈ A : ∼ φ(a)
11
2 Elementy teorii mnogości
2.1 Zbiory
W poprzednim rozdziale, przy okazji definicji kwantyfikatorów, wprowadziliśmy pojęciezbioru jako pojęcie pierwotne (a więc takie, którego nie definiujemy).
Zbiór rozumiemy intuicyjnie jako dowolną rodzinę obiektów zwanych el-ementami tego zbioru.
Zgodnie z takim rozumieniem wskazanie konkretnego zbioru polega na wskazaniuwszystkich jego elementów.
W sytuacji gdy liczba elementów zbioru jest skończona zbiór możemy określić przezpodanie wszystkich jego elementów a1, a2, . . . , an. Na oznaczenie takiego zbioru uży-wamy symbolu
{a1, a2, . . . , an} .Jeżeli chcemy taki zbiór oznaczyć jedną literą np. A to piszemy
A = {a1, a2, . . . , an} .
W wielu przypadkach wyliczenie wszystkich elementów zbioru jest niewygodne lubniemożliwe (np. wtedy gdy liczba elementów jest nieskończona). Wtedy określamyzbiór przez podanie własności, którą muszą spełniać jego elementy. Stosujemy wtedyoznaczenie:
{a : ω(a)}gdzie ω(a) jest zdaniem logicznym zależnym od a, opisującym warunek jaki musząspełniać elementy zbioru:
b ∈ {a : ω(a)} ⇔ ω(b)
Dla pewnych szczególnie ważnych zbiorów przyjęto standardowe oznaczenia, którychbędziemy przestrzegać. Dotyczy to przede wszystkim zbiorów liczbowych:
N − zbiór liczb naturalnych (bez zera)
Z − zbiór liczb całkowitych
Q − zbiór liczb wymiernych
R − zbiór liczb rzeczywistych
Definicja 2.1 Zbiorem pustym nazywamy zbiór, który nie zawiera żadnegoelementu. Zbiór pusty oznaczamy symbolem ∅.
12
Definicja 2.2 Zbiór A nazywamy podzbiorem zbioru B jeżeli
a ∈ A⇒ a ∈ B .
Jeżeli A jest podzbiorem zbioru B to mówimy również, że A zawiera się w Bi piszemy A ⊂ B.Mówimy, że zbiory A, B są równe i piszemy A = B jeżeli
a ∈ A⇔ a ∈ B .
Uwagi:
1. Zgodnie z definicją A ⊂ B wtedy i tylko wtedy gdy każdy element zbioru Anależy do zbioru B.
2. Korzystając z podanych definicji i z Tw.1.1.i mamy
A = B ⇔ (A ⊂ B ∧B ⊂ A) .
3. Dla każdego zbioru A mamy:
∅ ⊂ A , A ⊂ A .
Definicja 2.3 Podzbiory ∅, A zbioru A nazywamy niewłaściwymi podzbio-rami zbioru A. Wszystkie pozostałe podzbiory zbioru A nazywamy właści-wymi.
Omówimy teraz cztery podstawowe operacje na zbiorach.
Definicja 2.4Sumą zbiorów A i B nazywamy zbiór
A ∪B = {a : a ∈ A ∨ a ∈ B} .
Iloczynem lub przekrojem zbiorów A i B nazywamy zbiór
A ∩B = {a : a ∈ A ∧ a ∈ B} .
Suma i iloczyn zbiorów są przemienne, łączne i rozdzielne:
13
Twierdzenie 2.1 Dla dowolnych zbiorów A,B,C zachodzą następującezwiązki:
i. przemiennośćA ∪B = B ∪ AA ∩B = B ∩ A
ii. łączność(A ∪B) ∪ C = A ∪ (B ∪ C)(A ∩B) ∩ C = A ∩ (B ∩ C)
iii. rozdzielnośćA ∩ (B ∪ C) = (A ∩B) ∪ (A ∩ C)A ∪ (B ∩ C) = (A ∪B) ∩ (A ∪ C)
Dowód:Twierdzenie wynika z przyjętych przez nas definicji sumy i iloczynu zbiorów oraz z
Tw.1.2. Rozważmy jako przykład prawo rozdzielności sumy względem iloczynu:
A ∩ (B ∪ C) = (A ∩B) ∪ (A ∩ C) . (1)
Oznaczmy, odpowiednio przez p, q, r zdania logiczne a ∈ A, a ∈ B, a ∈ C. Wtedy,zgodnie z Def.2.4.
a ∈ A ∩ (B ∪ C) ⇔ p ∧ (q ∪ r)a ∈ (A ∩B) ∪ (A ∩ C) ⇔ (p ∧ q) ∨ (p ∧ r)
Na mocy Tw.1.2. prawe strony powyższych równoważności są równoważne, a zatem
a ∈ A ∩ (B ∪ C) ⇔ a ∈ (A ∩B) ∪ (A ∩ C)
co zgodnie z Def.2.2. oznacza równość zbiorów (1).Równie łatwo dowodzimy pozostałych równości. •Bezpośrednio z definicji dowodzimy także następującego twierdzenia:
Twierdzenie 2.2 Dla dowolnych zbiorów A,B zachodzą następujące związki:
A ⊂ A ∪B A ∩B ⊂ AA ∪ ∅ = A A ∩ ∅ = ∅A ∪ A = A A ∩ A = A
Dowód: Jako przykład rozważymy dowód równości A ∪ ∅ = A. Na mocy definicjirówności zbiorów (Def.2.2) A ∪ ∅ = A jeżeli
a ∈ A ∪ ∅ ⇔ a ∈ A .
14
Z kolei, na mocy definicji sumy zbiorów (Def.2.4) mamy
a ∈ A ∪ ∅ ⇔ a ∈ A ∨ a ∈ ∅ .
A zatem A ∪ ∅ = A wtedy i tylko wtedy gdy następujące zdanie jest prawdziwe
a ∈ A ∨ a ∈ ∅ ⇔ a ∈ A . (2)
Zauważmy, że zgodnie z definicją zbioru pustego (Def.2.1), zdanie a ∈ ∅ jest zawszefałszywe. A zatem, żeby sprawdzić czy zdanie (2) jest tautologią wystarczy wyliczyćjego wartość logiczną dla wszystkich możliwych wartości logicznych zdania a ∈ A:
a ∈ A a ∈ ∅ a ∈ A ∨ a ∈ ∅ a ∈ A ∨ a ∈ ∅ ⇔ a ∈ A1 0 1 10 0 0 1
•
Operacje sumy i iloczynu mogą być uogólnione na dowolną rodzinę zbiorów:
Definicja 2.5 Niech A = {At : t ∈ T} będzie rodziną zbiorów parametry-zowaną indeksem t ∈ T .⋃
t∈T
At = {a : ∃t ∈ T : a ∈ At} .
⋂t∈T
At = {a : ∀t ∈ T : a ∈ At} .
Definicja 2.6Różnicą zbiorów A i B nazywamy zbiór
A \B = {a : a ∈ A ∧ a /∈ B} .
Często ograniczamy się do rozważania podzbiorów pewnego ustalonego zbioru X.W takich sytuacjach zbiór X nazywany jest przestrzenią.
Definicja 2.7Dopełnieniem zbioru A ⊂ X w przestrzeni X nazywamy zbiór
Ac = {a ∈ X : a /∈ A} .
Wprost z definicji oraz z Tw.1.3. otrzymujemy
15
Twierdzenie 2.3 Prawa de MorganaDla dowolnych zbiorów A,B ⊂ X zachodzi
(A ∪B)c = Ac ∩Bc
(A ∩B)c = Ac ∪Bc
2.2 Relacje
Definicja 2.8 Iloczynem kartezjańskim zbiorów A i B nazywamy zbiórutworzony ze wszystkich par uporządkowanych (a, b) takich, że a ∈ A, b ∈ B:
A×B = {(a, b) : a ∈ A ∧ b ∈ B} .
Przykład:Niech A = {0, 1}, B = {x, y, z}. Wtedy zgodnie z definicją
A×B = {(0, x), (0, y), (0, z), (1, x), (1, y), (1, z)}
Uwaga: Pojęcie iloczynu kartezjańskiego łatwo się uogólnia na dowolną skończonąrodzinę zbiorów {A1, . . . , An}:
n∏i=1
Ai = A1 × A2 × . . .× An = {(a1, a2, . . . , an) : ∀i : ai ∈ Ai}
Jeżeli wszystkie czynniki iloczynu kartezjańskiego są identyczne tzn. Ai = A, i =1, 2, . . . , n to stosujemy uproszczony zapis
An = A× A× . . .× A︸ ︷︷ ︸n razy
Definicja 2.9 Relacją określoną na zbiorach A i B nazywamy dowolnypodzbiór R iloczynu kartezjańskiego A×B.O elementach a ∈ A, b ∈ B mówimy, że są w relacji R i piszemy aRb jeżeli(a, b) ∈ R, tzn.
aRb ⇔ (a, b) ∈ R .
Jeżeli A = B to mówimy, że relacja R ⊂ A× A jest określona w A.
Uwaga: Podobnie jak wiele innych zbiorów relacje najczęściej definiujemy przez po-danie warunku jaki muszą spełniać elementy a ∈ A i b ∈ B, żeby (a, b) ∈ R. Warunek
16
taki ma postać zdania logicznego ω(a, b), które zależy od dwóch zmiennych a i b.Relacja jest wtedy jednoznacznie zadana poprzez warunek
aRb⇔ ω(a, b) .
Przykłady:
1. Relacja prostopadłości ⊥ w zbiorze P wszystkich prostych na płaszczyźnie.
s⊥ t ⇔ (prosta s jest prostopadła do prostej t)
⊥ = {(s, t) ∈ P2 : s⊥ t}
2. Relacja równoległości ‖ w zbiorze P wszystkich prostych na płaszczyźnie.
s‖t ⇔ (prosta s jest równoległa do prostej t)
‖ = {(s, t) ∈ P2 : s‖t}
3. Relacja podzielności | w zbiorze liczb wymiernych Q :
x| y ⇔ (liczba x jest dzielnikiem liczby y)
| = {(x, y) ∈ Q2 : x| y}
Definicja 2.10 Relację R ⊂ A× A określoną na zbiorze A nazywamy:
• zwrotną jeżeli∀a ∈ A : aRa ;
• symetryczną jeżeli
∀a, b ∈ A : aRb⇔ bRa ;
• przechodnią jeżeli
∀a, b, c ∈ A : (aRb ∧ bRc)⇔ aRc ;
Relację R ⊂ A× A określoną na zbiorze A, która jest zwrotna, symetryczna iprzechodnia nazywamy relacją równoważności.
Przykłady:
17
1. Relacja prostopadłości ⊥ w P jest symetryczna, ale nie jest ani zwrotna, aniprzechodnia.
2. Relacja równoległości ‖ w P jest zwrotna, symetryczna i przechodnia.
3. Relacja podzielności | w Q jest zwrotna i przechodnia, ale nie jest symetryczna.
Uwaga: Relacje równoważności odgrywają w matematyce bardzo ważną rolę. Pozwalająorganizować elementy zbiorów, na których są określone, w rozłączne klasy elementówrównoważnych. Omówimy dokładniej na czym ten mechanizm polega.
Definicja 2.11 Niech R ⊂ A × A będzie relacją równoważności określoną nazbiorze A. Klasą abstrakcji (warstwą) elementu b ∈ A względem relacji Rnazywamy zbiór:
[ b ]R = {a ∈ A : aRb} .
Twierdzenie 2.4 Niech R ⊂ A × A będzie relacją równoważności określonąna zbiorze A. Klasy abstrakcji relacji R mają następujące własności:
i.∀a ∈ A : a ∈ [ a ]R ;
ii.∀a, b ∈ A : aRb⇔ [ a ]R = [ b ]R ;
iii.∀a, b ∈ A : ∼ aRb⇒ [ a ]R ∩ [ b ]R = ∅ ;
Dowód: Własność i. jest spełniona ponieważ relacja równoważności jest zwrotna, azatem dla każdego a ∈ A, aRa i wobec definicji klasy abstrakcji a ∈ [ a ]R.
Niech aRb. Pokażemy, że wtedy [ a ]R ⊂ [ b ]R. Niech c ∈ [ a ]R, zatem cRa.Ponieważ relacja R jest przechodnia to
cRa ∧ aRb⇒ cRb
a zatem c ∈ [ b ]R. Rozumowanie to jest słuszne dla każdego c ∈ [ a ]R, a więc [ a ]R ⊂[ b ]R. Przeprowadzając identyczne rozumowanie z zamianą a na b otrzymamy [ b ]R ⊂[ a ]R, a więc [ a ]R = [ b ]R co kończy dowód własności ii..
W celu udowodnienia własności iii. posłużymy się metodą dowodu nie wprost.Zgodnie z tą metodą mamy wykazać implikację:
[ a ]R ∩ [ b ]R 6= ∅ ⇒ aRb
18
Załóżmy więc, że [ a ]R ∩ [ b ]R 6= ∅. Oznacza to, że istnieje taki element c ∈ A, żec ∈ [ a ]R i c ∈ [ b ]R. A zatem cRa i cRb i na mocy symetrii i przechodniości relacji Rotrzymujemy, że aRb, co kończy dowód metodą nie wprost. •Uwaga: Niech [b]R będzie klasą abstrakcji elementu b ∈ A względem relacjiR ∈ A×A.Wykazaliśmy właśnie, że dla każdego elementu a ∈ [b]R, [a]R = [b]R. Tą samą klasęabstrakcji można więc zadać podając element a lub element b, lub dowolny inny elementzbioru A, który jest z nimi w relacji R. Z tego powodu element a występujący wdefinicji klasy abstrakcji [a]R, nazywamy reprezentantem tej klasy. Ponieważ klasyabstrakcji zawierają zwykle więcej niż jeden element, wybór reprezentanta klasy jest,na ogół, niejednoznaczny.
Jako wniosek z Tw.2.4. otrzymujemy:
Twierdzenie 2.5 Zasada abstrakcjiJeżeli relacja R ⊂ A × A określona na niepustym zbiorze A jest relacjąrównoważności to zbiór A jest sumą niepustych i rozłącznych klas abstrakcjitej relacji.
Definicja 2.12 Niech R ⊂ A × A będzie relacją równoważności określoną nazbiorze A. Zbiór wszystkich (różnych) klas abstrakcji relacji R nazywamy ilo-razem zbioru A przez relację R i oznaczamy symbolem A/R.
Przykład: Ilorazem zbioru P wszystkich prostych na płaszczyźnie przez relację równoległości‖ jest zbiór P/‖ wszystkich kierunków na płaszczyźnie.
19
2.3 Funkcje
Definicja 2.13 Niech A,B będą niepustymi zbiorami. Relację f ⊂ A × Bnazywamy funkcją (lub odwzorowaniem) przekształcającą zbiór A w zbiórB jeżeli dla każdego elementu a ∈ A istnieje dokładnie jeden element b ∈ Btaki, że afb.Dla relacji, które są funkcjami stosujemy specjalny rodzaj zapisu:
piszemy f : A→ B zamiast f ⊂ A×Bpiszemy f(a) = b zamiast afb
Element f(a) ∈ B nazywamy wartością funkcji f w punkcie a ∈ A. ZbiórA nazywamy dziedziną funkcji f , zbiór B - przeciwdziedziną funkcji f , azbiór
f(A) = {b ∈ B : ∃a ∈ A : f(a) = b}
obrazem funkcji f .
Uwagi:
1. Czasami wprowadza się nieco ogólniejsze pojęcie odwzorowania, w któregodefinicji warunek istnienia dokładnie jednego elementu zamieniamy warunkiemistnienia elementu. Przy takiej definicji odwzorowanie może mieć więcej niżjedną wartość w punkcie a ∈ A. Funkcje odpowiadają wtedy odwzorowaniomjednowartościowym.
W ramach tego wykładu nie będziemy rozważać takich uogólnień i pojęcia funkcji,odwzorowania i przyporządkowania będziemy traktować jako synonimy.
2. Definicja funkcji wymaga określenia trójki: (A,B, f) gdzie A jest dziedzinąfunkcji, B jej przeciwdziedziną, a f “przepisem”, który każdemu elementowidziedziny a ∈ A przyporządkowuje jakiś element przeciwdziedziny f(b) ∈ B. Wszczególności trójki (A,B, f) i (A, f(A), f) odpowiadają różnym funkcjom, jeżelizbiór wartości f(A) jest właściwym podzbiorem zbioru B (tzn. F (A) ⊂ B, aleF (A) 6= B).
20
Definicja 2.14 Niech A,B będą niepustymi zbiorami. Odwzorowanie f : A→B nazywamy
• suriekcją (odwzorowaniem A na B) jeżeli
f(A) = B ;
• injekcją (odwzorowaniem różnowartościowym) jeżeli
∀a1, a2 ∈ A : a1 6= a2 ⇒ f(a1) 6= f(a2) ;
• bijekcją (odwzorowaniem wzajemnie jednoznacznym) jeżeli jest suriekcjąi iniekcją.
Uwaga: Z Tw.1.1.iii wynika, że warunek
∀a1, a2 ∈ A : a1 6= a2 ⇒ f(a1) 6= f(a2)
jest równoważny warunkowi
∀a1, a2 ∈ A : f(a1) = f(a2)⇒ a1 = a2 .
Przykłady:
1. Niech A,B będą niepustymi zbiorami, a b ∈ B ustalonym elementem zbioru B.Relacja fb ⊂ A×B zadana wzorem
fb = A× {b} = {(a, b) : a ∈ A}
jest funkcją. Nazywamy ją odwzorowaniem stałym o wartości b W zapisiefunkcyjnym:
fb : A 3 a→ fb(a) = b ∈ B .
Odwzorowanie stałe jest suriekcją tylko wtedy gdy zbiór B składa się tylko zjednego elementu, a bijekcją, tylko wtedy gdy również zbiór A zawiera tylkojeden element.
2. Niech A będzie niepustym zbiorem. Relacja idA ⊂ A× A zadana wzorem
idA = {(a, a) : a ∈ A}
jest funkcją. Nazywamy ją odwzorowaniem tożsamościowym zbioru A nasiebie. W zapisie funkcyjnym:
idA : A 3 a→ idA(a) = a ∈ A .
Odwzorowanie tożsamościowe jest bijekcją.
21
3. Jeżeli relacja f ⊂ A×B jest funkcją to dla każdego niepustego podzioru A′ ⊂ A,relacja
f|A′ = f ∩ (A′ ×B) ⊂ A′ ×Bjest także funkcją. Nazywamy ją obcięciem funkcji f do podzbioru A′. Wzapisie funkcyjnym:
f|A′ : A′ 3 a→ f(a) ∈ B .
Obcięcie odwzorowania tożsamościowego idA do niepustego podzbioru A′ ⊂ A:
I : A′ 3 a→ a ∈ A
nazywamy zanurzeniem ( zbioru A′ w zbiór A ). Zanurzenie jest injekcją, alenie jest surjekcją.
Definicja 2.15 Niech f : A → B i g : B → C będą odwzorowaniami.Superpozycją lub złożeniem odwzorowań f i g nazywamy odwzorowanief ◦ g : A→ C określone wzorem
f ◦ g : A 3 a→ f ◦ g(a) = f(g(a)) ∈ C .
Twierdzenie 2.6 Składanie odwzorowań jest operacją łączną, tzn. dla dowol-nych trzech odwzorowań postaci:
f : A→ B , g : B → C , h : C → D ,
zachodzih ◦ (g ◦ f) = (h ◦ g) ◦ f .
Dowód: Zgodnie z definicją składania odwzorowań, złożenia h◦(g◦f) i (h◦g)◦f mająte same dziedziny i przeciwdziedziny. Pozostaje więc wykazać, że dla każdego a ∈ Awartości tych odwzorowań są identyczne. Wynika to z następującego ciągu równości:
h ◦ (g ◦ f)(a) = h(g ◦ f(a)) = h(g(f((a)))
= (h ◦ g)(f(a)) = (h ◦ g) ◦ f(a) •
Uwagi:
1. Składanie odwzorowań nie jest na ogół przemienne tzn. f ◦ g 6= g ◦ f .
2. Jeżeli f : A→ B jest odwzorowaniem to
f ◦ idA = idB ◦ f = f .
22
Definicja 2.16 Niech f : A→ B i g : B → A będą odwzorowaniami.
• Jeżeli f ◦ g = idB to mówimy, że g jest odwrotnością prawostronnąodwzorowania f .
• Jeżeli g ◦ f = idA to mówimy, że g jest odwrotnością lewostronnąodwzorowania f .
• Jeżeli g jest prawostronną i lewostronną odwrotnością odwzorowania f ,to g nazywamy odwzorowaniem odwrotnym do odwzorowania f ioznaczamy symbolem f−1.
Uwagi:
1. Pokażemy, że jeżeli odwzorowanie odwrotne istnieje to jest on tylko jedno cousprawiedliwia przyjęcie oznaczenia f−1. W tym celu wystarczy pokazać, że jeśliistnieją dwa odwzorowania odwrotne to muszą być sobie równe. Załóżmy więc,że dla odwzorowania f : A→ B istnieją dwa odwzorowania odwrotne g : B → Ai g′ : B → A:
f ◦ g = f ◦ g′ = idB , g ◦ f = g′ ◦ f = idA .
Wtedy, korzystając z łączności składania odwzorowań mamy:
g′ = idA ◦ g′ = g ◦ f ◦ g′ = g ◦ idB = g .
A więc, g = g′, co kończy dowód.
2. Jeżeli odwzorowanie f−1 : B → A jest odwrotne do odwzorowania f : A→ B toodwzorowanie f : A→ B jest odwrotne do odwzorowania f−1 : B → A:(
f−1)−1
= f
Twierdzenie 2.7 Jeżeli odwzorowania f : A → B, g : B → A spełniająrówność
g ◦ f = idA ,
to f jest iniekcją, a g - suriekcją.
Dowód: Pokażemy, że f jest iniekcją, a więc odwzorowaniem różnowartościowym. Wtym celu skorzystamy z Uwagi poniżej Def.2.14. Załóżmy, że f(a) = f(a′). Wtedy:
a = g ◦ f(a) = g(f(a)) = g(f(a′)) = g ◦ f(a′) = a′ .
23
Ponieważ rozumowanie to jest słuszne dla dowolnych dwóch elementów a, a′ zbioru A,to f jest iniekcją.
Pozostaje wykazać, że g jest suriekcją co z definicji oznacza, że dla każdego a ∈ Aistnieje takie b ∈ B, że a = g(b). W rozważanym przypadku wystarczy przyjąć b =f(a). •
Twierdzenie 2.8 Odwzorowanie f : A → B ma odwzorowanie odwrotne wt-edy i tylko wtedy gdy jest bijekcją (odwzorowaniem wzajemnie jednoznacznym).
Dowód: ⇒Pokażemy najpierw, że istnienie odwzorowania odwrotnego implikuje bijektywność
odwzorowania f . Istotnie, jeśli istnieje odwzorowanie odwrotne f−1 : B → A to
f ◦ f−1 = idB oraz f−1 ◦ f = idA ,
a zatem obie pary odwzorowań f, f−1 i f−1, f spełniają założenia Tw.2.7. Na mocytego twierdzenia f jest suriekcją i injekcją, a więc jest bijektywne.⇐Odwrotnie, załóżmy, że f jest bijekcją. Wtedy dla każdego elementu b ∈ B istnieje
dokładnie jeden element a ∈ A taki, że f(a) = b. Przyjmując g(b) = a, otrzymujemyodwzorowanie g : B → A spełniające równości
f ◦ g = idB oraz g ◦ f = idA ,
a więc f−1 = g. •
Twierdzenie 2.9
i. Złożenie suriekcji jest suriekcją.
ii. Złożenie iniekcji jest iniekcją.
iii. Złożenie bijekcji jest bijekcją.
Dowód:i. Jeżeli f : A → B i g : B → C są suriekcjami to f(A) = B i g(B) = C. Wtedy
g ◦ f(A) = g(f(A)) = g(B) = C, a więc złożenie także jest suriekcją.ii. Niech a, b ∈ A, jeżeli f ◦ g(a) = f ◦ g(b) to f(g(a)) = f(g(b)). f jest iniekcją,
więc g(a) = g(b). Z tego, że g jest iniekcją wynika z kolei, że a = b. Pokazaliśmy, żedla dowolnych a, b ∈ A z tego, że f ◦ g(a) = f ◦ g(b) wynika a = b, a zatem f ◦ g jestiniekcją c.b.d.o.
24
Z i. i ii. wynika natychmiast iii. •
Odwzorowania bijektywne służą do porównywania liczebności zbiorów.
Definicja 2.17 Mówimy, że zbiory A i B są równoliczne (lub są równejmocy) jeżeli istnieje bijekcja zbioru A na zbiór B. Jeżeli zbiory A i B sąrównoliczne to piszemy A ∼ B.
Posługując się własnościami odwzorowań bijektywnych łatwo udowodnić następu-jące
Twierdzenie 2.10 Relacja równoliczności zbiorów jest relacjąrównoważności.
Definicja 2.18 Klasy abstrakcji relacji równoliczności zbiorów nazywamy mo-cami zbiorów.
Definicja 2.19 Dla każdej liczby naturalnej n ∈ N niech Jn = {1, 2, . . . , n}będzie zbiorem n elementowym. Mówimy, że zbiór
• A jest skończony, jeżeli jest zbiorem pustym lub istnieje takie n ∈ N, żeA ∼ Jn;
• A jest nieskończony, jeżeli A nie jest skończony;
• A jest przeliczalny, jeżeli ∼ N.
Przykłady:
1. Zbiór liczb całkowitych Z jest przeliczalny. Bijekcją wymaganą w definicji relacjirównoliczności może być funkcja f : N→ Z
f(n) =
{−1
2(n− 1) gdy n jest nieparzyste
12n gdy n jest parzyste
2. Zbiór liczb wymiernych Q jest przeliczalny. Wystarczy pokazać, że zbiór liczb
25
wymiernych dodatnich jest przeliczalny. W tym celu rozważmy tablicę ułamków
11
12
13
14
15
16
17
. . .
21
22
23
24
25
26
. . .
31
32
33
34
35
. . .
41
42
43
44
. . .
51
52
53
. . .
61
62
. . .
71
. . .
Wymaganą bijekcję konstruujemy numerując kolejne ułamki liczbami natural-nymi, poruszając się po drodze zaznaczonej na rysunku i pomijając te ułamki,które już wystąpiły w poprzednich krokach.
W przytoczonych przykładach zbiór nieskończony jest równoliczny ze swoim podzbioremtakże oczywiście nieskończonym. Sytuacja taka nie może się zdarzyć dla zbiorów skońc-zonych.
Twierdzenie 2.11 Jeżeli A jest zbiorem skończonym i odwzorowanie f : A→A jest iniekcją to jest bijekcją.Jeżeli A jest zbiorem skończonym i odwzorowanie f : A → A jest suriekcją tojest bijekcją.
Dowód:Trzeba pokazać, że f jest suriekcją, tzn. dla każdego elemnetu a ∈ A istnieje taki
element a′ ∈ A, że f(a′) = a. Niech a ∈ A. Rozważmy natępujący ciąg elementów
a0 = a , a1 = f(a) . . . , ak = f(ak−1) , . . . , an = f(an−1)
gdzie n jest mocą zbioru A. Mamy n+ 1 elementów ze zbioru n elementowego, a więcna pewno wystąpi co najmniej jedno powtórzenie, tzn. dla pewnych k, l, k > l:
ak = al .
Aleak = al ⇒ f(ak−1) = f(al−1)
a ponieważ f jest iniekcją to
f(ak−1) = f(al−1) ⇒ ak−1 = al−1 ⇒ f(ak−2) = f(al−2)
26
Po l krokach otrzymujemyf(ak−l) = f(a0) = f(a)
a stąd a = f(ak−l−1). Szukanym elementem jest więc a′ = ak−l−1.Dowód drugiej części twierdzenia pozostawiamy jako ćwiczenie. •
2.4 Zasada indukcji matematycznej
Zbiór liczb naturalnych N = {1, 2, 3, . . .} wydaje się strukturą prostą i dobrze znaną.Można jednak zadać pytanie, które z powszechnie znanych własności tego zbiorumożna przyjąć za podstawowe, w tym sensie, że wszystkie pozostałe dają się z nichwyprowadzić na drodze rozumowania dedukcyjnego. Zagadnienie to badał min. Peano,który podał zespół takich własności zwanych aksjomatami Peano. Z aksjomatówPeano (których sformułowanie wykracza poza zakres tego wykładu) wynikają wszystkiewłasności zbioru liczb naturalnych N takie jak własności działań w tym zbiorze czywłasności jego uporządkowania. Wśród aksjomatów Peano znajduje się następującestwierdzenie :
Zasada indukcji zupełnej Jeżeli A jest podzbiorem zbioru liczb natu-ralnych N, takim, że
• 1 ∈ A;
• ∀m ∈ N : m ∈ A⇒ m+ 1 ∈ A;
to A = N.
Pokażemy jak z tego aksjomatu wynika
Twierdzenie 2.12 Zasada indukcji matematycznej I.Niech ω(n) będzie zdaniem logicznym dla każdej liczby naturalnej n ∈ N. Za-łóżmy, że spełnione są następujące warunki:
• początek indukcji zdanie ω(1) jest prawdziwe;
• krok indukcyjny
∀n ∈ N : ω(n)⇒ ω(n+ 1) ;
Wtedy zdanie ω(n) jest prawdziwe dla każdego n ∈ N
Dowód: Niech A będzie zbiorem tych wszystkich liczb naturalnych n dla którychzdanie ω(n) jest prawdziwe. Założenia twierdzenia oznaczają, że spełnione są oba
27
warunki występujące w zasadzie indukcji zupełnej, a więc na mocy tego postulatuA = N. •
Uwaga: Jest jasne, że przyjmując powyższe twierdzenie jako aksjomat wyprowadz-imy bez trudu zasadę indukcji zupełnej. Twierdzenie powyższe można więc uznać zarównoważne sformułowanie piątego aksjomatu Peano. Z tego względu często zamiasto twierdzeniu o indukcji matematycznej mówi się o zasadzie indukcji matematycznej.
W ramach aksjomatyki Peano można udowodnić następującą wersję twierdzenia o in-dukcji
Twierdzenie 2.13 Zasada indukcji matematycznej II.Niech ω(n) będzie zdaniem logicznym dla każdej liczby naturalnej n ∈ N. Za-łóżmy, że spełnione są następujące warunki:
• początek indukcji zdanie ω(1) jest prawdziwe;
• krok indukcyjny
∀n ∈ N : ω(1) ∧ ω(2) ∧ . . . ∧ ω(n)⇒ ω(n+ 1) ;
Wtedy zdanie ω(n) jest prawdziwe dla każdego n ∈ N
Dowód: Dowód tego, że z zasady indukcji matematycznej w pierwszym sformułowaniuwynika ta zasada w drugim sformułowaniu pozostawimy jako zadanie na ćwiczenia. •
Przykład:Jak prosty przykład rozważymy indukcyjny dowód wzoru Gaussa
n∑i=1
i =n(n+ 1)
2.
Metoda dowodu przez indukcję polega na sprawdzeniu założeń twierdzenia o in-dukcji matematycznej.Założenie „początek indukcji” jest spełnione bowiem zachodzi
1∑i=1
i = 1 =1(1 + 1)
2.
Założenie „krok indukcyjny” jest również spełnione. Istotnie zakładając, że wzórGaussa jest spełniony dla n mamy
n+1∑i=1
i =n∑i=1
i+ (n+ 1) =n(n+ 1)
2+ (n+ 1)
28
=n(n+ 1) + 2(n+ 1)
2=
(n+ 2)(n+ 1)
2
a zatem dla każdego n prawdziwa jest implikacja
n∑i=1
i =n(n+ 1)
2⇒
n+1∑i=1
i =(n+ 1)(n+ 2)
2.
Ponieważ oba założenia twierdzenia o indukcji matematycznej (wersja I) są spełnioneto na mocy tego twierdzenia wzór Gaussa jest słuszny dla dowolnego n ∈ N.
3 Grupy
3.1 Działanie w zbiorze
Definicja 3.1 Niech X będzie dowolnym zbiorem, działaniem w zbiorze Xnazywamy dowolną funkcję
f : X ×X → X .
Przykłady:
1. Dodawanie w zborze liczb naturalnych N.
+ : N× N 3 (n,m)→ n+m ∈ N .
2. Dodawanie w zbiorze liczb całkowitych Z.
3. Mnożenie w zbiorze liczb całkowitych Z:
· : Z× Z 3 (p, q)→ p · q ∈ Z .
4. Odejmowanie w zbiorze liczb rzeczywistych R.
5. Niech Zn = {0, 1, . . . , n− 1} gdzie n jest liczbą naturalną.
Dodawanie modulo n jest w zbiorze Zn określone wzorem
Zn × Zn 3 (r, s)→ r +n s =reszta z dzieleniar + s przez n
Ponieważ reszta z dzielenia przez n nie może być większa od n− 1 i mniejsza odzera, r +n s ∈ Zn.
29
Dla n = 2 mamy Z2 = {0, 1} i
0 +2 1 = 1
1 +2 0 = 1
0 +2 0 = 0
1 +2 1 = 0
Dla zbiorów skończonych działanie może być zadane przez podanie jego wartościna wszystkich parach elementów. Wartości te wygodnie jest zapisywać przypomocy tabelki. Np. dla (Z2,+2) mamy
+2 0 10 0 11 1 0
“tabliczka”dodawania modulo 2
6. Mnożenie modulo n w zbiorze Zn określone jest wzorem
Zn × Zn 3 (r, s)→ r ·n s =reszta z dzieleniar · s przez n
7. Niech X będzie dowolnym zbiorem, a F(X,X) zbiorem wszystkich funkcji
f : X → X .
Składanie odwzorowań
◦ : F(X,X)×F(X,X) 3 (f, g)→ f ◦ g ∈ F(X,X)
jest działaniem w zbiorze F(X,X).
Uwaga: Działanie w zbiorze X zostało zdefiniowane jako funkcja
f : X ×X 3 (a, b)→ f(a, b) ∈ X ,
jednak w algebrze stosuje się zwyczajowo dla takich funkcji inne oznaczenia niż wanalizie. Zamiast f(a, b) piszemy a � b
� : X ×X 3 (a, b)→ a � b ∈ X .
Dla najczęściej spotykanych działań stosujemy na ogół tradycyjne oznaczenia:
• + symbol dodawania liczb;
30
• · symbol mnożenia liczb;
• ◦ symbol składania odwzorowań.
Definicja 3.2 Działanie � określone w zbiorze X nazywamy
• łącznym jeżeli
∀ a, b, c ∈ X : a � (b � c) = (a � b) � c ;
• przemiennym jeżeli
∀ a, b ∈ X : a � b = b � a .
Przykłady:
1. Działania z przykładów 1,2,3,5,6,7 są łączne.
2. Odejmowanie w zbiorze liczb rzeczywistych nie jest łączne. Rzeczywiście, dlac 6= 0
a− (b− c) = a− b+ c 6= (a− b)− c = a− b− c .
Definicja 3.3 Niech � będzie działaniem określonym w zbiorze X. Elemente ∈ X nazywamy elementem neutralnym względem działania � jeżeli
∀ a ∈ X : a � e = a = e � a .
Przykłady:
1. W (N,+) nie ma elementu neutralnego.
2. W (Z,+) elementem neutralnym jest 0.
3. W (Z, ·) elementem neutralnym jest 1.
4. W (R,−) nie ma elementów neutralnych:
x− 0 = x ale 0− x = −x 6= x .
5. W (Zn,+n) elementem neutralnym jest 0.
6. W (Zn, ·n) elementem neutralnym jest 1.
31
7. W (F(M,M), ◦) elementem neutralnym jest odwzorowanie tożsamościowe.
Twierdzenie 3.1 Niech � : X × X → X będzie działaniem określonym naX. Jeśli istnieje w X element neutralny e względem działania � to jest onwyznaczony jednoznacznie.
Definicja 3.4 Niech e będzie elementem neutralnym działania � określonegow zbiorze X. Element a−1 ∈ X nazywamy elementem odwrotnym do ele-mentu a ∈ X względem działania � jeżeli
a−1 � a = a � a−1 = e .
Przykłady:
1. W N nie można zdefiniować pojęcia elementu odwrotnego względem dodawaniabo nie istnieje w N element neutralny względem tego działania.
2. W Z elementem neutralnym e względem dodawania jest zero. Elementem m−1
odwrotnym do elementu m ∈ Z względem dodawania jest element −m:
(−m) +m = m+ (−m) = m−m = 0 .
W rozważanym przykładzie mamy więc
e = 0 , m−1 = −m .
3. W Z elementem neutralnym e względem mnożenia jest jedynka. Niech m będzieróżnym od zera elementem Z. Elementem m−1 odwrotnym względem mnożeniado elementu m jest element 1
m:
1
m·m = m · 1
m=m
m= 1 .
W rozważanym przykładzie mamy więc
e = 1 , m−1 =1
m.
Element m = 0 ∈ Z nie ma elementu odwrotnego ze względu na mnożenie.
32
Uwaga: Symbole e i m−1 nie są w pełni jednoznaczne bo nie niosą in-formacji o tym, względem jakiego działania e jest elementem neutralnym,a m−1 odwrotnym (w tym samym zbiorze możemy mieć określone różnedziałania). W szczególności symbol m−1 oznacza 1
mtylko wtedy gdy mamy
na myśli element odwrotny względem mnożenia w zbiorze liczbowym.Na ogół nie prowadzi to do nieporozumień bo z kontekstu wiadomo o jakiedziałanie chodzi.
4. W zbiorze R nie ma elementu neutralnego ze względu na odejmowania, nie możnawięc zdefiniować elementów odrotnych ze wzgledu na to działanie.
5. W Zn elementem odwrotnym do m ∈ Zn względem dodawania modulo n jestelement
m−1 = n−m .
Istotniem+n (n−m) = (n)n = 0 .
6. Tabelka mnożenia modulo 4 w zbiorze Z4 ma postać
· 0 1 2 30 0 0 0 01 0 1 2 32 0 2 0 23 0 3 2 1
Odczytujemy z niej, że elementy 0 i 2 nie mają elementu odwrotnego względemmnożenia modulo n, natomiast elementy odwrotne względem tego działania majądla pozostałych elementów postać:
1−1 = 1 , 3−1 = 3 .
7. W zbiorze odwzorowań F(M,M) elementem odwrotnym do odwzorowania g :M →M względem składania odwzorowań jest odwzorowanie odwrotne (Def.2.16):
g−1 ◦ g = g ◦ g−1 = idM .
Na mocy Tw.2.8 element odrotny do g istnieje wtedy i tylko wtedy gdy g jestbijekcją.
Twierdzenie 3.2 Jeżeli działanie � : X ×X → X określone na X jest łączneto dla dowolnego elementu m ∈ X istnieje co najwyżej jeden element odwrotnywzględem tego działania.
33
3.2 Grupa
Definicja 3.5 Grupą nazywamy parę (G, �) gdzie G jest niepustym zbiorem,a � : G × G → G działaniem określonym na G spełniającym następującewarunki
i. działanie � jest łączne;
ii. istnieje element neutralny e ∈ G względem działania �;
iii. dla każdego elementu g ∈ G istnieje element g−1 do niego odwrotny wzglę-dem działania �.
Jeżeli ponadto działanie � jest przemienne to grupę nazywamy przemiennąlub abelową.Jeżeli liczba elementów grupy G jest skończona to nazywamy ją rzędem grupy.
Przykłady:
1. Zbiory liczb rzeczywistych R, wymiernych Q i całkowitych Z z działaniem do-dawania liczb są grupami abelowymi.
2. Zbiory liczb rzeczywistych bez zera R \ {0} i wymiernych bez zera Q \ {0} zdziałaniem mnożenia są grupami abelowymi.
3. Zbiór Zn z dodawaniem modulo n jest grupą abelową.
4. Zbiór {−1, 1} z mnożeniem jest grupą abelową rzędu 2.
5. Zbiór G4 wszystkich izometrii trójkąta jest grupą ze względu na składanie odw-zorwań.
G4 = {id, O 2π3, O 4π
3, S1, S2, S3} = {R0, R1, R2, S1, S2, S3}
◦ R0 R1 R2 S1 S2 S3
R0 R0 R1 R2 S1 S2 S3
R1 R1 R2 R0 S3 S1 S2
R2 R2 R0 R1 S2 S3 S1
S1 S1 S2 S3 R0 R1 R2
S2 S2 S3 S1 R1 R0 R1
S3 S3 S1 S2 R2 R1 R0
Z tabelki wynika, że (G4, ◦) nie jest grupą abelową.
34
3.3 Grupa symetryczna, permutacje
Twierdzenie 3.3 Niech A będzie niepustym zbiorem. Zbiór S(A) wszystkichbijekcji g : A→ A ze składaniem odwzorowań jest grupą.
Dowód:Ponieważ złożenie bijekcji jest bijekcją to składanie odwzorowań jest dobrze określonym
działaniem w zbiorze S(A):
◦ : S(A)× S(A) 3 (f, g)→ f ◦ g ∈ S(A) .
Na mocy Twierdzenia 2.6 składanie odwzorowań jest łączne, w szczególności dla dowol-nych bijekcji f, g, h ∈ S(A) mamy
f ◦ (g ◦ h) = (f ◦ g) ◦ h ,
a więc pierwszy warunek Def.3.5 jest spełniony. Wiemy już, że odwzorowanie tożsamoś-ciowe idA jest elementem neutralnym ze względu na składanie odwzorowań i oczywiściejest bijekcją, a zatem drugi warunek Def.3.5 jest także spełniony.
Pokazalismy także w przykładzie 7 poniżej Def.3.4, że elementem odwrotnym dobijekcji g : A → A ze względu na składanie odwzorowań jest odwzorowanie odrotneg−1 : A→ A. Ponieważ odwzorowanie odwrotne do bijekcji jest bijekcją to także trzeciwarunek Def.3.4 jest spełniony co kończy dowód. •
Definicja 3.6 Niech A będzie niepustym zbiorem. Grupę (S(A), ◦) wszystkichbijekcji zbioru A ze składaniem odwzorowań jako działaniem grupowym nazy-wamy grupą symetryczną zbioru A.
Twierdzenie 3.4 Jeżeli zbiór A ma co najmniej 3 elementy to grupasymetryczna tego zbioru S(A) jest nieabelowa.
Dowód: Niech a, b, c ∈ A będą trzema parami różnymi elementami zbioruA. Rozważmyodwzorowania σ : A→ A i τ : A→ A zadane wzorami
σ(a) = bσ(b) = cσ(c) = aσ(x) = x dla x 6= a, b, c
τ(a) = bτ(b) = aτ(c) = cτ(x) = x dla x 6= a, b, c
Oba odwzorowania są bijekcjami, a więc σ, τ ∈ S(A). Wprost z definicji mamy:
(σ ◦ τ)(a) = σ(τ(a)) = σ(b) = c
(τ ◦ σ)(a) = τ(σ(a)) = τ(b) = a
35
a zatem σ ◦ τ 6= τ ◦ σ, c.b.d.o. •
Definicja 3.7 Niech A = {a1, . . . , an}. Permutacją (przestawieniem) el-ementów zbioru A nazywamy bijekcję g : A→ A zbioru A na siebie.
Uwagi:
1. Permutację elementów zbioru A = {a1, . . . , an} można zapisać w postaci tabelki
σ =
(a1 a2 . . . anaj1 aj2 . . . ajn
)której dolny wiersz składa się z obrazów odpowiednich elementów górnego wierszaprzez permutację σ, tzn.
aji = σ(ai) , i = 1, 2, . . . , n .
Ponieważ σ jest bijekcją dolny wiersz jest przestawieniem elementów górnegowiersza.
2. W zapisie permutacji nie jest ważne jakie są elementy zbioru A, a jedynie ichporządek. Dlatego badając permutacje wystarczy rozważać zbiory indeksów
A = In = {1, 2, . . . , n} .
Dowolną permutację σ ∈ S(In) można zapisać w postaci
σ =
(1 2 . . . nj1 j2 . . . jn
)która jest wygodna szczególnie przy obliczaniu złożeń i permutacji odwrotnych.W notacji tej jednak górny wiersz jest właściwie zbędny bowiem cała istotnainformacja o σ zawarta jest w porządku elementów dolnego wiersza. Z tegopowodu stosuje się często zapis
σ = (j1, j2, . . . , jn) .
Definicja 3.8 Grupą symetryczną stopnia n nazywamy grupęsymetryczną zbioru In = {1, 2, . . . , n}. Oznaczamy ją symbolem Sn.
Przykład Rachunki na permutacjach zilustrujemy na przykładzie elementów grupyS4.
36
Składanie permutacji:
(2 4 3 1) (3 1 4 2) =
(1 2 3 42 4 3 1
)(1 2 3 43 1 4 2
)=
(1 2 3 43 2 1 4
)= (3 2 1 4)
Obliczanie permutacji odwrotnej
(2 4 3 1)−1 =
(1 2 3 42 4 3 1
)−1
=
(2 4 3 11 2 3 4
)=
(1 2 3 44 1 3 2
)= (4 1 3 4)
Twierdzenie 3.5 Sn jest grupą skończoną rzędu n!.
Definicja 3.9 Permutację σ ∈ Sn nazywamy permutacją cykliczną rzęduk lub cyklem k-wyrazowym jeżeli w zbiorze In istnieje podzbiór J ={j1, j2, . . . , jk} taki, że
σ(j1) = j2 , σ(j2) = j3 , . . . , σ(jk) = j1 ,
σ( i ) = i , dla i /∈ J .
Uwaga: Cykl k-wyrazowy oznaczamy symbolem
(j1, j2, . . . , jk) ,
pomijając elementy, które przechodzą na siebie.Przykłady:
1. Permutacja tożsamościowa (1, 2, . . . , n) jest cyklem rzędu jeden (np. J = {1}).
2. Permutacja
q1q3
?�����
�*q2q2
?
q3q5
?�����
�*q4q4
?
q5q1
?XXXXXX
XXXXXXy
q6q6
?
(1 2 3 4 5 63 2 5 4 1 6
)
37
jest cyklem 3-wyrazowym (1, 3, 5).
3. Permutacja
q1q2
?����
q2q1
?@@
@I
q3q5
?����
��*
q4q3
?@@@I
q5q6
?����
q6q4
?HHHH
HHY(
1 2 3 4 5 62 1 5 3 6 4
)
nie jest cyklem.
Twierdzenie 3.6 Dowolna permutacja σ ∈ Sn jest cyklem lub może być przed-stawiona w postaci złożenia cykli rozłącznych.
Dowód: (przez indukcję)
Dla n = 1 teza twierdzenia jest słuszna bowiem jedyna permutacja(
11
)∈ S1 jest
cyklem 1-wyrazowym. A zatem założenie początek indukcji jest spełnione.Wykażemy teraz, że drugie założenie twierdzenia o indukcji matematycznej – krok
idukcyjny jest spełnione, tzn zakładając, że teza jest słuszna dla wszystkich k 6 npokażemy, że jest ona słuszna także dla k = n+ 1.
Rozważmy dowolną permutację σ ∈ Sn+1:
σ =
(1 2 . . . n n+ 1j1 j2 . . . jn jn+1
)• Jeżeli j1 = 1 to permutacja σ jest całkowicie opisana przez permutację zbiorun-elementowego {2, . . . , n + 1}, a taką permutację na mocy założenia kroku in-dukcyjnego daje się rozłożyć na złożenie cykli rozłącznych. W tym przypadkuwięc permutacja σ rozkłada się na te same cykle rozłączne.
• Jeżeli j1 6= 1 to możemy zdefiniować ciąg
k0 = 1 ,
k1 = σ(k0) = σ(1) ,
k2 = σ(k1) = σ2(1) ,...
kn+1 = σ(kn) = σn+1(1) .
38
Ponieważ mamy tylko n+1 elementów to w ciągu tym musi natąpić powtórzenie.Załóżmy, że pierwsze powtórzenie pojawia się na miejscu r 6 n+ 1 tzn. istniejetaka liczba całkowita 0 6 s < r, że
kr = ks .
Pokażemy, że pierwszą powtarzającą się liczbą jest ks = 1, tzn. s = 0.
Załóżmy, że tak nie jest tzn. istnieje s > 0 takie, że
kr = ks ⇒ σ(kr−1) = σ(ks−1) .
Ale σ jest bijekcją, a zatem
σ(kr−1) = σ(ks−1) ⇒ kr−1 = ks−1 .
Ale to przeczy założeniu, że kr jest pierwszą liczbą, która się powtarza. Zatempierwsze powtórzenie, rzeczywiście jest jedynką:
kr = 1
a to oznacza, że liczbyk0, k1, . . . , kr−1
tworzą cykl r-wyrazowy τ . Możemy więc przedstawić σ jako złożenie
σ = τ ◦ σ1 .
cyklu τ i permutacji σ1, która jest tożsamościowa na zbiorze
{k0, k1, . . . , kr−1}
możemy ją więc traktować jako permutację zbioru n− r elementowego. Na mocyzałożenia kroku indukcyjnego takie permutacje możemy przedstawić jako złożeniecykli rozłącznych
σ1 = τ1 ◦ . . . ◦ τm .
Zatem złożeniem cykli rozłącznych jest także permutacja σ:
σ = τ ◦ τ1 ◦ . . . ◦ τm .
Wykazaliśmy, że spełnione są założenia Tw.2.9 o indukcji matematycznej, a więc namocy tego twierdzenia dla każdego n ∈ N dowolną permutację σ ∈ Sn możemy rozłożyćna cykle rozłączne c.b.d.o. •
39
Uwaga: Ostatni dowód przedstawiliśmy przesadnie starannie, żeby zilustrować struk-turę logiczną metody indukcyjnej. Zwykle poprzestajemy na sprawdzeniu obu założe-nie twierdzenia o indukcji, bowiem jego zastosowanie w sposób oczywisty wynika zkontekstu. Zwykle też, kolejne kroki dowodu przedstawiane są w bardziej lapidarnejpostaci z pominięciem bardziej oczywistych implikacji.Przykład: Korzystając z metody przedstawionej w dowodzie rozłożymy na cyklerozłączne następującą permutację
q1q3
?����
��*
q2q2
?
q3q6
?����
����
�1q4q8
?������
������:
q5q1
?XXXXXX
XXXXXXy
q6q4
?HHHH
HHY
q7q10
?����
����
�1q8q5
?PPPP
PPPP
Piq9q7
?HHHH
HHY
q10
q11
?����
q11
q9
?HHHH
HHY
(1 2 3 4 5 6 7 8 9 10 113 2 6 8 1 4 10 5 7 11 9
)= (1, 3, 6, 4, 8, 5) ◦ (7, 10, 11, 9)
Definicja 3.10 Cykl 2-wyrazowy nazywamy transpozycją.
Twierdzenie 3.7 Dowolną permutację σ ∈ Sn, n > 1 można przedstawić jakozłożenie pewnej liczby transpozycji.
Dowód: Na mocy Tw.3.6 wystarczy pokazać, że każdy cykl daje się przedstawić jakozłożenie transpozycji. Udowodnimy przez indukcję, że dla dowolnego cyklu zachodzinastępujący rozkład
(j1, j2, . . . , jk) = (j1, j2) ◦ (j2, j3) ◦ . . . ◦ (jk−2, jk−1) ◦ (jk−1, jk)
Dla k = 2 rozkład ten jest oczywisty. Załóżmy, że jest on prawdziwy dla cykli k-wyrazowych. Wtedy dla cyklu (k + 1)-wyrazowego mamy
(j1, j2, . . . , jk, jk+1) =
=
(. . . j1 . . . j2 . . . jk . . . jk+1 . . .. . . j2 . . . j3 . . . jk+1 . . . j1 . . .
)=
(. . . j1 . . . j2 . . . jk . . . jk+1 . . .. . . j2 . . . j3 . . . j1 . . . jk+1 . . .
)◦ (jk, jk+1)
= (j1, j2, . . . , jk) ◦ (jk, jk+1)
= (j1, j2) ◦ (j2, j3) ◦ . . . ◦ (jk−2, jk−1) ◦ (jk−1, jk) ◦ (jk, jk+1)
gdzie w ostatniej równości skorzystaliśmy z założenia kroku indukcyjnego. •
40
Uwaga:Rozkład permutacji na iloczyn transpozycji nie jest jednoznaczny. Np.(
1 2 3 4 52 5 4 3 1
)= (3, 4) ◦ (1, 5) ◦ (1, 2)
= (1, 3) ◦ (3, 4) ◦ (4, 5) ◦ (2, 4) ◦ (1, 4)
Istotnie zapisując wyniki kolejnych złożeń mamy
↓ 1 2 3 4 5↓ 2 1 3 4 5↓ 2 5 3 4 1
2 5 4 3 1
=
↓ 1 2 3 4 5↓ 4 2 3 1 5↓ 2 4 3 1 5↓ 2 5 3 1 4↓ 2 5 4 1 3
2 5 4 3 1
Twierdzenie 3.8 Transpozycja (i, j) jest złożeniem 2(j − i) − 1 transpozycjiliczb bezpośrednio po sobie następujących.
Dowód: Dowolną transpozycję
(i, j) =
(. . . i i+ 1 . . . j − 1 j . . .. . . j i+ 1 . . . j − 1 i . . .
)możemy przedstawić jako złożenie permutacji
(i, j) = σ1 ◦ σ2
gdzie permutacja
σ1 =
(. . . i i+ 1 . . . j − 1 j . . .. . . j i . . . j − 2 j − 1 . . .
)= (j − 1, j) ◦ (j − 2, j − 1) ◦ . . . ◦ (i+ 1, i+ 2) ◦ (i, i+ 1)︸ ︷︷ ︸
j−i transpozycji
”przestawia“ liczbę j na miejsce i-te, a liczby i, i + 1, . . . , j − 1 ”przesuwa“ o jednomiejsce w prawo, a permutacja
σ2 =
(. . . i i+ 1 . . . j − 1 j . . .. . . i i+ 2 . . . j i+ 1 . . .
)= (i+ 1, i+ 2) ◦ (i+ 2, i+ 3) ◦ . . . ◦ (j − 2, j − 1) ◦ (j − 1, j)︸ ︷︷ ︸
j−i−1 transpozycji
41
”przestawia“ liczbę i+ 1 na miejsce j-te, a liczby i+ 2, i+ 3, . . . , j ”przesuwa“ o jednomiejsce w lewo. •
Definicja 3.11 Niech σ ∈ Sn, n > 1. Mówimy, że liczby jr, js tworzą inwer-sję w permutacji
σ =
(. . . r . . . s . . .. . . jr . . . js . . .
)jeśli r < s i jr > js.
Definicja 3.12 Permutację σ ∈ Sn, n > 1 nazywamy parzystą jeśli zawieraparzystą liczbę inwersji i nieparzystą gdy liczba jej inwersji jest nieparzysta.Dla n = 1 jedyną permutację (1) ∈ S1 określimy jako parzystą.
Twierdzenie 3.9 Niech (r, s) będzie transpozycją w Sn, n > 1. Dla dowolnejpermutacji σ ∈ Sn permutacje σ i σ ◦ (r, s), oraz permutacje σ i (r, s)◦σ różniąsię parzystością.
Dowód:Udowodnimy twierdzenie najpierw dla transpozycji postaci (r, r+1), 0 < r < n. Niechσ ∈ Sn będzie dowolną permutacją, wtedy
σ ◦ (r, r + 1) =
(. . . r r + 1 . . .. . . jr jr+1 . . .
)◦ (r, r + 1)
=
(. . . r r + 1 . . .. . . jr jr+1 . . .
)◦(
1 . . . r r + 1 . . . n1 . . . r + 1 r . . . n
)=
(. . . r r + 1 . . .. . . jr+1 jr . . .
)Jeśli jr, jr+1 tworzyły inwersję w permutacji σ to jr+1, jr już jej nie tworzą i na odwrót.Ponieważ pozostałe inwersje nie ulegają zmianie liczba wszystkich inwersji zmienia sięna skutek złożenia z transpozycją (r, r + 1) o jeden.
Na mocy Tw.3.8 każda transpozycja jest złożeniem nieparzystej liczby transpozycjitypu (r, r + 1) a zatem złożenie jej (z prawej strony) z permutacją σ zmienia liczbęinwersji o liczbę nieparzystą.
Dowód dla złożenia z lewej strony przebiega podobnie. •
Wniosek 3.1 Iloczyn m transpozycji jest permutacją o parzystości równejparzystości liczby m.
42
Wniosek 3.2 W każdym rozkładzie permutacji na złożenie transpozycjiparzystość liczby czynników jest taka sama i równa parzystości permutacji.
Definicja 3.13 Znakiem permutacji σ nazywamy liczbę
sgn(σ) =
{1 gdy σ jest parzysta−1 gdy σ jest nieparzysta
Wniosek 3.3
∀ σ, σ′ ∈ Sn : sgn(σ ◦ σ′) = sgn(σ)sgn(σ′)
Wniosek 3.4 W każdym rozkładzie permutacji na złożenie transpozycjiparzystość liczby czynników jest taka sama i równa parzystości permutacji.
Definicja 3.14 Znakiem permutacji σ nazywamy liczbę
sgn(σ) =
{1 gdy σ jest parzysta−1 gdy σ jest nieparzysta
Wniosek 3.5
∀ σ, σ′ ∈ Sn : sgn(σ ◦ σ′) = sgn(σ)sgn(σ′)
3.4 Podgrupy
Definicja 3.15 Niech (G, �) bedzie grupą. Niepusty podzbiór H zbioru G nazy-wamy podgrupą grupy G jeżeli
i. �(H ×H) ⊂ H;
ii. (H, �|H×H) jest grupą gdzie �|H×H oznacza zawężenie działania � dozbioru H ×H:
�|H×H : H ×H 3 (a, b)→ a � b ∈ H .
Jeśli H jest podgrupą grupy (G, �) to piszemy (H, �) ⊂ (G, �).
43
Uwagi:
1. Element neutralny eH podgrupy H ⊂ G jest identyczny z elementem neutralnymeG całej grupy G. Rzeczywiście, ponieważ G jest grupą to istnieje w G elementodwrotny e−1
H do eH , w szczególności:
eG = eH � e−1H .
Ponieważ eH elementem neutralnym w H to eH = eH � eH , a zatem
eG = (eH � eH) � e−1H = eH � (eH � e−1
H ) = eH � eG .
Ale eG jest elementem neutralnym w G, więc
eG = eH � eG = eH .
2. Z poprzedniej uwagi wynika, że
eH = a � a−1 = a−1 � a = eG ,
a więc element odwrotny do a w grupie H jest elementem odwrotnym do a wgrupie G i odwrotnie.
Twierdzenie 3.10 Niepusty podzbiór H ⊂ G grupy (G, �) jest podgrupą wtedyi tylko wtedy gdy
i. ∀a, b ∈ H : a � b ∈ H ;
ii. ∀a ∈ H : a−1 ∈ H .
Dowód: To, że oba warunki są konieczne wynika wprost z definicji podgrupy. Pokażemy,że są one także dostateczne.
Warunek i jest identyczny z pierwszym warunkiem definicji, a więc obcięcie działa-nia � do podzbioru H definiuje w nim działanie łączne. Warunek ii oznacza, że dlakażdego a ∈ H także a−1 ∈ H. Wtedy z i wynika, że a � a−1 = e ∈ H. •
Uwaga:Podzbiory {e} ⊂ G i G ⊂ G są podgrupami grupy (G, �).
Definicja 3.16 Podgrupy {e} ⊂ G i G ⊂ G nazywamy niewłaściwymi pod-grupami grupy (G, �). Wszystki inne podgrupy grupy (G, �) nazywamy pod-grupami właściwymi.
Przykłady:
44
1. (Z,+) ⊂ (Q,+) ⊂ (R,+)
2. (Q \ {0}, ·) ⊂ (R \ {0}, ·)
3. W grupie izometrii trójkąta równobocznego obroty {R0, R1, R2} tworzą pod-grupę. Podgrupami są także podzbiory {R0, S1}, {R0, S2}, {R0, S3}. Są towszystkie podgrupy właściwe tej grupy.
4. Pozbiór An permutacji parzystych grupy symetrycznej Sn stopnia n jest pod-grupą. Grupę tę nazywamy grupą alternującą stopnia n.
Twierdzenie 3.11 Niech (H, �) będzie podgrupą grupy (G, �). Relacja Rokreślona w G wzorem
aRb⇔ a � b−1 ∈ H
jest relacją równoważności.
Dowód:i. Zwrotność. Dla każdego a ∈ G
a � a−1 = e ∈ H ⇒ aRa .
ii. Symetryczność. Dla dowolnych dwóch elementów a, b ∈ G:
aRb ⇒ a � b−1 ∈ H ⇒(a � b−1
)−1= b � a−1 ∈ H ⇒ bRa .
ii. Przechodniość. Dla dowolnych trzech elementów a, b, c ∈ G:
(aRb ∧ bRa) ⇒ (a � b−1 ∈ H ∧ b � c−1 ∈ H)
⇒ a � b−1 � b � c−1 = a � c−1 ∈ H ⇒ aRc .
•Definicja 3.17 Ilorazem grupy (G, �) przez podgrupę (H, �) ⊂ (G, �)nazywamy zbiór G/H klas abstrakcji relacji R, określonej w G wzorem
aRb⇔ a � b−1 ∈ H .
Klasę abstrakcji [ a ]R elementu a ∈ G względem tej relacji nazywamy warstwąprawostronną elementu a i oznaczamy symbolem Ha.
45
Uwaga: Nazwa „warstwa prawostronna” oraz oznaczenie Ha mają następujące uza-sadnienie:
[ a ]R = {b ∈ G : bRa} =
= {b ∈ G : b � a−1 ∈ H}= {b ∈ G : ∃c ∈ H : b = c � a} = Ha .
Twierdzenie 3.12 Niech (H, �) będzie podgrupą grupy (G, �). Klasy ab-strakcji relacji R:
aRb⇔ a � b−1 ∈ H
są równoliczne.
Dowód: Zgodnie z Def.2.17 wystarczy wykazać, że dla dowolnego a ∈ G istniejebijekcjia fa : [ e ]R = H → [ b ]R = Ha. Rozważmy odwzorowanie
fa : H 3 b→ b � a ∈ Ha .
Z definicji tego przekształcenia wynika, że jest suriekcją. Załóżmy, że fa(b) = fa(c) dlab, c ∈ H wtedy z definicji fa:
b � a = c � a
skąd, mnożąc obustronnie przez a−1 otrzymujemy b = c. Zatem fa jest także injekcją,co kończy dowód. •
Twierdzenie 3.13 Lagrange’a Rząd podgrupy grupy skończonej jest podziel-nikiem rzędu grupy.
Dowód: Niech (G, �) będzie skończona i niech (H, �) ⊂ (G, �). Z zasady abstrakcji(Tw.2.5) wynika, że zbiór G jest rozłączną sumą warstw
G = H ∪Ha1 ∪ . . . ∪Han−1
Ale wszystkie warstwy są równoliczne, a zatem
rankG = n× rankH . •
46
3.5 Dzielnik normalny i grupa ilorazowa
Definicja 3.18 Podgrupę (H, �) grupy (G, �) nazywamy podgrupą niezmi-enniczą, lub dzielnikiem normalnym grupy G jeżeli
∀a ∈ G : aHa−1 = H
gdzieaHa−1 = {g ∈ G : ∃ b ∈ H : g = a � b � a−1} .
Uwaga: Żeby pokazać, że H jest podgrupą niezmienniczą wystarczy wykazać, że
∀a ∈ G : aHa−1 ⊂ H .
Istotnie z warunku tego wynika, że
∀a ∈ G :(a−1)H(a−1)−1 ⊂ H ,
a więc∀a ∈ G : H ⊂ aHa−1 .
Przykłady:
1. Dla dowolnej grupy (G, �) jej podgrupy niewłaściwe {e} i G są podgrupaminiezmienniczymi.
2. W grupie abelowej każda podgrupa jest niezmiennicza.
3. Rozważmy grupę symetryczną stopnia n Sn i grupę alternującą An jako jej pod-grupę. Dla dowolnych permutacji σ ∈ Sn, τ ∈ An mamy
sgn(σ ◦ τ ◦ σ−1) = sgn(σ)sgn(τ)sgn(σ−1)
= sgn(σ)2sgn(τ) = sgn(τ) .
Zatem∀σ ∈ Sn : σAnσ−1 ⊂ {A}
a więc An jest podgrupą niezmienniczą grupy Sn.
4. H = {(123), (132)} jest podgrupą grupy symetrycznej S3, ale nie jest podgrupąsymetryczną. Rzeczywiście dla transpozycji σ = (12), τ = (23) mamy
σ ◦ τ ◦ σ−1 =
(1 2 32 1 3
)(1 2 31 3 2
)(1 2 32 1 3
)=
(1 2 33 2 1
)∈/ H .
47
Definicja 3.19 Niech (G, �) będzie grupą, a ∼ relacją w zbiorze G. Mówimy,że relacja ∼ jest zgodna z działaniem � jeżeli
∀ a, b, c, d ∈ G : (a ∼ b ∧ c ∼ d)⇒ a � c ∼ b � d .
Twierdzenie 3.14 Niech (H, �) będzie podgrupą grupy (G, �). Relacja Rokreślona w zbiorze G wzorem
aRb ⇔ a � b−1 ∈ H ,
jest zgodna z działaniem � wtedy i tylko wtedy gdy H jest podgrupą niezmien-niczą.
Dowód:⇐. Niech (H, �) będzie podgrupą niezmienniczą. Wtedy
aRb ⇔ a � b−1 = g ∈ HcRd ⇔ c � d−1 = h ∈ H
A zatem istnieją takie elementy g, h ∈ H, że
a = g � b , c = h � da � c = (g � b) � (h � d) = g � (b � h � b−1) � b � d
a � c � (b � d)−1 = g � (b � h � b−1) .
Ponieważ (H, �)jest podgrupą niezmienniczą to b � h � b−1 ∈ H, a więc także
a � c � (b � d)−1 ∈ H
i a � cR b � d.⇒. Niech R będzie zgodna z działaniem �. Dla dowolnych a ∈ G, h ∈ H mamy więc
(aRa ∧ hRe) ⇒ a � hRa � e ⇒ a � hRa ⇒ a � h � a−1 ∈ H .
A zatem∀ a ∈ G : aHa−1 ⊂ H •
Twierdzenie 3.15 Niech (G, �) będzie grupą, a R relacją na zbiorze G zgodnąz działaniem �. Wtedy istnieje podgrupa niezmiennicza (H, �) grupy (G, �)taka, że
∀ a, b ∈ G : aRb ⇔ a � b−1 ∈ H .
48
Dowód: Pokażemy, że zbiór
H = {a ∈ G : aRe}
jest podgrupą (G, �).i Niech a, b ∈ H, wtedy aRe i bRe, a ponieważ R jest zgodna z działaniem � to
(aRe ∧ bRe) ⇒ a � bRe ⇒ a � b ∈ H .
Zatem �(H ×H) ⊂ H.ii Jeżeli a ∈ H to aRe. Ale R jest relacją zwrotną więc a−1Ra−1 i ponieważ jestzgodna z �, to
a � a−1Ra−1 ⇒ eRa−1 ⇒ a−1 ∈ H .
Pokażemy teraz, że∀ a, b ∈ G : aRb ⇔ a � b−1 ∈ H .
⇒ Niech aRb, ponieważ R jest zwrotna to b−1Rb−1 i
(aRb ∧ b−1Rb−1) ⇒ a � b−1Re ⇔ a � b−1 ∈ H .
⇐ Niech a � b−1 ∈ H. Wtedy, korzystając ze zwrotności relacji R i jej zgodności z �
a � b−1Re ⇒ aRb .
To, że podgrupa H jest niezmiennicza wynika z Tw.3.14. •
Twierdzenie 3.16 Niech (H, �) będzie podgrupą niezmienniczą grupy (G, �).Odwzorowanie
◦ : G/H ×G/H 3 (Ha,Hb)→ Ha ◦Hb = H(a � b) ∈ G/H
jest dobrze określonym działaniem w ilorazie G/H. Iloraz G/H z działaniem◦ jest grupą.
Dowód: Zgodnie z Def.3.16 G/H jest zbiorem warstw prawostronnych – klas ab-strakcji relacji R:
aRb ⇔ a � b−1 ∈ H .
Pokażemy, że definicja działania na warstwach
[ a ]R ◦ [ b ]R = [ a � b ]R
49
jest dobrze określona, tzn. nie zależy od wyboru reprezentanta w każdej z warstw.Niech a′ ∈ [ a ]R i b′ ∈ [ b ]R będą dowolnymi reprezentantami warstw Ha = [ a ]R,Hb = [ b ]R. Ponieważ R jest zgodna z działaniem � otrzymujemy
(a′ ∈ [ a ]R ∧ b′ ∈ [ b ]R) ⇔ (a′Ra ∧ b′Rb)⇒ a′ � b′Ra � b⇔ [ a′ � b′ ]R = [ a � b ]R .
Wykażemy, że (G/H, ◦) jest grupą.i Działanie ◦ w G/H jest łączne.
Ha ◦ (Hb ◦Hc) = Ha ◦H(b � c) = H(a � (b � c))= H((a � b) � c) = H(a � b) ◦Hc= (Ha ◦Hb) ◦Hc .
ii Elementem neutralnym jest warstwa He = H:
∀ a ∈ G : He ◦Ha = Ha = Ha ◦He .
iii Elementem odwrotnym do warstwy Ha jest warstwa (Ha)−1 = Ha−1:
Ha−1 ◦Ha = Ha ◦Ha−1 = He . •
Definicja 3.20 Grupę (G/H, ◦) o której mowa w Tw.3.16 nazywamy grupąilorazową grupy G przez podgrupę niezmienniczą H.
Uwagi:
1. Twierdzenie 3.16 dostarcza uzasadnienia dla terminu dzielnik normalny, uży-wanego czasem na określenie podgrupy niezmienniczej.
2. Iloraz grupy przez podgrupę i grupa ilorazowa to dwa różne pojęcia. Pierwsze znich oznacza zbiór warstw i istnieje dla dowolnej podgrupy, drugie oznacza zbiórwarstw z określonym w nim działaniem grupowym i istnieje tylko w przypadkupodgrup niezmienniczych.
50
3.6 Homomorfizmy grup
Definicja 3.21 Odwzorowanie h : G → H grupy (G, �) w grupę (H, •) nazy-wamy homomorfizmem grup (lub krótko homomorfizmem ) jeżeli
∀ a, b ∈ G : h(a � b) = h(a) • h(b) .
Homomorfizmy nazywamy monomorfizmem jeśli jest injekcją, epimor-fizmem jeśli jest suriekcją i izomorfizmem jeśli jest bijekcją.
Przykład: Dla n > 0 odwzorowanie
h : Sn 3 σ → sgn(σ) ∈ {−1, 1}
jest epimorfizmem. Jest ono monomorfizmem tylko dla n = 2.
Definicja 3.22 Grupę (G, �) nazywamy izomorficzną z grupą (H, •) jeżeli ist-nieje izomorfizm grup h : G→ H.
Twierdzenie 3.17 Relacja ∼ określona w zbiorze wszystkich grup wzorem
G ∼ H ⇔ G jest izomorficzna z H
jest relacją równoważności.
Uwaga: Relacja, o której mowa w twierdzeniu dzieli zbiór wszystkich grup na rozłączneklasy grup ze sobą izomorficznych. Z punktu widzenia własności algebraicznych grupyizomorficzne niczym się nie różnią.
Twierdzenie 3.18 Jeśli h : G→ H jest homomorfizmem grup to
i. h(eG) = eH ;
ii. ∀ a ∈ G : h (a−1) = (h(a))−1 .
Definicja 3.23 Jądrem homomorfizmu grup h : G→ H nazywamy zbiór
kerh = {a ∈ G : h(a) = eH} .
Obrazem homomorfizmu grup h : G→ H nazywamy zbiór
imh = {b ∈ H : ∃ a ∈ G : b = h(a)} .
51
Twierdzenie 3.19 Obraz homomorfizmu grup h : G→ H jest podgrupą grupyH, a jego jądro jest podgrupą niezmienniczą grupy G.
Twierdzenie 3.20 Niech (G, �) będzie grupą, a (H, �) jej podgrupą niezmien-niczą. Odwzorowanie
π : G 3 a→ Ha ∈ G/H
jest epimorfizmem grup.
Dowód: Wynika natychmiast z definicji działania grupowego w przestrzeni warstw:
∀ a, b ∈ G : π(a � b) = H(a � b) = Ha ◦Hb = π(a) ◦ π(b) . •
Definicja 3.24 Epimorfizm π, o którym mowa w Tw.3.20 nazywamy homo-morfizmem kanonicznym grupy G na grupę ilorazową G/H.
Twierdzenie 3.21 ( o homomorfizmie grup )Niech h : G → H będzie epimorfizmem grupy (G, �) na grupę (H, ◦). Wtedyodwzorowanie
i : G/kerh 3 [ a ]→ h(a) ∈ H
jest izomorfizmem grup. Ponadto następujący diagram jest przemienny
Gh
H
π
G/kerh
i
-
�����>
?
gdzie π jest izomorfizmem kanonicznym.
Uwaga: Przemienność diagramu oznacza, że różne drogi wyznaczone strzałkami sąrównoważne. W przypadku diagramu z Tw.3.21 mamy dwie możliwe drogi i przemi-enność oznacza, że
h = i ◦ π .
Dowód: Z definicji ilorazu grupy przez podgrupę, elementami zbioru G/kerh są klasyabstrakcji [ a ], relacji
aRa′ ⇔ a � a′−1 ∈ kerh ,
52
a więc[ a ] =
{a′ ∈ G : a′ � a−1 ∈ kerh
}.
Ponieważ
a′ � a−1 ∈ kerh⇔ h(a′ � a−1) = h(a′) ◦ h(a)−1 = eH ⇔ h(a′) = h(a)
to[ a ] = {a′ ∈ G : h(a′) = h(a)} .
A zatem odwzorowaniei : G/kerh 3 [ a ]→ h(a) ∈ H
jest dobrze określone.Niech b ∈ H. Ponieważ h : G → H jest suriekcją to istnieje takie a ∈ G takie, że
h(a) = b. Ale wtedy i([ a ]) = h(a) = b, a więc także i : G/kerh→ H jest suriekcją.Na mocy Tw.3.19 kerh jest podgrupą niezmienniczą a zatem, dla dowolnych ele-
mentów a, a′ ∈ G[ a ] ◦ [ a′ ] = [ a � a′ ] .
Ponieważ h : G→ H jest homomorfizmem grup, to
i([ a ] ◦ [ a′ ]) = i([ a � a′ ]) = h(a � a′) = h(a) ◦ h(a′) = i([ a ]) ◦ i([ a′ ])
dla dowolnych [ a ], [ a′ ] ∈ G/kerh, co oznacza, że i : G/kerh→ H jest homomorfizmemgrup.
Załóżmy, że i([ a ]) = i([ a′ ]). Wtedy h(a) = h(a′) i [ a ] = [ a′ ], co oznacza, że i :G/kerh→ H jest injekcją. Wcześniej pokazaliśmy, że i jest suriekcją i homomorfizmemgrup, a więc i jest izomorfizmem.
Z konstrukcji odwzorowania i : G/kerh → H wynika bezpośrednio ∀ a ∈ G :h(a) = i ◦ π(a) co kończy dowód. •
Twierdzenie 3.22 ( Cayleya )Każda grupa (G, �) jest izomorficzna z podgrupą S(G).
Dowód: Dla dowolnego a ∈ G rozważmy odwzorowanie
φa : G 3 b→ φa(b) = a � b ∈ G .
Łatwo sprawdzić, że φa jest bijekcją grupy G na siebie, jest więc elementem grupysymetrycznej S(G).
Pokażemy, że odwzorowanie
Φ : G ∈ a→ φa ∈ S(G)
53
jest homomorfizmem grup. Dla dowolnych elementów a, b, c ∈ G mamy
φa ◦ φb(c) = φa(b � c) = a � b � c = φa�b(c) ,
a zatemΦ(a � b) = φa�b = φa ◦ φb = Φ(a) ◦ Φ(b) .
Odwzorowanie Φ jest także iniekcją. Istotnie, niech Φ(a) = Φ(b) wtedy φa = φb iw szczególności φa(e) = φb(e), skąd a = b.
Zatem Φ jest izomorfizmem grupy G na podgrupę im Φ ⊂ S(G). •
Wniosek 3.6 Każda grupa skończona rzędu n jest izomorficzna z podgrupągrupy Sn.
4 Ciała
4.1 Definicja
Definicja 4.1 Niech K będzie zbiorem zawierającym co najmniej dwa ele-menty. Trójkę (K,+, ·), gdzie + i · są działaniami w K nazywamy ciałemjeżeli spełnione są następujące warunki:
i. (K,+) jest grupą abelową;
ii. (K \ {0}, ·), gdzie 0 jest elementem neutralnym działania +, jest grupąabelową;
iii. mnożenie jest rozdzielne względem dodawania
∀α, β, γ ∈ K : α · (β + γ) = α · β + α · γ .
Uwaga: Działania + i · przyjęło się nazywać, odpowiednio, dodawaniem i mnoże-niem. W ślad za tym idą zwyczajowe oznaczenia elementów neutralnych: 0 – dlaelementu neutralnego względem dodawania i 1 – dla elementu neutralnego względemmnożenia. Zwyczajowo też pomijamy znak · w iloczynie, tzn. α · β ≡ αβ.
Przykłady:
1. (Q,+, ·) – zbiór liczb wymiernych z dodawaniem i mnożeniem jest ciałem.
2. (R,+, ·) – zbiór liczb rzeczywistych z dodawaniem i mnożeniem jest ciałem.
54
Twierdzenie 4.1 Niech (K,+, ·) będzie ciałem. Wtedy:
i. ∀α ∈ K : 0 · α = 0 ;
ii. ∀α ∈ K : (−1) · α = −α ;
iii. α · β = 0 ⇒ (α = 0 ∨ β = 0).
Dowód:i. Korzystając z rozdzielności mnożenia względem dodawania, mamy
0 · α = (0 + 0) · α = 0 · α + 0 · α ,
skąd, dodając do obu stron −0 · α otrzymujemy 0 = 0 · α.ii. Korzystając z rozdzielności
α + (−1) · α = 1 · α + (−1) · α = (1 + (−1)) · α = 0 · α = 0 ,
skąd (−1) · α = −α.iii. Niech α · β = 0. Jeśli α = β = 0 to implikacja jest prawdziwa. Załóżmy że α 6= 0.Wtedy
β = 1 · β = (α−1 · α) · β = α−1 · (α · β) = α−1 · 0 = 0 . •
Definicja 4.2 Podzbiór L ⊂ K ciała (K,+, ·) nazywamy podciałem ciałaK jeżeli z działaniami +, · zawężonymi do L jest ciałem, tzn. jeżeli trójka(L,+|L, ·|L) jest ciałem.
Twierdzenie 4.2 Podzbiór L ⊂ K ciała (K,+, ·) jest podciałem jeżeli
i. L jest podgrupą grupy (K,+);
ii. L \ {0} jest podgrupą grupy (K \ {0}, ·).
Przykład: Q jest podciałem ciała R.
Definicja 4.3 Odwzorowanie h : K→ L ciała (K,+, ·) w ciało (L,+, ·) nazy-wamy homomorfizmem ciał (lub krótko homomorfizmem ) jeżeli
i. ∀ α, β ∈ K : h(α + β) = h(α) + h(β) ;
ii. ∀ α, β ∈ K : h(αβ) = h(α)h(β) .
Homomorfizmy ciał nazywamy monomorfizmem jeśli jest injekcją, epimor-fizmem jeśli jest suriekcją i izomorfizmem jeśli jest bijekcją.
55
Definicja 4.4 Ciało (K,+, ·) nazywamy izomorficznym z ciałem (L,+, ·)jeżeli istnieje izomorfizm ciał h : K→ L.
4.2 Rozwiązywanie równań i rozszerzanie ciała liczb rzeczy-wistych.
Równanie algebraicznex2 = 2
nie ma rozwiązań w zbiorze Q liczb wymiernych. Ma jednak rozwiązania
x = ±√
2
w zbiorze R liczb rzeczywistych.To jeden z powodów dla których potrzebne są nam liczby niewymierne. Rozszerze-
nie ciała liczb wymiernych do ciała liczb rzeczywistych pozwala na rozwiązanie równańpostaci
xn = b , n ∈ N ,
pod warunkiem, że b > 0. Co wiemy o rozwiązaniach, gdy b < 0? Rozważmy najprost-szy przykład takiego równania
x2 = −1 .
Na pewno nie ma rozwiązań w zbiorze R liczb rzeczywistych.
Problem:Czy istnieje rozszerzenie zbioru liczb rzeczywistych takie, w którym istniejerozwiązanie równania x2 = −1 i w którym podstawowe własności dodawaniai mnożenia, a więc struktura ciała, są zachowane?
Wyprowadzimy teraz konieczne własności takiego rozszerzenia, a w następnym po-drozdziale pokażemy, że rozszerzenie o żądanych własnościach istnieje.
• krok I Oznaczmy przez i rozwiązanie równania x2 = −1, tzn.
ii = −1 .
Oczywiście i /∈ R. Musimy więc dołączyć do R nową liczbę i. Zastanówmy sięczym jest iloczyn liczby i i dowolnej liczb rzeczywistej a. Ponieważ w poszuki-wanym rozszerzeniu życzymy sobie struktury ciała to z przemienności i łącznościmnożenia mamy
ia = ai oraz (ia)2 = −a2 < 0 ,
56
a więc ia /∈ R. Musimy zatem dołączyć do R wszystkie liczby postaci
ia , a ∈R , a 6= 0 .
(Element i0 = 0 już istnieje w R.)
• krok II Dodawanie nowych liczb postaci ia, a ∈ R jest jednoznacznie określonepoprzez prawo rozdzielności mnożenia:
ia+ ib = i(a+ b) .
Zbadamy czy suma a + ib, gdzie a, b ∈ R, jest nowym elementem rozszerzenia.Rozważmy równość
a+ ib = c+ ib .
Korzystając z własności działań w ciele otrzymujemy
(a− c) = i(d− b) ⇔ (a− c)2 = −(d− b)2 ⇔ (a = c ∧ d = b) .
A zatem liczba postaci a + ib jest liczbą rzeczywistą tylko wtedy gdy b = 0 iliczbą typu ib tylko wtedy gdy a = 0. Poszukiwane rozszerzenie musi zawieraćzbiór
C = {a+ ib : a, b ∈ R} .
• krok III Sprawdzimy, czy zbiór znaleziony w poprzednim kroku jest zamkniętyze względu na dodawanie i mnożenie.
Niech a + ib, c + id ∈ C. Korzystając z łączności dodawania i rozdzielnościmnożenia mamy
(a+ ib) + (c+ id) = (a+ c) + i(c+ d) ∈ C ,
a więc dodawanie nie wyprowadza poza zbiór C. W przypadku mnożenia mamy
(a+ ib)(c+ id) = ac+ ibid+ ibc+ icd
= (ac− bd) + i(bc+ ad) ∈ C ,
a więc nie wyprowadza ono poza C.
4.3 Ciało liczb zespolonych
Twierdzenie 4.3 Zbiór C = R×R z dodawaniem, określonym na elementach(a, b), (c, d) ∈ C wzorem:
(a, b) + (c, d) = (a+ b, c+ d)
jest grupą abelową.
57
Dowód: Wprost z definicji wynika, że dodawanie jest dobrze określone i przemienne.i. Łączność dodawania w C wynika z łączności dodawania w R.ii. Elementem neutralnym względem dodawania w C jest (0, 0).iii. Dla każdego elementu (a, b) ∈ C istnieje element odwrotny względem dodawania−(a, b) = (−a,−b) ∈ C. •
Twierdzenie 4.4 Zbiór C∗ = C\{0} z mnożeniem, określonym na elementach(a, b), (c, d) ∈ C∗ wzorem:
(a, b)(c, d) = (ac− bd, ad+ bc)
jest grupą abelową.
Dowód: Wprost z definicji wynika, że mnożenie jest dobrze określone i przemienne.i. Łączność sprawdzamy bezpośrednio
((a, b)(c, d)) (e, f) = (ac− bd, ad+ bc)(e, f)
= ((ac− bd)e− (ad+ bc)f, (ac− bd)f + (ad+ bc)e)
= (ace− bde− adf − bcf, acf − bdf + ade+ bce)
(a, b)((c, d)(e, f)) = (a, b)(ce− df, cf + de)
= (a(ce− df)− b(cf + de), a(cf + de) + b(ce− df))
= (ace− adf − bcf − bde, acf + ade+ bce− bdf)
ii. Elementem neutralnym jest (1, 0):
(1, 0)(a, b) = (1a− 0b, 1b+ 0a) = (a, b) .
iii. Element odwrotny (x, y) do elementu (a, b) 6= (0, 0) względem mnożenia spełniarównanie
(a, b)(x, y) = (ax− by, ay + bx) = (1, 0) .
Skąd otrzymujemy układ równań{ax− by = 1
bx+ ay = 0 .
Załóżmy, że a 6= 0. Wtedy układ ten można rozwiązać następująco{ax+ b2
ax = 1
y = − bax⇔
{a2x+ b2x = a
y = − bax⇔
{x = a
a2+b2
y = −ba2+b2
58
Łatwo sprawdzić, że w przypadku b 6= 0 otrzymujemy identyczne rozwiązanie. Pokazal-iśmy więc, że dla dowolnego (a, b) ∈ C∗ element odwrotny istnieje i zadany jest wzorem
(a, b)−1 =
(a
a2 + b2,−b
a2 + b2
). •
Wniosek 4.1 Zbiór C = R× R wraz z działaniami:
(a, b) + (c, d) = (a+ c, b+ d)
(a, b) · (c, d) = (ac− bd, ad+ bc)
jest ciałem.
Definicja 4.5 Ciało o którym mowa we Wniosku 4.1 nazywamy ciałem liczbzespolonych.Wyróżniony element tego ciała (0, 1) ∈ C nazywamy jednostką urojoną ioznaczamy symbolem
i = (0, 1) .
Uwaga:Tak jak w ciele liczb rzeczywistych dzielenie liczby zespolonej z przez liczbę ze-
spoloną w jest rozumiane jako mnożenie z przez liczbę odwrotną do w względem mnoże-nia:
z
w= zw−1 .
W szczególności1
w= w−1 .
Twierdzenie 4.5 Podzbiór R = {(a, 0) : a ∈ R} ⊂ C jest podciałem ciałaliczb zespolonych izomorficznym z ciałem liczb rzeczywistych.
Dowód: Ponieważ, dla dowolnych liczb rzeczywistych a, b ∈ R:
(a, 0) + (b, 0) = (a+ b, 0)
(a, 0) · (b, 0) = (ab, 0)
to podzbiór R jest zamknięty ze względu na dodawanie i mnożenie liczb, a więc jestpodciałem ciała liczb zespolonych. Z przytoczonych własności wynika także, że bijekcja
R 3 a→ (a, 0) ∈ R
jest homomorfizmem ciała R na podciało R, a więc jest izomorfizmem ciał. •Uwagi:
59
1. Przy pomocy izomorfizmu
R 3 a→ (a, 0) ∈ R
będziemy utożsamiać ciało liczb rzeczywistych R z podciałem R. Zgodnie z tymutożsamieniem ciało liczb rzeczywistych będziemy traktować jako podciało liczbzespolonych R ⊂ C.
2. Każdą liczbę zespoloną z = (a, b) ∈ C można zapisać w postaci
z = (a, b) = (a, 0) + (0, b) = (a, 0) + (0, 1)(b, 0) = a+ ib .
gdzie skorzystaliśmy z utożsamienia a = (a, 0), b = (b, 0). Powtarzając rozu-mowanie z poprzedniego podrozdziału (krok II) łatwo wykazać, że rozkład tenjest jednoznaczny tzn.
a+ ib = c+ id ⇔ (a = c ∧ b = d) .
Definicja 4.6 Niech z ∈ C. Postać
z = a+ ib , gdzie a, b ∈ R,
nazywamy postacią dwumianową liczby zespolonej.Jeżeli z = a + ib jest liczbą zespoloną w postaci dwumianowej to liczbę rzeczy-wistą
Re z = a
nazywamy częścią rzeczywistą liczby z, a liczbę rzeczywistą
Im z = b
nazywamy częścią urojoną liczby z.
Uwagi:
1. Zaletą reprezentacji dwumianowej jest to, że liczby zespolone w tej postaci doda-jemy i mnożymy jak wielomiany z uwzględnieniem reguły i2 = −1. W szczegól-ności:
(a+ ib)(c+ id) = ac+ aid+ ibc+ ibid
= ac− bd+ i(ad+ bc) .
60
2. Zgdonie z definicją części rzeczywistej i urojonej, dla każdej liczby zespolonejz ∈ C mamy
z = Re z + iIm z .
Definicja 4.7 Odwzorowanie
s : C 3 z = a+ ib→ z = a− ib ∈ C
nazywamy sprzężeniem zespolonym w C, a liczbę z nazywamy liczbąsprzężoną do liczby z.
Uwagi:
1. Suma liczby zespolonej i liczby do niej sprzężonej jest liczbą rzeczywistą:
z + z = (a+ ib) + (a− ib) = 2a = 2Re z .
2. Różnica liczby zespolonej i liczby do niej sprzężonej jest liczbą urojoną:
z − z = (a+ ib) + (a− ib) = i2b = i2Im z .
3. Iloczyn liczby zespolonej i liczby do niej sprzężonej jest liczbą rzeczywistą, nieu-jemną:
zz = (a+ ib)(a− ib) = a2 + iba− aib− i2b2
= a2 + b2 = (Re z)2 + (Im z)2 > 0 .
Definicja 4.8 Modułem liczby zespolonej z ∈ C nazywamy liczbę rzeczy-wistą
|z| =√zz .
Uwagi:
1. Dla z ∈ R (tzn. z = a+ i0) moduł |z| jest równy wartości bezwzględnej liczby z.
2. W dowodzie Tw.4.4. wykazaliśmy, że dla każdej liczby zespolonej różnej od zeraistnieje liczba do niej odwrotna względem mnożenia. Liczbę z−1 odwrotną doz ∈ C wygodnie jest obliczać przy pomocy liczby sprzężonej i modułu:
z−1 =1
z=
1
z
z
z=
z
|z|2.
61
Przykłady:
1. Obliczanie liczby odwrotnej do z = 2 + i√
2:
(2 + i√
2)−1 =2 + i
√2
|2 + i√
2|2=
2− i√
2
4 + 2=
1
3− i
3√
2.
2. Obliczanie liczby odwrotnej do z = i:
i−1 =i
|i|2=−i1
= −i .
3. Obliczanie ilorazu:
1 + i√
2
1− i√
2=
(1 + i√
2)(1− i√
2)
|1− i√
2|2=−1 + i2
√2
3.
Twierdzenie 4.6 Sprzężenie zespolone jest izomorfizmem ciała liczb ze-spolonych na siebie.
Dowód: Wprost z definicji wynika, że odwzorowanie C 3 z → z ∈ C jest injekcją isuriekcją, a więc jest bijekcją.
Jest także homomorfizmem, bowiem dla dowolnych z1, z2 ∈ C:
z1 + z2 = (a1 + a2) + i(b1 + b2) = (a1 + a2)− i(b1 + b2)
= a1 − ib1 + a2 − ib2 = z1 + z2 ,
z1z2 = (a1a2 − b1b2) + i(a1b2 + a2b1)
= (a1a2 − b1b2)− i(a1b2 + a2b1) ,
z1z2 = (a1 − ib1)(a2 − ib2)
= (a1a2 − b1b2)− i(a1b2 + a2b1) . •
4.4 Reprezentacje liczb zespolonych
Rozważania tego podrozdziału rozpoczniemy od interpretacji geometrycznej zbioruliczb zespolonych. Wybierając na płaszczyźnie kartezjański układ współrzędnych możemykażdemu elementowi zbioru z = (a, b) = a + ib ∈ C = R × R przyporządkować punktP płaszczyzny o współrzędnych (a, b). Odwrotnie, każdy punkt płaszczyzny ma, wwybranym układzie współrzędnych, jednoznacznie wyznaczone współrzędne. Przy-porządkowanie to jest wzajemnie jednoznaczne i stanowi podstawę interpretacji geom-etrycznej liczb zespolonych.
62
W ramach interpretacji geometrycznej, przyjmujemy zwyczajowo, że część rzeczy-wista liczby zespolonej to współrzędna punktu P na osi poziomej, a część urojona towspółrzędna na osi pionowej.
-
Re z
6Im z
��������������3
z = a+ ibb
a
r
ϕppppppppppppppppppppppppppppppppppppppppppppppppppppppppppp
Wektor wodzący punktu P o współrzędnych kartezjańskich (a, b) możemy równie do-brze opisać przy pomocy współrzędnych biegunowych tzn. przy pomocy długości wek-tora (a, b)
r =√a2 + b2 ,
i kąta ϕ jaki tworzy on z osią rzeczywistą Re z. Jeżeli kąt ten liczymy od osi Re zdo wektora (a, b) w kierunku przeciwnym do ruchu wskazówek zegara to przejście odwspółrzędnych biegunowych do kartezjańskich ma postać
a = r cosϕ , b = r sinϕ .
Definicja 4.9 Jeżeli punkt płaszczyzny o współrzędnych kartezjańskich (a, b)reprezentuje liczbę zespoloną z = a + ib to miarę kąta ϕ jaki tworzy wektorwodzący tego punktu z osią rzeczywistą Re z (mierzoną od osi rzeczywistej dowektora (a, b) w kierunku przeciwnym do ruchu wskazówek zegara) nazywamyargumentem liczby zespolonej z i oznaczamy symbolem arg(z).Argumentem głównym liczby zespolonej z nazywamy argument tej liczby zprzedziału (−π, π]. Argument główny oznaczamy symbolem Arg(z).
Uwagi:
1. Argument liczby zespolonej jest dobrze określony tylko dla liczb różnych od zera.Ponieważ dla liczb rzeczywistych jest on całkowitą wielokrotnością liczby 2π cza-sami definiuje się go w ten sposób także dla z = 0.
63
2. Argument liczby zespolonej jest określony z dokładnością do wielokrotności liczby2π. Argument główny jest wprowadzony po to, żeby usunąć tę niejednoznaczność,przy czym wybór przedziału jest kwestią konwencji. W ogólnej sytuacji mamywięc związek
arg(z) = Arg(z) + 2kπ , k ∈ Z .
3. Znając moduł |z| i dowolny (niekoniecznie główny) argument arg(z) liczby ze-spolonej z możemy wyznaczyć tę liczbę jednoznacznie:
z = |z|(cos arg(z) + i sin arg(z)) .
Definicja 4.10 Przedstawienie liczby zespolonej z ∈ C przy pomocy jej mod-ułu i argumentu:
z = r(cosϕ+ i sinϕ) , r = |z| , ϕ = arg(z) ,
nazywamy postacią trygonometryczną tej liczby.
Twierdzenie 4.7 Dla dowolnych liczb zespolonych z1, z2 ∈ C∗ zachodząnastępujące związki:
i. |z1z2| = |z1||z2| ,Arg(z1z2) = Arg(z1) + Arg(z2) ( modulo 2π) .
ii.∣∣∣ z1z2 ∣∣∣ = |z1|
|z2| ,
Arg(z1z2
)= Arg(z1)− Arg(z2) ( modulo 2π) .
Dowód:i. Niech
z1 = r1(cosϕ1 + i sinϕ1) , z2 = r2(cosϕ2 + i sinϕ2) .
Wtedy
z1z2 = r1r2(cosϕ1 + i sinϕ1)(cosϕ2 + i sinϕ2)
= r1r2 [cosϕ1 cosϕ2 − sinϕ1 sinϕ2
+ i(sinϕ1 cosϕ2 + cosϕ1 sinϕ2)]
= r1r2(cos(ϕ1 + ϕ2) + i sin(ϕ1 + ϕ2))
64
gdzie skorzystaliśmy z tożsamości trygonometrycznych dla sumy kątów. ii.
z1
z2
=z1
z2
z2
z2
=r1r2
r22
(cosϕ1 + i sinϕ1)(cosϕ2 − i sinϕ2)
=r1
r2
[cosϕ1 cosϕ2 + sinϕ1 sinϕ2
+ i(sinϕ1 cosϕ2 − cosϕ1 sinϕ2)]
=r1
r2
(cos(ϕ1 − ϕ2) + i sin(ϕ1 − ϕ2))
gdzie skorzystaliśmy z tożsamości trygonometrycznych dla różnicy kątów. •
Wniosek 4.2 wzór Moivre’aDla dowolnej liczby zespolonej z ∈ C∗ i dowolnej liczby naturalnej n ∈ N mamy
zn = rn(cosnϕ+ i sinnϕ) , r = |z| , ϕ = arg(z) .
Wniosek 4.3 Niech n ∈ N będzie dowolną liczbą naturalną. Każda liczbazespolona z ∈ C∗ ma n różnych pierwiastków stopnia n:
wk = n√r
(cos
ϕ+ 2kπ
n+ i sin
ϕ+ 2kπ
n
), k = 0, 1, . . . , n− 1.
gdzie r = |z| , ϕ = arg(z).
Zakończymy ten podrozdział krótkim omówieniem postaci wykładniczej liczb ze-spolonych. Eksponentę o wykładniku rzeczywistym definiujemy jako granicę szeregupotęgowego
ex =∞∑n=0
1
n!xn .
Rozszerzając tę definicję na wykładniki urojone otrzymamy2
eiϕ =∞∑n=0
1
n!(iϕ)n
=∞∑k=0
1
(2k)!(iϕ)2k +
∞∑k=0
1
(2k + 1)!(iϕ)2k+1
2Pomijamy w naszych rozważaniach analizę zbieżności występujących tu szeregów, którą łatwomożna przeprowadzić samodzielnie na podstawie elementarnego wykładu z analizy matematycznej.
65
=∞∑k=0
i2k
(2k)!ϕ2k + i
∞∑k=0
i2k
(2k + 1)!(ϕ)2k+1
=∞∑k=0
(−1)k
(2k)!ϕ2k + i
∞∑k=0
(−1)k
(2k + 1)!(ϕ)2k+1
= cosϕ+ i sinϕ
Definicja 4.11 Przedstawienie liczby zespolonej z ∈ C przy pomocy jej mod-ułu i argumentu:
z = reiϕ , r = |z| , ϕ = arg(z) ,
nazywamy postacią wykładniczą tej liczby.
Uwaga:Własności eksponenty o wykładniku rzeczywistym
exey = ex+y , (ex)−1 = e−x
przenoszą się na wykładniki zespolone, w szczególności dla
z1 = r1eiϕ1 , z2 = r2eiϕ2 , z = reiϕ
mamy
z1z2 = r1r2 ei(ϕ1+ϕ2)
z1
z2
=r1
r2
ei(ϕ1−ϕ2)
n√z = n
√r ei
ϕ+2kπn , k = 0, 1, . . . , n− 1 .
66
4.5 Wielomiany
Definicja 4.12 Wielomianem nad ciałem K nazywamy wyrażenie postaci
p(x) = anxn + an−1x
n−1 + . . .+ a2x2 + a1x+ a0 ,
gdzie a0, . . . , an są elementami ciała K. Nazywamy je współczynnikamiwielomianu p(x).Wielomian p(x) = 0 nazywamy wielomianem zerowym.Jeżeli p(x) 6= 0, to największą liczbę k dla której ak 6= 0 nazywamy stopniemwielomianu i oznaczamy symbolem
deg(p) = k .
Uwagi:
1. Stopień wielomianu zerowego b0 = 0 jest nieokreślony.
2. Powyższa definicja nie jest w pełni ścisła ponieważ zawiera niejasne pojęciewyrażenie postaci i nieokreślony symbol x. Jedna z możliwych, w pełni poprawnychdefinicji określa wielomian jako skończony ciąg współczynników {b0, . . . , bn} tzn.jako funkcję
Z+ = {k ∈ Z : k > 0} 3 k → bk ∈ K
która przyjmuje wartość zero wszędzie z wyjątkiem skończonej ilości punktów.
3. Def.4.12 odwołuje się do pojęcia wielomianu jakiego używa się w analizie matem-atycznej. Każdy wielomian w sensie powyższej definicji jednoznacznie określafunkcję
p : K 3 x→ p(x) = anxn + an−1x
n−1 + a1x+ a0 ∈ K .
Symbol x pełni wówczas rolę argumentu funkcji p, którą nazywamy funkcjąwielomianową lub po prostu wielomianem.
67
Definicja 4.13 Niech p(x) = amxm + . . . + a0, q(x) = bnx
n + . . . + b0 będąwielomianami nad ciałem K.Mówimy, że wielomiany p(x), q(x) są równe i piszemy p(x) = q(x) jeżeli
n = m oraz ak = bk dla wszystkich k = 0, 1, . . . , n .
Niech deg(p) = m > deg(q) = n. Sumą wielomianów p i q nazywamywielomian
(p+ q)(x) = p(x) + q(x)
= amxm + . . .+ an+1x
n+1
+ (an + bn)xn + . . .+ (a1 + b1)x+ (a0 + b0)
nad ciałem K.Iloczynem wielomianów p i q nazywamy wielomian
(p q)(x) = p(x)q(x)
= ambnxm+n + . . .
+ (a0bk + a1bk−1 + . . .+ ak−1b1 + akb0)xk + . . .
+ (a0b1 + a1b0)x+ a0b0
nad ciałem K.
Uwagi:
1. Przestrzeń P(K) wszystkich wielomianów nad ciałem K wraz z dodawaniem jestgrupą abelową. Elementem neutralnym w tej grupie jest wielomian zerowy.
2. Wprost z definicji sumy i iloczynu otrzymujemy nierówności
deg(p+ q) 6 max{deg(p), deg(q)} , (3)deg(p q) = deg(p) + deg(q) , (4)
jeżeli p 6= 0, q 6= 0.
Jako wniosek z definicji iloczynu wielomianów i Uwagi 2. otrzymujemy
Wniosek 4.4 Jeżeli iloczyn wielomianów p i q jest wielomianem zerowym toprzynajmniej jeden z tych wielomianów jest wielomianem zerowym.
68
Zgodnie z definicją wielomiany są równe jeśli mają wszystkie współczynniki jed-nakowe. Równość wielomianów pociąga za sobą równość ich funkcji wielomianowych.Implikacja odwrotna jest prawdziwa tylko dla wielomianów o współczynnikach w ciałacho charakterystyce zero.
Definicja 4.14 Niech K będzie ciałem. Mówimy, że ciało K ma charak-terystykę 0 jeżeli dla dowolnego a ∈ K i dla dowolnego n ∈ N warunek
na = a+ . . .+ a︸ ︷︷ ︸n razy
= 0
pociąga za sobą równość a = 0. Jeżeli ciało nie ma charakterystyki zero tocharakterystyką tego ciała nazywamy najmniejszą liczbę naturalną n taką,że na = 0 gdzie a ∈ K i a 6= 0.
Uwagi:
1. Jeżeli na = 0 dla pewnego a ∈ K, a 6= 0 to również dla dowolnego b ∈ K, nb = 0.Istotnie dla dowolnego b i a 6= 0 mamy
nb = (na)(a−1b) = 0a−1b = 0 .
2. Ciała liczbowe (Q,R,C) mają charkterystykę zero.
3. Różna od zera charakterystyka ciała musi być liczbą pierwszą.
Twierdzenie 4.8 (o dzieleniu wielomianów)Jeżeli p i q są wielomianami nad ciałem K i q 6= 0 to isnieją wielomiany v i rnad ciałem K takie, że r = 0 lub deg(r) < deg(q) oraz
p = qv + r .
Wielomiany v i r o podanych własnościach są wyznaczone jednoznacznie przezwielomiany p i q.
Dowód: jednoznaczność Załóżmy, że oprócz wielomianów v i r istnieją wielomianyw i s spełniające warunki opisane w twierdzeniu. W szczególności mamy
p = vq + r = wq + s ,
skąd(v − w)q = s− r . (5)
69
Jeżeli s−r jest wielomianem zerowym to, ponieważ q 6= 0, także v−w jest wielomianemzerowym mamy więc r = s i v = w.
Załóżmy, że s− r 6= 0. Ponieważ s i r spełniają warunki opisane w twierdzeniu to
r 6= 0 ⇒ deg(r) < deg(q) oraz s 6= 0 ⇒ deg(s) < deg(q)
Jeżeli więc s− r 6= 0 to korzystając z (3) mamy
deg(s− r) < deg(q) .
Jeżeli v − w = 0 to z równania (5) wynika, że s − r = 0 w sprzeczności z naszymzałożeniem. Załóżmy więc v − w 6= 0. Wtedy
0 6 deg(v − w) .
Dodając dwie ostatnie nierówności stronami i korzystając z (4) otrzymujemy
deg(s− r) < deg((v − w)q) ,
co jest w sprzeczności z równaniem (5).Pokazaliśmy, że założenie s − r 6= 0 zawsze prowadzi do sprzeczności. Musi więc
zachodzić s−r = 0 co na mocy przedstawionego już rozumowania prowadzi do w−v =0.
istnienieNiech p(x) = amx
m + . . .+ a0, am 6= 0, q(x) = bnxn + . . .+ b0, bn 6= 0.
Jeżeli m < n top = 0 q + p .
Jeżeli m > n to tworzymy wielomian
p1(x) = p(x)− ambnxm−nq(x) .
Analizując współczynnik przy najwyższej potędze x łatwo sprawdzić, żem1 = deg(p1) <m .Jeżeli m1 < n to dowód jest zakończony mamy bowiem
p(x) =ambnxm−nq(x) + p1(x) .
Jeżeli m1 > n to tworzymy wielomian
p2(x) = p1(x)− (a1)m1
bnxm1−nq(x) ,
70
gdzie (a1)m1 jest współczynnikiem przy potędze xm1 w wielomianie p1.Jeżeli m2 = deg(p2) < n to kończymy procedurę na równaniu
p1(x) =(a1)m1
bnxm1−nq(x) + p2(x) .
Jeżeli m2 > n to tworzymy kolejny wielomian
p3(x) = p2(x)− (a2)m2
bnxm2−nq(x) ,
gdzie (a2)m2 jest współczynnikiem przy potędze xm2 w wielomianie p2.Ponieważ w każdym kroku opisanej procedury stopień wielomianu pi zmniejsza się
co najmniej o jeden, to po skończonej liczbie kroków otrzymamy ciąg wielomianów irówności
pk−1(x) =(ak−1)mk−1
bnxmk−1−nq(x) + pk(x) ,
...
p1(x) =(a1)m1
bnxm1−nq(x) + p2(x) ,
p(x) =ambnxm−nq(x) + p1(x) ,
gdzie deg(pk) < n. Wtedy p = vq + r dla
v(x) =ambnxm−n +
(a1)m1
bnxm1−n + . . .+
(ak−1)mk−1
bnxmk−1−n ,
r(x) = pk(x) .
•Przykład: Podzielić wielomian p(x) = −x3 + 3x+ 3 przez wielomian q(x) = x+ 1.
−x2 +x +2
−x3 +3x +3 : x+ 1−x3 −x2
x2 +3x +3x2 +x
2x +32x +2
+1
71
p(x) = −x3 + 3x+ 3 = (−x2 + x+ 2)(x+ 1) + 1
W rozważanym przykładzie ilorazem jest wielomian v(x) = −x2 + x + 2 a resztawielomian r(x) = 1.
Definicja 4.15 Niech p i q będą wielomianami nad ciałem K i q 6= 0. Wielo-miany v, r nad ciałem K takie, że r = 0 lub deg(r) < deg(q) oraz
p = v q + r
nazywamy, odpowiednio, ilorazem i resztą, a powyższy rozkład dzieleniemwielomianu p przez wielomian q. Jeżeli reszta jest wielomianem zerowymr(x) = 0 to mówimy, że wielomian p(x) jest podzielny przez wielomian q(x).
Wniosek 4.5 (twierdzenie o reszcie)Niech p będzie wielomianem nad ciałem K, a a dowolnym elementem z tegociała. Wtedy istnieje dokładnie jeden wielomian v(x) nad ciałem K taki, że
p(x) = (x− a)v(x) + p(a) .
Dowód: Stosując twierdzenie o dzieleniu wielomianów dla wielomianów p(x) i q(x) =x− a otrzymujemy
p(x) = (x− a)v(x) + r(x) ,
gdzie wielomian r(x) jest wielomianem zerowym bądź wielomianem stopnia zero, awięc w obu przypadkach jest stałą r(x) = c. Podstawiając do ostatniego równaniax = a otrzymujemy
r(x) = c = r(a) = p(a) .
Z twierdzenia o dzieleniu wielomianów wynika także jedyność wielomianu v(x). •
Definicja 4.16 Niech p(x) będzie wielomianem nad ciałem K. Pier-wiastkiem wielomianu p(x) nazywamy taki element a ciała K dla którego
p(a) = 0 .
Wniosek 4.6 (twierdzenie Bezouta) Jeżeli a ∈ K jest pierwiastkiem wielo-mianu p(x) nad ciałem K to istnieje taki wielomian v(x) nad ciałem K, że
p(x) = (x− a)v(x) .
72
Twierdzenie 4.9 Wielomian stopnia n nad ciałem K ma co najwyżej n pier-wiastków w ciele K
Dowód: Zastosujemy indukcję względem stopnia wielomianu n. Wielomian stopniazero jest stałą różną od zera nie ma więc pierwiastków, a zatem założenie początekindukcji jest spełnione dla n = 0. Załóżmy, że teza twierdzenia jest prawdziwa dlawielomianów stopnia mniejszego niż n. Niech p(x) będzie wielomianem stopnia n.Jeżeli p(x) nie ma pierwiastków w ciele K to dowód jest zakończony. Jeżeli p(x) mapierwiastek a ∈ K to na mocy twierdzenia Bezouta
p(x) = (x− a)v(x)
gdzie v(x) jest wielomianem stopnia n− 1. Zgodnie z założeniem kroku indukcyjnegov(x) ma co najwyżej n − 1 pierwiastków w ciele K skąd wynika, że p(x) = (x −a)v(x) ma co najwyżej n pierwiastków. Założenie krok indukcyjny Tw.2.9 o indukcjimatematycznej jest więc również spełnione. •
Twierdzenie 4.10 (podstawowe twierdzenie algebry)Każdy wielomian nad ciałem liczb zespolonych stopnia nie mniejszego niż 1 maco najmniej jeden pierwiastek zespolony.
Uwaga:Dowód podstawowego twierdzenia algebry wymaga aparatu pojęciowego z zakresu
analizy matematycznej i nie będziemy go tutaj przytaczać.
Definicja 4.17 Niech p(x) będzie wielomianem nad ciałem K. Liczbę a ∈ Knazywamy k-krotnym pierwiastkiem wielomianu p(x) jeżeli wielomian tenjest podzielny przez wielomian (x − a)k i nie jest podzielny przez wielomian(x− a)k+1.
Wniosek 4.7 Każdy wielomian stopnia n > 1 nad ciałem liczb zespolonychma dokładnie n pierwiastków zespolonych jeśli każdy z pierwiastków brać poduwagę tyle razy ile wynosi jego krotność.
73
Wniosek 4.8 Każdy wielomian stopnia n > 1 nad ciałem liczb zespolonychmoże być przedstawiony w postaci iloczynu
p(x) = c(x− a1)(x− a2) . . . (x− an) ,
gdzie a1, a2, . . . , an są pierwiastkami tego wielomianu, a c jest liczbą zespolonąróżną od zera.
5 Przestrzenie liniowe
5.1 Definicja
Definicja 5.1 Niech K będzie ciałem, V - niepustym zbiorem, a +, · funkc-jami:
+ : V × V 3 (u, v) −→ u+ v ∈ V· : K× V 3 (α, v) −→ αv ∈ V
zespół (V,K,+, ·) nazywamy przestrzenią liniową nad ciałem K jeżelispełnione są następujące warunki
i. (V,+) jest grupą abelową;
ii. ∀α ∈ K, v, w ∈ V : α(v + w) = αv + αw ;
iii. ∀α, β ∈ K, v ∈ V : (α + β)v = αv + βv ;
iv. ∀α, β ∈ K, v ∈ V : (α(βv)) = (αβ)v ;
v. ∀v ∈ V : 1v = v .
Uwagi:
1. Stosujemy następujące nazwy:
elementy zbioru V – wektoryelementy ciała K – skalary
+ – dodawanie wektorów· – mnożenie wektora przez skalar
Jeżeli K = R to mówimy, że przestrzeń liniowa jest rzeczywista. Jeżeli K = Cto mówimy, że przestrzeń liniowa jest zespolona.
74
2. Przestrzeń liniową często nazywa się przestrzenią wektorową.
3. Mnożenie przez skalar jest przykładem operacji zwanej działaniem zewnętrznym.
Przykłady:
1. Zbiór wektorów wodzących na płaszczyźnie (tzn wektorów zaczepionych w punkcieO) z dodawaniem wektorów i mnożeniem przez liczbę jest rzeczywistą przestrzeniąliniową.
2. Zbiór Kn (n-ta potęga kartezjańska ciała K) wraz z działaniami
(α1, . . . , αn) + (β1, . . . , βn) = (α1 + β1, . . . , αn + βn)
α (α1, . . . , αn) = (αα1, . . . , α αn)
jest przestrzenią liniową nad ciałem K.
Dla n = 1, Kn = K. Ciało K możemy więc traktować jak przestrzeń liniową nadsamym sobą.
Przestrzeń liniową Kn rozważa się zwykle gdy K jest ciałem liczb rzeczywistychlub zespolonych. Mamy wtedy, odpowiednio, rzeczywistą Rn i zespoloną Cn
przestrzeń liniową.
Uwaga: W powyższych wzorach symbol r w wyrażeniu postaci ar oznaczagórny indeks, a nie wykładnik potęgi.
3. P(K) – zbiór wszystkich wielomianów nad ciałem K, z działaniami dodawaniawielomianów i mnożenia ich przez elementy z ciała jest przestrzenią liniową nadciałem K.
4. Niech X będzie niepustym zbiorem. Zbiór F(X,K) wszystkich funkcji f na X owartościach w K, z działaniami
(f + g)(x) = f(x) + g(x)
(α f)(x) = α f(x)
jest przestrzenią liniową nad K.
Uwaga: Gdy X = N wtedy F(N,K) jest zbiorem wszystkich ciągów nieskońc-zonych o wyrazach z ciała K. Stosowane jest wtedy oznaczenie:
K∞ = F(N,K)
75
Twierdzenie 5.1 Niech (V,K,+, ·) będzie przestrzenią liniową nad ciałem K.Wtedy
i) 0 v = Θii) αΘ = Θiii) −(α v) = (−α) v
Θ – element neutralny w (V,+) – wektor zerowy0 – element neutralny w (K,+)
Dowód:
i) 0 v = (0 + 0) v = 0 v + 0 v =⇒ 0 v = Θii) αΘ = α(Θ + Θ) = αΘ + αΘ =⇒ αΘ = Θiii) 0 = (α + (−α))v = α v + (−α)v =⇒ (−α)v = −α v •
5.2 Podprzestrzenie liniowe
Definicja 5.2 Niepusty podzbiór W ⊂ V przestrzeni liniowej (V,K,+, ·)nad ciałem K jest podprzestrzenią liniową przestrzeni V jeśli zespół(W,K,+|W×W , ·|K×W ) jest przestrzenią liniową nad ciałem K.
Twierdzenie 5.2 Niepusty podzbiór W przestrzeni liniowej V nad ciałem Kjest jej podprzestrzenią wtedy i tylko wtedy gdy
i) ∀u,w ∈ W : u+ w ∈ W ,ii) ∀α ∈ K, w ∈ W : αw ∈ W .
Dowód:=⇒ Oczywisty.⇐= Wystarczy pokazać, że W jest podgrupą ze względu na dodawanie wektorów. Ale,dla każdego w ∈ W
Θ = 0w ∈ W oraz − w = (−1)w ∈ W
co kończy dowód. •Uwagi
1. Warunki i) i ii) z ostatniego twierdzenia są równoważne warunkowi
∀α, β ∈ K , ∀u,w ∈ W : αu+ β w ∈ W .
76
2. Każda przestrzeń linowa zawiera co najmniej dwie podprzestrzenie:
W – siebie samą,
{Θ} – podprzestrzeń zerową.
Nazywamy je podprzestrzeniami niewłaściwymi przestrzeni W .
Przykłady:
1. Zbiór wektorów zaczepionych w punkcie P i równoległych do zadanego kierunkuna płaszczyźnie jest podprzestrzenią przestrzeni wszystkich wektorów zaczepi-onych w P .
2. Zbiór wektorów postaci{w = (α1, . . . , αr, 0, . . . , 0) : αi ∈ K , i = 1, . . . , r < n
}jest podprzestrzenią właściwą przestrzeni liniowej Kn.
3. Zbiór Pn(K) wielomianów nad cialem Kn stopnia nie większego niż n > 0 jestpodprzestrzenią właściwą przestrzeni liniowej P(K) wszystkich wielomianów nadcialem Kn.
4. Podzbiory F([a, b],R) wszystkich funkcji rzeczywistych na [a, b]
• Ck[a, b] wszystkich funkcji rzeczywistych na odcinku [a, b] ciągłych wraz zn-ta pochodną,
• R[a, b] wszystkich funkcji rzeczywistych całkowalnych w sensie Riemannana odcinku [a, b]
są podprzestrzeniami właściwymi tej przestrzeni.
5. Podzbiory przestrzeni liniowej R∞ wszystkich ciągów nieskończonych o wyrazachrzeczywistych:
• l0 wszystkich ciągów rzeczywistych zbieżnych do zera,
• l∞ wszystkich ciągów rzeczywistych ograniczonych
• l2 wszystkich ciągów rzeczywistych dla których szereg
∞∑n=1
x2n
jest zbieżny
77
są podprzestrzeniami właściwymi tej przestrzeni.
Dowód tego faktu dla podprzestrzeni l2 jest nieco mniej trywialny:
(a+ b)2 = a2 + b2 + 2ab (a− b)2 = a2 + b2 − 2ab
(a+ b)2 + (a− b)2 = 2(a2 + b2)
(a+ b)2 ≤ 2(a2 + b2)∑(xk + yk)
2 ≤ 2(∑
x2k +
∑y2k
)∑
(a xn)2 = a2∑
x2n
5.3 Wektory liniowo niezależne
Definicja 5.3 Niech V będzie przestrzenią wektorową nad ciałem K. Wektoryv1, . . . , vn ∈ V tworzą układ liniowo niezależny jeśli dla dowolnego ciąguskalarów α1, . . . , αn ∈ K z równości
α1v1 + α2v2 + . . .+ αnvn = Θ
wynika, że α1 = α2 = . . . = αn = 0.Układ wektorów nazywamy układem liniowo zależnym jeśli nie jest ukła-dem liniowo niezależnym.Wyrażenie postaci
α1e1 + α2e2 + . . .+ αnen
nazywamy kombinacją liniową wektorów e1, . . . , en.
Uwaga: Elementy układu wektorów będziemy numerować dolnym indeksem, a współczyn-niki kombinacji liniowej górnym indeksem (nie mylić z wykładnikiem potęgi!).
Następujące zapisy traktujemy jako równoważne:
α1v1 + α2v2 + . . .+ αnvn ≡n∑i=1
αivi ≡ αivi .
Zapis po prawej stronie to tzw. umowa sumacyjna Einsteina zgodnie z którą, jeśliw wyrażeniu pojawia się dwukrotnie ten sam indeks to oznacza to sumowanie po tymindeksie.
Twierdzenie 5.3 Układ wektorów v1, . . . , vn; n > 1 jest liniowo zależny wtedyi tylko wtedy gdy jeden z nich jest liniową kombinacją pozostałych.
Dowód:
78
=⇒ Załóżmy, że wektory v1, . . . , vn sa liniowo zależne. Wtedy istnieje taki ciąg skalarówα1, . . . , αn, że
α1v1 + α2v2 + . . .+ αnvn = Θ
i chociaż jeden z nich jest różny od zera αj 6= 0. Wtedy
vj = −∑i 6=j
αi
αjvi
a więc vj jest linową kombinacją pozostałych vektorów.⇐= Załóżmy, że wektor vj jest liniową kombinacją pozostałych wektorów
vj =∑i 6=j
βivi
Wtedyvj −
∑i 6=j
βivi = Θ
i dla ciągu skalarów
αk =
{−βk gdy k 6= j1 gdy k = j
mamy αj 6= 0 orazα1v1 + α2v2 + . . .+ αnvn = Θ
zatem wektory v1, . . . , vn są liniowo zależne. •
Twierdzenie 5.4
i. Układ wektorów zawierający podukład liniowo zależny jest układem lin-iowo zależnym.
ii. Każdy podukład układu wektorów liniowo niezależnych jest układem lin-iowo niezależnym.
Dowód:i. Bez utraty ogólności rozważań możemy założyć, że podukład, o którym mowa wtwierdzeniu składa się z pierwszych m wektorów układu v1, . . . , vn, m 6 n. Oznaczato, że istnieją skalary α1, . . . , αm, nie wszystkie równe zeru takie, że
α1v1 + α2v2 + . . .+ αmvm = 0 .
79
Jeżeli m = n to twierdzenie jest oczywiste. Jeżeli m < n, to przyjmując αm+1 = . . . =αn = 0 otrzymujemy ciąg skalarów α1, . . . , αn, nie wszystkich równych zeru, taki, że
α1v1 + α2v2 + . . .+ αnvn = 0 ,
a więc układ v1, . . . , vn jest liniowo zależny.ii. Ten punkt wynika bezpośrednio z punktu i. (dowód nie wprost). •
Ostatnie twierdzenie umożliwia rozszerzenie definicji układu wektorów liniowo nieza-leżnych na nieskończone (niekoniecznie przeliczalne) układy wektorów.
Definicja 5.4 Niech V będzie przestrzenią liniową nad ciałem K. Układ wek-torów {et}t∈T przestrzeni V nazywamy układem liniowo niezależnym jeśli każdyjego skończony podukład jest układem liniowo niezależnym. W przeciwnymprzypadku układ nazywamy liniowo zależnym.
Przykłady:
1. Przestrzeń Kn. Układ wektorów
e1 = (1, 0, 0, . . . , 0)
e2 = (0, 1, 0, . . . , 0)
. = . . .
en = (0, 0, 0, . . . , 1)
jest liniowo niezależny. Dowolny wektor v = (a1, . . . , an) ∈ V jest kombinacjąliniową wektorów ei:
v =n∑i=1
aiei
2. Przestrzeń P(K). Nieskończony układ jednomianów {1, x, x2, x3, . . .} jest liniowoniezależny. Każdy wielomian z P(K) daje się jednoznacznie przedstawic jakokombinacja liniowa jednomianów.
3. Przestrzeń K∞. Nieskończony zbiór ciągów
ej ={δnj}∞n=1
, j = 1, 2, 3, . . .
jest układem liniowo niezależnym.
80
4. Przestrzeń F([a, b],R). Układ {sinx, cosx} jest liniowo niezależny.
Dowód: Dowolna kombinacja liniowa funkcji sinus i cosinus na odcinku [a, b]:
α sin +β cos
jest równa zeru, gdy
∀x ∈ [a, b] : α sinx+ β cosx = 0
Załóżmy, że nie jest to układ liniowo niezależny, a więc α 6= 0 lub β 6= 0. Wtedy
α√α2 + β2
sinx+β√
α2 + β2cosx = 0 .
Budując trójkąt prostokątny o przyprostokątnych o długości α i β można łatwowykazać, że istnieje takie x0, że
α√α2 + β2
= cosx0 ,β√
α2 + β2= sinx0
Zatem0 = cos x0 sinx+ sinx0 cosx = sin(x0 + x)
dla wszystkich x ∈ [a, b] a to nie jest możliwe. •
5.4 Baza i wymiar przestrzeni
Niech V będzie przestrzenią liniową nad ciałem K, a A dowolnym podzbiorem V(A ⊂ V ). Symbolem SpanA oznaczać będziemy zbiór wszystkich możliwych kom-binacji liniowych elementów zbioru A o współczynnikach z ciała K. Łatwo możnasprawdzić, że SpanA jest podprzestrzenią przestrzeni V , a zatem następująca definicjajest poprawna.
Definicja 5.5 Niech V będzie przestrzenią liniową nad ciałem K, a A dowol-nym podzbiorem V . Podprzestrzeń
SpanA ≡
{v ∈ V : v =
m∑i=1
αivi , m ∈ N , αi ∈ K , vi ∈ A
}.
nazywamy podprzestrzenią generowaną przez zbiór A, a elementy zbioruA – generatorami tej podprzestrzeni.
Uwaga:
81
Podprzestrzeń SpanA nazywa się czasem podprzestrzenią rozpiętą na wek-torach zbioru A albo powłoką liniową zbioru A.
Przykład:Zbiór {1, x, x2, x3} generuje podprzestrzeń P3(K) ⊂ P(K) wielomianów stopnia co
najwyżej trzeciego:Span {1, x, x2, x3} = P3(K) .
Definicja 5.6 Podzbiór B ⊂ V przestrzeni wektorowej V nad ciałem K nazy-wamy bazą przestrzeni V jeżeli:
i) B jest liniowo niezależnym układem wektorów,ii) SpanB = V .
Uwagi:
1. Baza przestrzeni liniowej V jest maksymalnym układem wektorów liniowo nieza-leżnych tzn. dołączenie do niej dowolnego wektora czyni z niej układ liniowozależny.
2. Przestrzeń zerowa {Θ} nie ma bazy.
3. W oparciu o aksjomat wyboru można udowodnić, że każda niezerowa przestrzeńwektorowa ma bazę.
4. Przestrzenie niezerowe mają nieskończenie wiele różnych baz.
Przykłady:
1. Układ wektorów
e1 = (1, 0, 0, . . . , 0)
e2 = (0, 1, 0, . . . , 0)...
en = (0, 0, 0, . . . , 1)
jest bazą w przestrzeni Kn. Nazywamy ją bazą standardową tej przestrzeni.
2. Nieskończony układ jednomianów
1 , x , x2 , x3 , . . .
jest bazą w przestrzei P(K).
82
3. Nieskończony zbiór ciągów {ej}∞j=1 gdzie
ej ={δnj}∞n=1
, j = 1, 2, 3, . . .
nie jest bazą w przestrzeni K∞ bo nie jest spełniony drugi warunek definicjibazy. Zbiór {ej}∞j=1 generuje w K∞ podprzestrzeń właściwą wszystkich ciągówskończonych.
Twierdzenie 5.5 Niech B będzie bazą w przestrzeni liniowej V nad ciałemK. Każdy wektor v ∈ V można przedstawić w postaci linowej kombinacji ele-mentów bazy :
v =n∑i=1
αiei , n ∈ N , ei ∈ B , αi ∈ K .
Przedstawienie to jest jednoznaczne.
Dowód: To, że każdy wektor v ∈ V można przedstawić przy pomocy kombinacjiliniowej elementów bazy B ⊂ V wynika z warunku ii) Def.5.6. : SpanB = V .
Załóżmy, że wektor v ∈ V ma dwa rozkłady w bazie B:
v =n∑i=1
αiei = α1e1 + α2e2 + . . .+ αnen
v =n∑i=1
βiei = β1e1 + β2e2 + . . .+ βnen
Wtedy
Θ = v − v =n∑i=1
αiei −n∑i=1
βiei =n∑i=1
(αi − βi)ei
a ponieważ (na mocy warunku ii Def.5.6.) wektory e1, . . . , en są liniowo niezależne to
α1 − β1 = α2 − β2 = . . . = αn − βn = Θ
skąd
α1 = β1 , α2 = β2 , . . . , αn = βn . •
83
Definicja 5.7 Kombinację liniową elementów bazy, o której mowa w Tw.5.5nazywamy rozkładem wektora v w bazie B, a współczynniki tej kombinacjiwspółrzędnymi wektora v w bazie B.
Uwaga: Ponieważ współczynniki αi ∈ K rozkładu wektora w bazie:
v =n∑i=1
αiei
są wyznaczone jednoznacznie przez wektor v wygodnie jest oznaczanie ich symbolemwektora z górnym indeksem:
v =n∑i=1
viei .
Twierdzenie 5.6 Jeżeli układ {e1, . . . , en} jest bazą przestrzeni V , a układ{f1, . . . , fn} wektorów przestrzeni liniowej V jest liniowo niezależny to układten jest także bazą w przestrzeni V .
Dowód: Należy wykazać, że jest spełniony warunek ii) Def.5.6:
V = Span {f1, f2, . . . , fn} .
Ponieważ f1 ∈ V , a układ {e1, . . . , en} jest bazą, to
f1 =n∑i=1
αiei = α1e1 + α2e2 + . . .+ αnen
Z niezależności liniowej układu f1, . . . , fn wynika, że f1 6= Θ. Zatem co najmniej jedenze współczynników rozkładu αi jest różny od zera. Możemy założyć, że na przykładα1 6= 0. Wtedy
e1 =1
α1f1 −
n∑i=2
αi
α1ei =
1
α1f1 −
α2
α1e2 −
α3
α1e3 − . . .−
αn
α1en
i każda kombinacja liniowa wektorów {e1, e2, . . . , en} jest kombinacją liniową wektorów{f1, e2, . . . , en}. Zatem
V = Span {e1, e2, . . . , en} = Span {f1, e2, . . . , en} .
Załóżmy, że k < n i że istnieje k spośród wektorów układu {f1, . . . , fn} np. wektoryf1, f2, . . . , fk, takich że
Span {e1, e2, . . . , en} = Span {f1, f2, . . . , fk, ek+1, . . . , en} . (6)
84
Wektor fk+1 należy z założenia do lewej strony tej równości, należy więc także doprawej, a to oznacza, że daje się przedstawić jako kombinacja liniowa :
fk+1 = β1f1 + β2f2 + . . .+ βkfk + βk+1ek+1 + . . .+ βnen
Ponieważ wektory f1, . . . , fn są liniowo niezależne to nie może zachodzić
βk+1 = βk+2 = . . . = βn = 0 .
Niech np. βk+1 6= 0. Wtedy
ek+1 =1
βk+1fk+1 −
β1
βk+1f1 −
β2
βk+1f2 − . . .−
βk
βk+1fk −
βk+2
βk+1ek+2 − . . .−
βn
βk+1en
i każdą kombinację liniową wektorów f1, f2, . . . , fk, ek+1, . . . , en możemy przedstawićjako kombinację liniową wektorów f1, f2, . . . , fk+1, ek+2, . . . , en. Wychodząc z założenia(6) udowodniliśmy więc tezę kroku indukcyjnego
Span {e1, e2, . . . , en} = Span {f1, f2, . . . , fk+1, ek+2, . . . , en} .
Ponieważ pokazaliśmy już, że dla k = 1 założenie (6) jest spełnione to na mocytwierdzenia o indukcji matematycznej otrzymujemy
Span {e1, e2, . . . , en} = Span {f1, f2, . . . , fn} . •
Twierdzenie 5.7 Jeżeli przestrzeń liniowa V ma bazę składającą się z n wek-torów to każda baza tej przestrzeni składa się także z n wektorów.
Dowód: Załóżmy, że istnieją dwie bazy w przestrzeni V , {e1, . . . , en} i {f1, . . . , fm}takie, że n < m. Wtedy na mocy poprzedniego twierdzenia
V = Span {e1, . . . , en} = Span {f1, . . . , fn} ,
a to w szczególności oznacza, że wektor fm jest kombinacją liniową wektorów f1, . . . , fn.Układ {f1, . . . , fm} jest więc linowo zależny wbrew założeniu. •Dzięki Tw.5.7 następująca definicja jest poprawna.
Definicja 5.8 Jeśli przestrzeń V ma bazę skończoną to liczbę wektorów tejbazy nazywamy wymiarem przestrzeni V i oznaczamy symbolem dimV .Jeżeli przestrzeń V 6= {Θ} nie ma bazy skończonej to mówimy, że ma wymiarnieskończony, lub że jest nieskończenie-wymiarowa. Przestrzeni zerowej{Θ} przypisujemy zerowy wymiar: dim {Θ} = 0.
Przykłady:
85
1. Ciało liczb rzeczywistych R możemy traktować jako przestrzeń liniową nad samymsobą tzn jako rzeczywistą przestrzeń liniową. Wtedy dimRR = 1.
2. Ciało liczb zespolonych C możemy traktować jako przestrzeń liniową nad samymsobą tzn jako zespoloną przestrzeń liniową. Wtedy
dimC C = 1 .
Ciało liczb zespolonych C można również potraktować jako przestrzeń liniowąnad ciałem liczb rzeczywistych R. Wtedy
dimR C = 2 .
W tym przypadku jako bazę w C można wybrać np. {1, i}.
3. dimKKn = n
4. Przestrzeń P(K) wszystkich wielomianów nad ciałem K jest nieskończenie-wymiarowa.
5. Przestrzeń K∞ wszystkich ciągów nieskończonych o wyrazach z K jest nieskończenie-wymiarowa.
Twierdzenie 5.8 Niech V będzie przestrzenią n-wymiarową. Wtedy
i. Każdy układ n+ 1 wektorów przestrzeni V jest liniowo zależny.
ii. Jeżeli U jest właściwą podprzestrzenią przestrzeni V to dimU < dimV .
iii. Każdy liniowo niezależny układ wektorów przestrzeni V daje sę uzupełnićdo bazy tej przestrzeni.
Dowód:
i. Załóżmy, że układ {e1, . . . , en+1} wektorów przestrzeni V jest linowo niezależny.Również podukład {e1, . . . , en} jest linowo niezależny i na mocy Tw.5.6 jest baząw V , ale wtedy wektor en+1 jest liniową kombinacją wektorów {e1, . . . , en} co jestsprzeczne z założeniem o liniowej niezależności układu {e1, . . . , en+1}.
ii. Niech {e1, . . . , ek} będzie układem wektorów liniowo niezależnych w podprzestrzeniU . Jest to również układ liniowo niezależny w V i na mocy punktu ii) k ≤ n.Gdyby zachodziła równość k = n to na mocy punktu i) układ {e1, . . . , ek} byłbybazą w przestrzeni V i mielibyśmy U = V wbrew założeniu. Zatem
dimU ≤ k < n = dimV .
86
iii. Niech {e1, . . . , ek} będzie układem wektorów liniowo niezależnych w podprzestrzeniV . Jeżeli nie istnieje w V wektor niezależny liniowo od {e1, . . . , ek} to V =Span{e1, . . . , ek} i układ ten tworzy bazę w V . Jeśli istnieją w V wektory nieza-leżne liniowo od {e1, . . . , ek} to wybieramy jeden z nich i dołączamy jako wektorek+1 do układu. Z układem {e1, . . . , ek+1} postępujemy analogicznie. Ponieważwymiar n = dimV przestrzeni V jest skończony po n − k krokach otrzymamybazę przestrzeni V . •
5.5 Przekrój i suma podprzestrzeni, suma prosta.
Definicja 5.9 Niech V1, V2 będą podprzestrzeniami przestrzeni liniowej V .Przekrojem podprzestrzeni V1, V2 nazywamy zbiór wektorów:
V1 ∩ V2 = {v ∈ V : v ∈ V1 ∧ v ∈ V2} .
Sumą podprzestrzeni V1, V2 nazywamy zbiór wektorów :
V1 + V2 = {v ∈ V : v = v1 + v2 , v1 ∈ V1 , v2 ∈ V2} .
Twierdzenie 5.9 Przekrój V1 ∩ V2 i suma V1 + V2 dwóch podprzestrzeni lin-iowych V1, V2 przestrzeni V jest podprzestrzenią liniową przestrzeni V .
Dowód: Na mocy Tw.5.2 wystarczy sprawdzić, czy podzbiory V1∩V2 ⊂ V i V1 +V2 ⊂V są zamknięte ze względu na dodawanie wektorów i mnożenie wektora przez skalar.Dla przekroju mamy
v, w ∈ V1 ∩ V2 ⇔ (v, w ∈ V1 ∧ v, w ∈ V2) ⇒⇒ (v + w ∈ V1 ∧ v + w ∈ V2) ⇔ v + w ∈ V1 ∩ V2 ,
i dla dowolnego skalara α ∈ K:
v ∈ V1 ∩ V2 ⇔ (v ∈ V1 ∧ v ∈ V2) ⇒⇒ (αv ∈ V1 ∧ αv ∈ V2) ⇔ αv ∈ V1 ∩ V2 .
Dla sumy mamy:
u,w ∈ V1 + V2 ⇔⇔ u = u1 + u2 , w = w1 + w2 , u1, w1 ∈ V1 , u2, w2 ∈ V2 ⇒⇒ u+ w = (u1 + w1) + (u2 + w2) , u1 + w1 ∈ V1 , u2 + w2 ∈ V2 ⇔⇔ u+ w ∈ V1 + V2
87
i dla dowolnego skalara α ∈ K
u ∈ V1 + V2 ⇔ u = u1 + u2 , u1 ∈ V1 , u2 ∈ V2 ⇒⇒ αu = αu1 + αu2 , αu1 ∈ V1 , αu2 ∈ V2
⇔ αu ∈ V1 + V2 •
Twierdzenie 5.10 Dla dowolnych podprzestrzeni V1, V2 przestrzeni liniowejV o skończonym wymiarze zachodzi:
dim(V1 + V2) + dim(V1 ∩ V2) = dimV1 + dimV2
Dowód: Niech {e1, . . . , ep} będzie bazą w V1 ∩ V2, (dim(V1 ∩ V2) = p). Na mocypunktu iii Tw.5.8. możemy tę bazę rozszerzyć do baz:
{e1, . . . , ep, fp+1, . . . , fn} w V1 ; dimV1 = n{e1, . . . , ep, gp+1, . . . , gm} w V2 ; dimV2 = m
Do zakończenia dowodu wystarczy wykazać, że układ
{e1, . . . , ep, fp+1, . . . , fn, gp+1, . . . , gm} (7)
jest bazą w przestrzeni V1 + V2. Istotnie, gdyby tak było to mielibyśmy
dim(V1 + V2) = n+m− p = dimV1 + dimV2 − dim(V1 ∩ V2) .
Jeżeli v ∈ V1 i w ∈ V2 to mamy rozkłady w bazach:
v = v1e1 + . . .+ vpep + vp+1fp+1 + . . .+ vnfn
w = w1e1 + . . .+ wpep + wp+1gp+1 + . . .+ wngn
i suma v+w jest linową kombinacją wektorów układu (7). Pokażemy, że jest to układliniowo niezależny. Niech
v1e1 + . . .+ vpep + vp+1fp+1 + . . .+ vnfn + wp+1gp+1 + . . .+ wngn = Θ (8)
wtedy
v1e1 + . . .+ vpep + vp+1fp+1 + . . .+ vnfn = −wp+1gp+1 − . . .− wngn .
Lewa strona należy do V1, a prawa do V2, zatem obie muszą należeć do V1 ∩ V2.Rozwińmy prawą stronę w bazie {e1, . . . , ep} przestrzeni V1 ∩ V2:
−wp+1gp+1 − . . .− wngn = d1e1 + . . .+ dpep
88
Ponieważ układ {e1, . . . , ep, gp+1, . . . , gm} jest bazą w V2, jest liniowo niezależny więcwszystkie współczynniki w tym równaniu muszą znikać. W szczególności wp+1 = . . . =wn = 0 i
v1e1 + . . .+ vpep + vp+1fp+1 + . . .+ vnfn = Θ
Ale układ {e1, . . . , ep, gp+1, . . . , gm} jest bazą w V1, jest zatem liniowo niezależny iwszystkie współczynniki także w tym równaniu muszą znikać. Pokazaliśmy, że jeżelizachodzi równanie (32) to wszystkie współczynniki w tym równaniu muszą znikać, azatem układ wektorów (7) jest liniowo niezależny co kończy dowód. •
Przykład:Niech {e1, e2, e3} będzie układem wektorów liniowo niezależnych w przestrzeni lin-
iowej V . Podprzestrzenie V1 = Span{e1, e2}, V2 = Span{e2, e3} są dwuwymiarowedimV1 = dimV2 = 2.
V1 + V2 = Span{e1, e2, e3} ⇒ dim(V2 + V3) = 3
V1 ∩ V2 = Span{e2} ⇒ dim(V1 ∩ V2) = 1 .
dimV1 + dimV2 = 4 = dim(V1 + V2) + dim(V1 ∩ V2)
Definicja 5.10 Niech V1, V2 będą podprzestrzeniami przestrzeni liniowej V .Jeżeli V1 ∩ V2 = {Θ} to sumę podprzestrzeni nazywamy suma prostą i oz-naczamy symbolem ⊕:
V1 ⊕ V2 = V1 + V2
Z Tw.5.10 otrzymujemy:
Wniosek 5.1 Dla dowolnych podprzestrzeni V1, V2 przestrzeni liniowej V oskończonym wymiarze suma V1 + V2 jest sumą prostą V1 ⊕ V2 wtedy i tylkowtedy gdy
dim(V1 + V2) = dimV1 + dimV2
Twierdzenie 5.11 Przestrzeń V o skończonym wymiarze jest sumą prostąpodprzestrzeni V1 i V2:
V = V1 ⊕ V2
wtedy i tylko wtedy gdy każdy wektor v ∈ V ma jednoznaczne przedstawienie wpostaci:
v = v1 + v2 (9)
gdzie v1 ∈ V1, v2 ∈ V2.
Dowód:
89
⇒ Niech V = V1⊕V2, wtedy V1∩V2 = {Θ}. Z definicji sumy wynika, że każdy wektorv ∈ V1 +V2 jest sumą wektora z V1 i wektora z V2. Załóżmy, że mamy dwie takie sumy:
v = v1 + v2
v = w1 + w2 , v1, w1 ∈ V1 , v2, w2 ∈ V2 .
Wówczas
v1 + v2 = w1 + w2
v1 − w1 = w2 − v2 .
Ponieważ v1 − w1 ∈ V1, w2 − v2 ∈ V2 oraz V1 ∩ V2 = {Θ}, więc
v1 − w1 = w2 − v2 = Θ ⇒ v1 = w1 , v2 = w2 ,
zatem rozkład (9) jest jednoznaczny.⇐ załóżmy jednoznaczność rozkładu (9). Jeżeli v ∈ V1∩V2 to możliwe są dwa rozkładywektora v
v = v1 + v2 gdzie v1 = Θ ∈ V1 , v2 = v ∈ V2
v = w1 + w2 gdzie w1 = v ∈ V1 , w2 = Θ ∈ V2 .
Z jednoznaczności rozkładu wynika Θ = v1 = w1, oraz Θ = v2 = w2, zatem v = Θ.Pokazaliśmy więc, że jeżeli v ∈ V1 ∩ V2 to v = Θ, a to oznacza, że V1 ∩ V2 = {Θ}.Zatem V = V1 ⊕ V2. •
Twierdzenie 5.12 Jeżeli U = V ⊕W i {e1, . . . , en} jest bazą w podprzestrzeniV , a {f1, . . . , fm} bazą w podprzestrzeni W to układ wektorów
{e1, . . . , en, f1, . . . , fm}
jest bazą w przestrzeni U = V ⊕W .
Dowód: Ponieważ V = Span{e1, . . . , en} i W = Span{f1, . . . , fm} to
U = V ⊕W = Span{e1, . . . , en, f1, . . . , fm} .
Załóżmy, że układ {e1, . . . , en, f1, . . . , fm} jest liniowo zależny. Wtedy jeden z wektorówukładu daje się przedstawić jako liniowa kombinacja pozostałych i dimU < n+m, alezgodnie z założeniem U = V ⊕W i na mocy Tw.5.10 dimU = dimV + dimW . Zatemukład {e1, . . . , en, f1, . . . , fm} jest liniowo niezależny. Ponieważ rozpina przestrzeń Ujest bazą w tej przestrzeni. •
90
5.6 Przestrzeń ilorazowa
Niech W będzie podprzestrzenią przestrzeni liniowej nad ciałem K. Definiujemy wzbiorze V relację ∼ następująco:
v ∼ u ⇔ v − u ∈ W .
Pokażemy, że relacja ta jest relacją równoważności.
1. zwrotność v − v = Θ ∈ W zatem v ∼ v;
2. symetria jeżeli v ∼ u to v−u ∈ W , a zatem u−v = −(v−u) ∈ W , czyli u ∼ v;
3. przechodniość jeżeli v ∼ u i u ∼ w to v − u ∈ W i u − w ∈ W , wtedyv − w = (v − u) + (u− w) ∈ W .
Klasę abstrakcji wektora v ∈ V względem relacji równoważności ∼ będziemyoznaczać symbolem [v]∼, a zbiór takich klas symbolem V/W .
[v]∼ = {u ∈ V : v − u ∈ W}
Pokażemy, że w zbiorze V/W można określić działania dodawania klas:
[v]∼ + [w]∼ = [v + w]∼
i mnożenia klasy przez skalar
α[v]∼ = [α v]∼ .
Definicja ta jest poprawna jeśli nie zależy od wyboru reprezentanta w klasieabstrakcji, tzn musimy pokazać, że jeżeli [v]∼ = [v′]∼ i [w]∼ = [w′]∼ to także
[v + w]∼ = [v′ + w′]∼ i α[v]∼ = α[v′]∼ .
Jeżeli [v]∼ = [v′]∼ i [w]∼ = [w′]∼ to v − v′ ∈ W i w − w′ ∈ W , ale W jestpodprzestrzenią liniową więc także (v− v′) + (w−w′) = (v+w)− (v′+w′) ∈ W ,a to oznacza, że [v + w]∼ = [v′ + w′]∼. Podobnie w przypadku mnożenia przezskalar mamy:
[v]∼ = [v′]∼ ⇔ v − v′ ∈ W ⇒⇒ α(v − v′) = αv − α′v ∈ W ⇔ [αv]∼ = [αv′]∼ .
Łatwo można sprawdzić, że przestrzeń klas V/W z dodawaniem klas i mnożeniemklasy przez skalar ma strukturę przestrzeni liniowej nad ciałem K. Wobec tegonastępująca definicja jest poprawna.
91
Definicja 5.11 Niech V będzie przestrzenią liniową nad ciałem K, a W jejpodprzestrzenią. Przestrzeń V/W klas abstrakcji relacji równoważności
v ∼ u ⇔ v − u ∈ W ,
z działaniami dodawania klas:
[v]∼ + [w]∼ = [v + w]∼
i mnożenia klasy przez skalar
α[v]∼ = [α v]∼
jest przestrzenią liniową nad ciałem K. Nazywamy ją przestrzenią ilorazowąi oznaczamy symbolem V/W .
Twierdzenie 5.13 Jeżeli W jest podprzestrzenią przestrzeni skończeniewymiarowej V , to
dimV/W = dimV − dimW .
Dowód:Niech układ {e1, . . . , em} będzie bazą w przestrzeni W . Na mocy punktu iii Tw.5.8
układ ten można rozszerzyć do bazy {e1, . . . , em, f1, . . . , fn} przestrzeni V . PonieważdimV = m+ n wystarczy udowodnić, że układ {[f1], . . . , [fn]} jest bazą w przestrzeniV/W .
Pokażemy, że układ {[f1], . . . , [fn]} rozpina przestrzeń V/W , tzn.
Span{[f1], . . . , [fn]} = V/W .
Istotnie każdy wektor v ∈ V można rozłożyć względem bazy{e1, . . . , em, f1, . . . , fn}:
v =m∑i=1
αiei +n∑j=1
βjfj .
Ponieważm∑i=1
αiei ∈ W , to
[v] =
[n∑j=1
βjfj
]=
n∑j=1
βj[fj] .
Drugi warunek Def.5.6 jest więc spełniony.
92
Wykażemy, że układ {[f1], . . . , [fn]} jest liniowo niezależny. Jeżeli
n∑j=1
γj[fj] = Θ ,
to suman∑j=1
γjfj jest wektorem w przestrzeniW i dopuszcza rozkład w bazie {e1, . . . , em}
tej przestrzeni
n∑j=1
γjfj =m∑i=1
ηiei , a zatemm∑i=1
ηiei −n∑j=1
γjfj = Θ .
Z liniowej niezależności wektorów {e1, . . . , em, f1, . . . , fn} wynika, że η1 = . . . = ηm =γ1 = . . . = γn = 0. •
93
6 Macierze i wyznaczniki
6.1 Macierze
Definicja 6.1 Niech m,n ∈ N. Macierzą typu m× n o wyrazach z ciała Knazywamy prostokątną tablicę postaci:
A =
A1
1 A12 . . . A1
n
A21 A2
2 . . . A2n
......
.........
...
Am1 Am2 . . . Amn
, Aij ∈ K .
i-ty poziomy rząd tej tablicy
[Ai1 , Ai2 , . . . , A
in]
nazywamy i-tym wierszem macierzy A, a j-ty pionowy rząd tej tablicyA1j
A2j
...
Amj
nazywamy j-tą kolumną macierzy A. Elementy αij nazywamy wyrazamimacierzy A. Dla macierz A o wyrazach αij stosujemy także skróconą notację
A = [Aij ] .
Macierz typu n×n nazywamy macierzą kwadratową, a liczbę n – stopniemmacierzy kwadratowej.
Uwagi:
1. Będziemy stosować konwencję notacyjną dla wyrazów macierzy Aij, w którejgórny indeks zawsze oznacza numer wiersza, a dolny – numer kolumny.
2. Wiersze macierzy typu m×n są macierzami typu 1×n, a kolumny - macierzamitypu m × 1. Macierz typu m × n możemy traktować jako zbiór n kolumn, lubjako zbiór m wierszy.
94
3. Wiersze macierzy typu m×n można utożsamiać z elementami n-tej potęgi kartez-jańskiej
Kn = K× . . .×K︸ ︷︷ ︸n czynników
ciała K, a kolumny z elementami m-tej potęgi kartezjańskiej Km:
[Ai1 , Ai2 , . . . , A
in] ≡ (Ai1, . . . , A
in) ∈ Kn ,
A1j
A2j
...
Amj
≡ (A1j , . . . , A
mj ) ∈ Km .
Definicja 6.2 NiechMm,n(K) będzie zbiorem wszystkich macierzy typu m×no wyrazach z ciała K. Sumą macierzy A,B ∈Mm,n(K) nazywamy macierz
[Aij ] + [Bij ] = [Aij +Bi
j ] ∈Mm,n(K) .
Iloczynem macierzy A ∈Mm,n(K) przez α ∈ K nazywamy macierz
α [Aij ] = [αAij ] ∈Mm,n(K) .
Uwaga: Dodawanie wierszy (kolumn) macierzy typu m× n i mnożenie ich przez ele-ment z ciała będziemy rozumieć w sensie powyższej definicji traktując wiersze (kolumny)jako macierze typu 1× n (m× 1).
Twierdzenie 6.1 ZbiórMm,n(K) wszystkich macierzy typu m×n o wyrazachz ciała K wraz z dodawaniem macierzy i mnożeniem macierzy przez element zciała K jest przestrzenią linową nad ciałem K.
Dowód: Łączność dodawania macierzy wynika wprost z definicji i łączności dodawaniaw ciele K. Elementem neutralnym ze względu na dodawanie macierzy jest macierzzerowa:
[ 0 ] =
0 0 . . . 0
0 0 . . . 0
......
.........
...
0 0 . . . 0
.
95
Macierzą odwrotną do macierzy A = [Aij ] jest macierz przeciwna −A = [−Aij ].Rozdzielność mnożenia macierzy przez element z ciała względem dodawania macierzy
wynika wprost z definicji i rozdzielności mnożenia względem dodawania w ciele K.Podobnie sprawdzamy pozostałe własności mnożenia przez element ciała wymagane
w definicji przestrzeni wektorowej.•
Definicja 6.3 Iloczynem macierzy A = [Aki ] ∈ Mr,m(K) i B = [Bij ] ∈
Mm,n(K) nazywamy macierz
AB = [ (AB)kj ] ∈Mr,n(K)
zadaną wzorem
(AB)kj =m∑i=1
Aki Bij .
Przykłady:
1. [1 23 4
] [0 1 22 1 0
]=
[1 · 0 + 2 · 2 1 · 1 + 2 · 1 1 · 2 + 2 · 03 · 0 + 4 · 2 3 · 1 + 4 · 1 3 · 2 + 4 · 0
]=
[4 3 28 7 6
]2.
[1 2 0
] 1 10 −22 0
=[
1 · 1 + 2 · 0 + 0 · 2 1 · 1 + 2 · (−2) + 0 · 0]
=[
1 −3]
Uwagi:
1. Iloczyn macierzy AB ma sens tylko wtedy gdy macierz A ma tyle kolumn ilewierszy ma macierz B.
2. Wyrazy iloczynu macierzy (AB)kj otrzymujemy sumując iloczyny wyrazów k-tegowiersza macierzy A przez odpowiednie wyrazy j-tej kolumny macierzy B. Niepre-cyzyjnie, ale poglądowo mówi się, że iloczyn macierzy AB tworzymy mnożącwiersze macierzy A przez kolumny macierzy B.
96
Twierdzenie 6.2 Mnożenie macierzy jest łączne tzn. dla dowolnych A ∈Ms,r(K), B ∈Mr,m(K), C ∈Mm,n(K), zachodzi
A(BC) = (AB)C .
Dowód: Teza twierdzenia wynika bezpośrednio z definicji mnożenia macierzy i łącznościmnożenia w K:
((AB)C)kl =m∑i=1
(AB)ki Cil =
m∑i=1
(r∑i=1
Akj Bji
)Cil
=m∑i=1
r∑i=1
(Akj B
ji
)Cil =
m∑i=1
r∑i=1
Akj(Bji C
il
)=
r∑i=1
Akj
(m∑i=1
Bji C
il
)=
r∑i=1
Akj (BC)jl
= (A(BC))kl . •
Definicja 6.4 Macierzą jednostkową typu n× n nazywamy macierz
In = [ δij ] ∈Mn,n(K)
gdzie symbol δij oznacza funkcję
Z× Z 3 (i, j)→ δij =
{1 gdy i = j0 gdy i 6= j
zwaną deltą Kroneckera.
Uwagi:
1. Dla dowolnych m,n ∈ N i dla dowolnej macierzy A ∈Mm,n(K) mamy:
InA = A = AIm .
2. W przestrzeni macierzy kwadratowych Mm,n(K), macierz jednostkowa In jestelementem neutralnym ze względu na mnożenie macierzy.
97
Definicja 6.5 Macierz kwadratową A ∈ Mn,n(K) nazywamy nieosobliwąjeśli istnieje macierz do niej odwrotna ze względu na mnożenie macierzy, tzn.jeśli istnieje macierz A−1 ∈Mn,n(K) taka, że
A−1A = AA−1 = In
gdzie In = [ δij ] jest macierzą jednostkową typu n× n.
Twierdzenie 6.3 Zbiór wszystkich nieosobliwych macierzy kwadratowychstopnia n, o wyrazach z ciała K jest grupą ze względu na mnożenie macierzy.
Dowód:Wiemy, że mnożenie macierzy jest łączne i że elementem neutralnym ze względu
na mnożenie jest macierz jednostkowa In = [ δij ] (która oczywiście jest nieosobliwa).Wystarczy sprawdzić, że iloczyn macierzy nieosobliwych jest macierzą nieosobliwą iże macierz odwrotna do macierzy nieosobliwej jest nieosobliwa. Oba stwierdzenia sąprawdziwe bowiem
(AB)−1 = B−1A−1 oraz(A−1
)−1= A . •
Definicja 6.6 Grupę wszystkich nieosobliwych macierzy kwadratowych stop-nia n, o wyrazach z ciała K nazywamy pełną (ogólną) grupą liniową ioznaczamy symbolem GLn(K).
Uwagi:
1. Dla n = 1, GL1(K) = K \ {0}.
2. Dla n > 1 grupa GLn(K) jest nieabelowa. Jako przykład rozpatrzmy macierzeA,B ∈Mn×n(K)
A =
0 1 0 . . . 0
1 0 0 . . . 0
0 0 1 . . . 0
......
............
...
0 0 0 . . . 1
, B =
1 0 0 . . . 0
0 −1 0 . . . 0
0 0 1 . . . 0
......
............
...
0 0 0 . . . 1
.
98
Łatwo sprawdzić, że A2 = AA = In oraz B2 = BB = In, a więc A−1 = A,B−1 = B zatem obie macierze są nieosobliwe i należą do GLn(K). Ponadto
AB =
0 1 0 . . . 0
−1 0 0 . . . 0
0 0 1 . . . 0
......
............
...
0 0 0 . . . 1
6= BA =
0 −1 0 . . . 0
1 0 0 . . . 0
0 0 1 . . . 0
......
............
...
0 0 0 . . . 1
.
6.2 Wyznaczniki
Definicja 6.7 Wyznacznikiem stopnia n nazywamy funkcję
det :Mn×n(K) 3 A→ detA ∈ K
zadaną dla macierzy A = [Aij ] wzorem
detA =∑σ∈Sn
sgn(σ)A1σ(1)A
2σ(2) . . . A
nσ(n) .
Uwagi:
1. Stosujemy następujące, zwyczajowe oznaczenia wyznacznika macierzy A stopniawiększego od 1
detA = det[Aij ] = det
A1
1 . . . A1n
............
...
Am1 . . . Amn
=
∣∣∣∣∣∣∣∣∣A1
1 . . . A1n
............
...
Am1 . . . Amn
∣∣∣∣∣∣∣∣∣ .2. Dla A ∈M1×1(K) = K
detA = A11 .
3. Dla A ∈M2×2(K),
detA =
∣∣∣∣∣ A11 A1
2
A21 A2
1
∣∣∣∣∣ = A11A
22 − A1
2A21 .
99
4. W przypadku macierzy kwadratowych stopnia 3 istnieje mnemotechniczna metodaobliczania wyznacznika zwana metodą Sarrusa. Zgodnie z nią dopisujemy zprawej strony do macierzy
A =
a1 b1 c1
a2 b2 c2
a3 b3 c3
jej dwie pierwsze kolumny.3 Następnie obliczamy iloczyny elementów leżących naprostych równoległych do przekątnych macierzy i tworzymy sumę tych iloczynówbiorąc każdy ze znakiem zależnym od przekątnej. Postępowanie to wyjaśniaschemat
detA =
a1
a2
a3
b1
b2
b3
c1
c2
c3
a1
a2
a3
b1
b2
b3
−����������
−����������
−����������
+@@@@@@@@@R
+@@@@@@@@@R
+@@@@@@@@@R
=+a1b2c3 + b1c2a3 + c1a2b3
−a3b2c1 − b3c2a1 − c3a2b1
Inną metodę mnemotechniczną ilustruje schemat:
detA = +
a1
a2
a3
b1
b2
b3
c1
c2
c3
@@@@@@
@@@
@@@�
�����
����
��
������
������ −
a1
a2
a3
b1
b2
b3
c1
c2
c3������
���
���A
AAAAA
HHHHHH
AAAAAA
HHHH
HH
= + a1b2c3 + b1c2a3 + c1a2b3 − a3b2c1 − b3c2a1 − c3a2b1
5. Liczba składników w sumie definiującej wyznacznik stopnia n jest równa liczbien! permutacji zbioru n-elementowego. Dla n ≥ 4 obliczanie wyznacznika możnaznacznie uprościć stosując tzw. rozwinięcie Laplace’a lub korzystając z własnościwyznacznika, którymi zajmiemy się w następnym podrozdziale.
3Zmieniliśmy oznaczenia wyrazów macierzy, żeby uzyskać bardziej przejrzyste wzory.
100
Definicja 6.8 Niech A będzie macierzą typu m × n nad ciałem K. Niech kbędzie liczbą naturalną taką, że k ≤ min{m,n}.Minorem stopnia k macierzy A nazywamy wyznacznik macierzy typu k ×k utworzonej z elementów macierzowych leżących na przecięciu wybranych kwierszy i k kolumn macierzy A z zachowaniem kolejności ich występowania.Minor macierzy A otrzymany z wierszy o numerach i1, . . . , ik (i1 < . . . < ik) iz kolumn o numerach j1, . . . , jk (j1 < . . . < jk) oznaczamy symbolem
A[i1,...,ikj1,...,jk
].
Minorem głównym stopnia k macierzy A nazywamy minor
A[
1,2,...,k1,2,...,k
].
Przykłady:
1. Minorami stopnia 1 macierzy A są jej wyrazy:
A[ij
]= Aij .
2. Niech
A =
a1 b1 c1 d1
a2 b2 c2 d2
a3 b3 c3 d3
.
Przykłady minorów stopnia 3 i 2:
A[
123134
]=
∣∣∣∣∣∣∣∣a1 c1 d1
a2 c2 d2
a3 c3 d3
∣∣∣∣∣∣∣∣ , A[
1324
]=
∣∣∣∣∣ b1 d1
b3 d3
∣∣∣∣∣Minory główne macierzy A:
A[
11
]= a1 , A
[1212
]=
∣∣∣∣∣ a1 b1
a2 b2
∣∣∣∣∣ , A[
123123
]=
∣∣∣∣∣∣∣∣a1 b1 c1
a2 b2 c2
a3 b3 c3
∣∣∣∣∣∣∣∣ .
101
Twierdzenie 6.4 Niech A będzie macierzą typu m× n nad ciałem K. Niechk będzie liczbą naturalną taką, że k ≤ min{m,n}.
A[i1,...,ikj1,...,jk
]=
∑τ∈S({j1,...,jk})
sgn(τ)Ai1τ(j1)Ai2τ(j2) . . . A
ikτ(jk) ,
gdzie znak permutacji, sgn(τ) = 1 gdy τ zawiera parzystą liczbę inwersji isgn(τ) = −1 gdy liczba inwersji jest nieparzysta.
Dowód: Niech [Brs ] będzie macierzą utworzoną z elementów macierzy A leżących na
przecięciu k wierszy o numerach i1 < . . . < ik i k kolumn o numerach j1 < . . . < jk.Zgodnie z definicjami minora i wyznacznika, mamy
A[i1,...,ikj1,...,jk
]= detB =
∑σ∈Sk
sgn(σ)B1σ(1)B
2σ(2) . . . B
kσ(k) .
Rozważmy odwzorowanie
λ : Ik = {1, . . . , k} 3 s→ λ(s) = js ∈ {j1, . . . , jk} .
Zgodnie z definicją macierzy B, dla dowolnych r, s = 1, . . . , k mamy
Brs = Airjs = Airλ(s) ,
a zatem
A[i1,...,ikj1,...,jk
]=
∑σ∈Sk
sgn(σ)Ai1λ(σ(1))Ai2λ(σ(2)) . . . A
ikλ(σ(k))
=∑σ∈Sk
sgn(σ)Ai1λ◦σ◦λ−1(j1)Ai2λ◦σ◦λ−1(j1) . . . A
ikλ◦σ◦λ−1(j1) .
Odwzorowanie:Sk 3 σ → λ ◦ σ ◦ λ−1 ∈ S({j1, . . . , jk})
jest izomorfizmem grup symetrycznych zachowującym liczbę inwersji i w szczególnościznak permutacji:
sgn(σ) = sgn(λ ◦ σ ◦ λ−1) .
Ostatecznie mamy więc
A[i1,...,ikj1,...,jk
]=
∑τ∈S({j1,...,jk})
sgn(τ)Ai1τ(j1)Ai2τ(j2) . . . A
ikτ(jk) .
•
102
Definicja 6.9 Niech A będzie macierzą kwadratową typu n×n nad ciałem K,a k liczbą naturalną, k < n.Minorem dopełniającym minora stopnia k A
[i1,...,ikj1,...,jk
]nazywamy wyznacznik
stopnia n−k macierzy otrzymanej z macierzy A po skreśleniu wierszy i kolumno numerach, odpowiednio, i1 < . . . < ik i j1 < . . . < jk. Minor dopełniający dominora A
[i1,...,ikj1,...,jk
]oznaczamy symbolem A
[i1,...,ikj1,...,jk
].
Dopełnieniem algebraicznym minora stopnia k A[i1,...,ikj1,...,jk
]nazywamy minor
dopełniający A[i1,...,ikj1,...,jk
]wzięty ze znakiem (−1)s(A) gdzie
s(A) = i1 + . . .+ ik + j1 + . . .+ jk
jest sumą indeksów wszystkich kolumn i wierszy macierzy A, w których zawartyjest minor A
[i1,...,ikj1,...,jk
].
Przykłady:
1. Niech A będzie macierzą typu 4× 4.
A [1224] =
a1
a2
a3
a4
b1
b2
b3
b4
c1
c2
c3
c4
d1
d2
d3
d4
=
∣∣∣∣∣ a3 c3
a4 c4
∣∣∣∣∣ = A [3413]
2. Dla macierzy A z poprzedniego przykładu,
A [23] =
a1
a2
a3
a4
b1
b2
b3
b4
c1
c2
c3
c4
d1
d2
d3
d4
=
∣∣∣∣∣∣∣∣a1 b1 d1
a3 b3 d3
a4 b4 d4
∣∣∣∣∣∣∣∣ = A [134124]
103
Twierdzenie 6.5 (rozwinięcie Laplace’a względem k kolumn)Niech A będzie macierzą kwadratową typu n×n nad ciałem K. Dla dowolnegowyboru k kolumn {Aj1 , . . . , Ajk}, k < n, wyznacznik macierzy A jest sumąiloczynów wszystkich minorów stopnia k zawartych w tych kolumnach przez ichalgebraiczne dopełnienia.
Uwaga Treść powyższego twierdzenia możemy zapisać wzorem
detA =∑
{i1,...,ik}
(−1)i1+...+ik+j1+...+jkA[i1,...,ikj1,...,jk
]A[i1,...,ikj1,...,jk
].
gdzie suma biegnie po wszystkich podzbiorach k-elementowych {i1, . . . , ik} zbioru in-deksów {1, . . . , n}.
Dowód: Zgodnie z definicją
detA =∑σ∈Sn
sgn(σ)A1σ(1)A
2σ(2) . . . A
nσ(n) .
Oznaczmy przez Sn[i1,...,ikj1,...,jk
]podzbiór tych wszystkich permutacji, które przekształcają
podzbiór indeksów {i1, . . . , ik} na podzbiór {j1, . . . , jk} 4
Sn[i1,...,ikj1,...,jk
]= {σ ∈ Sn : σ({i1, . . . , ik}) = {j1, . . . , jk}}
Dla każdego podzbioru {j1, . . . , jk} zbiór wszystkich permutacji Sn rozkłada się narozłączną sumę
Sn =⋃
{i1,...,ik}
Sn[i1,...,ikj1,...,jk
]gdzie sumowanie biegnie po wszystkich k-elementowych podzbiorach {i1, . . . , ik} zbioruindeksów {1, . . . , n}, a zatem
detA =∑
{i1,...,ik}
∑σ∈Sn
[i1,...,ikj1,...,jk
] sgn(σ)A1σ(1) . . . A
nσ(n) .
Przanalizujemy dokładniej strukturę permutacji σ ∈ Sn[i1,...,ikj1,...,jk
]. Niech {r1, . . . , rn−k},
{s1, . . . , sn−k} będą dopełnieniami podzbiorów {i1, . . . , ik}, {j1, . . . , jk}:
{i1, . . . , ik} ∪ {r1, . . . , rn−k} = {1, . . . , n},{j1, . . . , jk} ∪ {s1, . . . , sn−k} = {1, . . . , n}.
4Tak jak przy definicji minora przyjmiemy konwencję zgodnie z którą, elementy podzbiorówzbioru {1, . . . , n} są indeksowane w porządku rosnącym. W szczególności dla podzbiorów {i1, . . . , ik},{j1, . . . , jk} mamy
i1 < i2 < . . . < ik , j1 < j2 < . . . < jn−k.
104
Ponieważ
σ({i1, . . . , ik}) = {j1, . . . , jk}σ({r1, . . . , rn−k}) = {s1, . . . , sn−k}
każda permutacja σ ∈ Sn[i1,...,ikj1,...,jk
]jednoznacznie wyznacza parę permutacji τ1 ∈ S({j1, . . . , jk}),
τ2 ∈ S({s1, . . . , sn−k}) :
τ1(jl) = σ(il) l = 1, . . . , kτ2(sl) = σ(rl) l = 1, . . . , n− k.
Odwrotnie, każda taka para permutacji wyznacza jednoznacznie permutację σ ∈ Sn[i1,...,ikj1,...,jk
].
Mamy zatem
detA =∑
{i1,...,ik}∑τ1∈S({j1,...,jk})
∑τ2∈S({s1,...,sn−k})
sgn(σ)Ai1τ1(j1) . . . Aikτ1(jk)A
s1τ2(r1) . . . A
sn−kτ2(rn−k) .
Obliczymy teraz związek pomiędzy znakami permutacji σ oraz τ1 i τ2. Zauważmy,że znaki permutacji σ1, σ2 ∈ Sn zadanych wzorami
σ1(l) =
{τ1(l) dla l ∈ {j1, . . . , jk}l dla l ∈ {s1, . . . , sn−k}
σ2(l) =
{l dla l ∈ {j1, . . . , jk}τ2(l) dla l ∈ {s1, . . . , sn−k}
są takie jak znaki permutacji τ1 i τ2
sgn(σ1) = sgn(τ1) , sgn(σ2) = sgn(τ2).
Z drugiej strony permutację σ ∈ Sn[i1,...,ikj1,...,jk
]możemy przedstawić jako złożenie permu-
tacjiσ = σ1 ◦ σ2 ◦ γ
gdzie γ jest permutacją w Sn[i1,...,ikj1,...,jk
]zadaną wzorami
γ(il) = jl dla l = 1, . . . , k,γ(rl) = sl dla l = 1, . . . , n− k.
Na mocy Wniosku.3.3 mamy zatem
sgn(σ) = sgn(σ1)sgn(σ2)sgn(γ),
105
skąd korzystając z Tw.6.4 i Def.6.9 otrzymujemy
detA =∑
{i1,...,ik}
sgn(γ)A[i1,...,ikj1,...,jk
]A[i1,...,ikj1,...,jk
].
Pozostaje wykazać, żesgn(γ) = (−1)i1+...+ik+j1+...+jk
W tym celu policzymy liczbę inwersji w permutacji γ. Ponieważ oba zbiory {j1, . . . , jk},{s1, . . . , sn−k} są uporządkowane rosnąco liczba wszystkich inwersji w permutacji γjest równa sumie liczb inwersji jakie tworzą elementy jednego z tych podzbiorów zpozostałymi elementami zbioru {1, . . . , n}. Wybierzmy zbiór {j1, . . . , jk}. Jego l-tyelement jl znajduje się na il miejscu w permutacji γ. Niech s oznacza liczbę wyrazówciągu γ(1), . . . , γ(il − 1) większych od jl. Tworzą one s inwersji z jl. W tym samymciągu znajduje się il−1−s wyrazów mniejszych od jl. Wszystkich wyrazów mniejszychod jl jest jl − 1, a zatem w ciągu γ(il + 1), . . . , γ(n) musi się znaleźć
(jl − 1)− (il − 1− s) = jl − il + s
wyrazów mniejszych od jl i tworzą one jl− il+s inwersji z jl. Całkowita liczba inwersjijaką tworzy wyraz jl z innymi wyrazami permutacji γ wynosi więc
s+ jl − il + s = 2s+ jl − il .
Sumując inwersje jakie tworzą elementy podzbioru {j1, . . . , jk} otrzymujemy
sgn(σ) = (−1)
k∑l=1
2s+jl−il= (−1)
k∑l=1
jl+il
c.b.d.o. •
Wniosek 6.1 (rozwinięcie Laplace’a względem j-tej kolumny)Niech A będzie macierzą kwadratową typu n × n nad ciałem K. Dla każdegoj = 1, . . . , n:
detA =n∑i=1
(−1)i+jAij A[ij
]Przykład Korzystając z rozwinięcia Laplace’a obliczyć wyznacznik
detA =
∣∣∣∣∣∣∣∣1 2 2 10 2 1 11 0 2 20 1 0 1
∣∣∣∣∣∣∣∣106
Ponieważ w pierwszej kolumnie występują dwa zera, a pozostałe wyrazy są jedynkamiwygodnie jest zastosować rozwinięcie Laplace’a względem tej właśnie kolumny:
detA = (−1)1+1
∣∣∣∣∣∣2 1 10 2 21 0 1
∣∣∣∣∣∣+ (−1)3+1
∣∣∣∣∣∣2 2 12 1 11 0 1
∣∣∣∣∣∣= (2 · 2 · 1 + 1 · 2 · 1− 1 · 2 · 1)
+ (2 · 1 · 1 + 2 · 1 · 1− 1 · 1 · 1− 2 · 2 · 1)
= 4− 1 = 3 .
Korzystając z rozwinięcia Laplace’a względem wybranych kolumn otrzymujemynastępujący
Wniosek 6.2 Niech A ∈ Mm×m(K), B ∈ Mn×n(K) i C ∈ Mm×n(K) będądowolnymi macierzami nad ciałem K. Niech M będzie macierzą blokową typu(m+ n)× (m+ n) zbudowaną z macierzy A,B,C:
M =
[A C
0 B
]=
A11 . . . A1
m C11 . . . C1
n
............
......
.........
...
Am1 . . . Amm Cm1 . . . Cm
n
0 . . . 0 B11 . . . B1
n
............
......
.........
...
0 . . . 0 Bn1 . . . Bn
n
.
WtedydetM = detA detB .
Korzystając z poprzedniego wniosku lub bezpośrednio z rozwinięcia Laplace’a wzglę-dem kolumny łatwo otrzymujemy
Wniosek 6.3 Niech A będzie macierzą kwadratową typu n×n nad ciałem K.Jeżeli A = [Aij] jest macierzą górno-trójkątną (dolno-trójkątną) tzn.
Aij = 0 dla j < i , ( dla j > i ),
TodetA = A1
1 . . . Ann .
107
6.3 Własności wyznacznika
Definicja 6.10 Niech A będzie macierzą typu m×n nad ciałem K. Macierzątransponowaną macierzy A = [Aij] nazywamy macierz typu n×m
AT = [(AT )ij]
otrzymaną z macierzy A przez zamianę miejscami wierszy i kolumn:
(AT )ij = Aji .
Przykłady:
1. A = [ 1 3 ] , AT =
[13
]2. A =
[1 23 4
], AT =
[1 32 4
]
Twierdzenie 6.6 Niech A będzie macierzą kwadratową typu n×n nad ciałemK. Wtedy
detA = detAT .
Dowód: Z definicji wyznacznika i macierzy transponowanej
detAT =∑σ∈Sn
sgn(σ)(AT )1σ(1)(A
T )2σ(2) . . . (A
T )nσ(n)
=∑σ∈Sn
sgn(σ)Aσ(1)1 A
σ(2)2 . . . Aσ(n)
n .
Korzystając z tego, że dla dowolnej permutacji
sgn(σ) = sgn(σ−1)
i porządkując czynniki w każdym z wyrazów według górnego wskaźnika, otrzymamy
sgn(σ)Aσ(1)1 A
σ(2)2 . . . Aσ(n)
n = sgn(σ−1)A1σ−1(1)A
2σ−1(2) . . . A
nσ−1(n) .
Jeżeli σ przebiega zbiór wszystkich permutacji Sn to σ−1 również przebiega cały zbiórSn przy czym każda permutacja występuje tylko jeden raz. Mamy zatem
detAT =∑σ∈Sn
sgn(σ−1)A1σ−1(1)A
2σ−1(2) . . . A
nσ−1(n)
=∑σ∈Sn
sgn(σ)A1σ(1)A
2σ(2) . . . A
nσ(n) = detA . •
108
Bezpośrednio z dowodu ostatniego twierdzenia otrzymujemy:
Wniosek 6.4 Niech A będzie macierzą kwadratową typu n×n nad ciałem K.
detA =∑σ∈Sn
sgn(σ)Aσ(1)1 A
σ(2)2 . . . Aσ(n)
n .
Z Tw.6.5 i Tw.6.6 wynika
Twierdzenie 6.7 (rozwinięcie Laplace’a względem k wierszy)Niech A będzie macierzą kwadratową typu n × n nad ciałem K. Dla dowol-nego wyboru k wierszy {Ai1 , . . . , Aik}, k < n, wyznacznik macierzy A jest sumąiloczynów wszystkich minorów stopnia k zawartych w tych wierszach przez ichalgebraiczne dopełnienia.
Wniosek 6.5 (rozwinięcie Laplace’a względem i-tego wiersza)Niech A będzie macierzą kwadratową typu n × n nad ciałem K. Dla każdegoi = 1, . . . , n:
detA =n∑j=1
(−1)i+jAij A[ij
]
Przedstawimy teraz kilka własności wyznacznika związanych z operacjami na wier-szach i kolumnach macierzy. W tym celu wygodnie jest traktować macierze jakouporządkowane zbiory wierszy lub kolumn.
Niech A będzie macierzą typu m× n o wyrazach z ciała K:
A =
A1
1 A12 . . . A1
n
A21 A2
2 . . . A2n
......
.........
...
Am1 Am2 . . . Amn
.
Macierz A traktowaną jako uporządkowany zbiór m wierszy będziemy zapisywać jako
A =
A1
...Am
109
gdzie i-ty wiersz jest macierzą typu 1× n:
Ai = [Ai1 , . . . , Ain] .
Macierz A traktowaną jako uporządkowany zbiór n kolumn będziemy zapisywać jako
A = [A1 , . . . , An] .
gdzie j-ta kolumna jest macierzą typu m× 1:
Aj =
A1j
...
Amj
.
Twierdzenie 6.8 Wyznacznik detA jest zupełnie antysymetrycznąfunkcją wierszy (kolumn) macierzy A ∈ Mn×n(K), tzn. dla A =[A1, . . . , An] ∈Mn×n(K) i dowolnych i, j ∈ {1, . . . , n}
det
A1
...Ai
...Aj
...An
= − det
A1
...Aj
...Ai
...An
oraz
det([A1, . . . , Ai, . . . , Aj, . . . , An]) =
−det([A1, . . . , Aj, . . . , Ai, . . . , An])
(Zamiana miejscami dowolnych dwóch wierszy (kolumn) w macierzy kwadra-towej A pociąga za sobą zmianę znaku jej wyznacznika).
Dowód: Na mocy Tw.6.6 wystarczy udowodnić twierdzenie dla kolumn Niech A =[A1 , . . . , An]. Na mocy Wniosku 6.4 wyznacznik macierzy
A′ = [A1, . . . , Aj−1, Ak, Aj+1, . . . , Ak−1, Aj, Ak+1, . . . , An]
110
otrzymanej w wyniku przestawienia kolumn j i k w macierzy A wynosi:
detA′ =∑σ∈Sn
sgn(σ)Aσ(1)1 . . . A
σ(j)k . . . A
σ(k)j . . . Aσ(n)
n
= −∑σ∈Sn
sgn(σ ◦ (j, k))Aσ◦(j,k)(1)1 . . . A
σ◦(j,k)(j)j . . . A
σ◦(j,k)(k)k . . . Aσ◦(j,k)(n)
n
Jeżeli σ przebiega zbiór wszystkich permutacji Sn to σ ◦ (j, k) również przebiega całyzbiór Sn przy czym każda permutacja występuje tylko jeden raz. Mamy zatem
detA′ = −∑σ∈Sn
sgn(σ)Aσ(1)1 . . . A
σ(j)j . . . A
σ(k)k . . . Aσ(n)
n
= − detA . •
Wniosek 6.6 Jeżeli dwa wiersze (kolumny) w macierzy kwadratowej A nadciałem K są jednakowe to jej wyznacznik jest równy 0.
Twierdzenie 6.9 Niech A ∈ Mn,1(K). Wyznacznik detA jest liniowąfunkcją wierszy macierzy A, tzn. dla każdego i ∈ {1, . . . , n}, β, γ ∈ K,Bi, Ci ∈Mn×1(K):
det
A1
...βBi + γCi
...An
= β det
A1
...Bi
...An
+ γ det
A1
...Ci
...An
Wyznacznik detA jest liniową funkcją kolumn macierzy A, tzn. dla każdegoj ∈ {1, . . . , n}, β, γ ∈ K, Bj, Cj ∈M1×n(K):
det[A1, . . . , βBj + γCj, . . . , An] = β det[A1, . . . , Bj, . . . , An]
+ γ det[A1, . . . , Cj, . . . , An]
Dowód: Pierwsza część twierdzenia wynika łatwo z Def.6.7. Dowód drugiej przeprowadzamyidentycznie korzystając z Wniosku 6.4:
det[A1, . . . , βBj + γCj, . . . , An] =
=∑σ∈Sn
Aσ(1)1 . . . A
σ(j−1)j−1
(βB
σ(j)j + γC
σ(j)j
)Aσ(j+1)j+1 . . . Aσ(n)
n
111
= β∑σ∈Sn
Aσ(1)1 . . . A
σ(j−1)j−1 B
σ(j)j A
σ(j+1)j+1 . . . Aσ(n)
n
+ γ∑σ∈Sn
Aσ(1)1 . . . A
σ(j−1)j−1 C
σ(j)j A
σ(j+1)j+1 . . . Aσ(n)
n
= β det[A1, . . . , Aj−1, Bj, Aj+1, . . . , An]
+ γ det[A1, . . . , Aj−1, Cj, Aj+1, . . . , An] .
Kolejne dwa wnioski mają duże znaczenie praktyczne przy obliczaniu wyznaczników.Ich dowody pozostawiamy jako ćwiczenie.
Wniosek 6.7 Jeżeli jeden z wierszy (jedna z kolumn) macierzy A jest kombi-nacją liniową pozostałych to detA = 0.
Wniosek 6.8 Dodanie do dowolnego wiersza (do dowolnej kolumny) macierzyA liniowej kombinacji pozostałych wierszy (kolumn) nie zmienia wartości wyz-nacznika macierzy A.
Z Wniosku 6.7 wynika łatwo następujące kryterium niezależności liniowej wierszylub kolumn macierzy kwadratowej:
Wniosek 6.9 Niech A ∈ Mn×n(K) i detA 6= 0. Wtedy wiersze (kolumny)macierzy A traktowane jako wektory w przestrzeni Kn tworzą układ liniowoniezależny.
Przykład Obliczyć wyznacznik
detA =
∣∣∣∣∣∣∣∣∣∣1 1 1 1 11 2 2 2 21 2 3 3 31 2 3 4 41 2 3 4 5
∣∣∣∣∣∣∣∣∣∣Zgodnie z Wnioskiem 6.8 wyznacznik nie ulegnie zmianie jeśli pierwszy wiersz ode-jmiemy od każdego z pozostałych wierszy. Mamy zatem
detA =
∣∣∣∣∣∣∣∣∣∣1 1 1 1 10 1 1 1 10 1 2 2 20 1 2 3 30 1 2 3 4
∣∣∣∣∣∣∣∣∣∣.
112
Odejmując drugi wiersz od trzeciego, czwartego i piątego dostaniemy
detA =
∣∣∣∣∣∣∣∣∣∣1 1 1 1 10 1 1 1 10 0 1 1 10 0 1 2 20 0 1 2 3
∣∣∣∣∣∣∣∣∣∣.
Powtarzając tę operację kolejno dla trzeciego i czwartego wiersza otrzymujemy
detA =
∣∣∣∣∣∣∣∣∣∣1 1 1 1 10 1 1 1 10 0 1 1 10 0 0 1 10 0 0 0 1
∣∣∣∣∣∣∣∣∣∣i na mocy Wniosku 6.3 detA = 1.
6.4 Twierdzenie Cauchy’ego
Twierdzenie 6.10 Niech D : Mn×n(K) → K będzie zupełnie an-tysymetryczną i liniową funkcją kolumn macierzy typu n×n. Wtedy dla dowol-nych A,B ∈Mn×n(K)
D(AB) = detB D(A) .
Dowód: Zgodnie z definicją iloczynu macierzy
(AB)ik =n∑j=1
AijBjk
k-ta kolumna (AB)k macierzy AB jest liniową kombinacją kolumn Aj macierzy A owspółczynnikach Bj
k:
(AB)k =n∑j=1
AjBjk =
n∑j=1
BjkAj
Korzystając z liniowości funkcji D względem kolumn mamy więc
D([(AB)1, . . . , (AB)n]) =n∑
j1=1
. . .n∑
jn=1
Bj11 . . . Bjn
n D([Aj1 , . . . , Ajn ]) .
Ze względu na zupełną antysymetrię funkcja D zeruje się na macierzach, w którychdowolne dwie kolumny są jednakowe. Zatem w sumie po prawej stronie różne od zera
113
mogą być tylko te wyrazy, w których wszystkie indeksy jl są różne. Wystarczy więcsumować tylko po takich układach indeksów j1, . . . , jn, które tworzą permutacje zbioru{1, . . . , n}:
D([(AB)1, . . . , (AB)n]) =∑σ∈Sn
Bσ(1)1 . . . Bσ(n)
n D([Aσ(1), . . . , Aσ(n)]) .
Ponownie korzystając z zupełnej antysymetrii funkcjiD względem kolumn łatwo wykazać,że dla dowolnej permutacji σ ∈ Sn
D([Aσ(1), . . . , Aσ(n)]) = sgn(σ)D([A1, . . . , An])
Otrzymujemy zatem
D(AB) =
(∑σ∈Sn
sgn(σ)Bσ(1)1 . . . Bσ(n)
n
)D([A1, . . . , An])
= detB D(A) . •
Twierdzenie 6.11 Niech D : Mn×n(K) → K będzie zupełnie an-tysymetryczną i liniową funkcją wierszy macierzy typu n×n. Wtedy dla dowol-nych A,B ∈Mn×n(K)
D(AB) = detA D(B) .
Dowód: Dowód przebiega podobnie jak w poprzednim twierdzeniu. Tym razem ko-rzystamy z faktu, że wiersze macierzy AB są kombinacjami liniowymi wierszy macierzyB:
(AB)i =n∑j=1
AijBj . •
Jako proste wnioski z dwóch poprzednich twierdzeń otrzymujemy dwa ważne twierdzenia:
Twierdzenie 6.12 Niech D : Mn×n(K) → K będzie zupełnie an-tysymetryczną i liniową funkcją wierszy (lub kolumn) macierzy typu n × n.Jeżeli dodatkowo wartość funkcji D na macierzy jednostkowej In jest równa 1,to
D(A) = detA
dla każdej macierzy A ∈Mn×n(K).
114
Dowód: Na mocy twierdzeń 6.10 i 6.11, dla dla dowolnych A,B ∈Mn×n(K)
D(BA) = detA D(B) ,
lubD(AB) = detA D(B) .
Podstawiając B = In i korzystając z założenia D(In) = 1 otrzymujemy
D(A) = detA
dla dowolnej macierzy A ∈Mn×n(K) •
Uwaga:Twierdzenie 6.12 mówi, ze jedyną funkcją o podanych własnościach jest wyznacznik.
Umożliwia to wprowadzenie definicji wyznacznika jako całkowicie antysymetrycznej,liniowej funkcji kolumn (lub wierszy) spełniającej warunek normalizacji D(In) = 1. Jakwidzieliśmy w dowodach poprzednich twierdzeń z tej definicji łatwo wynika wyrażeniena wyznacznik w postaci sumy po permutacjach.
Twierdzenie 6.13 (Cauchy’ego)Dla dowolnych A,B ∈Mn×n(K)
det(AB) = detA detB .
Dowód: Na mocy twierdzeń 6.8 i 6.9 wyznacznik spełnia założenia twierdzenia 6.10,z którego natychmiast wynika teza. •
6.5 Macierz odwrotna
Definicja 6.11 Niech A ∈ Mn×n(K). Macierz AD utworzoną z dopełnieńalgebraicznych elementów macierzy transponowanej AT
(AD)ij = (−1)i+jAT[ij
]= (−1)i+jA
[ji
].
nazywamy macierzą dołączoną macierzy A.
Twierdzenie 6.14 Dla każdej macierzy A ∈Mn×n(K) zachodzi:
AAD = ADA = (detA) I .
115
Dowód: Z definicji macierzy dołączonej mamy
(AAD)ij =n∑k=1
Aik(AD)kj ==
n∑k=1
Aik(−1)j+kA[jk
].
Gdy i = j to suma po prawej stronie ostatniej równości jest rozwinięciem Laplace’adetA względem j-tego wiersza macierzy A:
(AAD)jj =n∑k=1
Ajk(−1)j+kA[jk
]= detA .
Gdy i 6= j to suma
(AAD)ij =n∑k=1
Aik(−1)j+kA[jk
]jest rozwinięciem Laplace’a wyznacznika macierzy
A11 A1
2 . . . A1n
......
.........
...
Ai1 Ai2 . . . Ain...
............
...
Ai1 Ai2 . . . Ain...
............
...
An1 An2 . . . Ann
otrzymanej z macierzy A przez zastąpienie j-tego wiersza i-tym wierszem. Macierz tama dwa wiersze jednakowe zatem jej wyznacznik jest równy zeru, co kończy dowódrówności AAD = (detA)I . Równość ADA = (detA)I wykazujemy w taki sam sposób.•
Twierdzenie 6.15 Macierz A ∈ Mn×n(K) jest nieosobliwa wtedy i tylko wt-edy gdy detA 6= 0.
Dowód:⇒ Jeżeli macierz A jest nieosobliwa to istnieje macierz odwrotna A−1 i AA−1 = I.
Z twierdzenia Cauchy’ego wynika, że detA · detA−1 = 1, co oznacza, że detA 6= 0.⇐ Załóżmy, że detA 6= 0. Mamy wykazać, że istnieje macierz B taka, że
AB = BA = I .
116
Z Twierdzenia 6.11 wynika, że macierz
B =1
detAAD
spełnia żądane relacje. •
Z dowodu poprzedniego twierdzenia, otrzymujemy
Wniosek 6.10 Jeżeli macierz A ∈Mn×n(K) jest nieosobliwa, to
A−1 =1
detAAD .
Przykłady:
1. Znajdziemy macierz odwrotną do macierzy typu 2× 2:
A =
[a b
c d
]
Macierz ta jest nieosobliwa wtedy i tylko wtedy gdy jej wyznacznik jest różny odzera:
detA = ad− bc 6= 0 .
Obliczamy macierz dołączoną AD macierzy A
AT =
[a c
b d
]⇒ AD =
[d −b
−c a
]
i na podstawie Wniosku 6.9.
A−1 =1
ad− bc
[d −b
−c a
]
Sprawdzamy
A−1A =1
ad− bc
[d −b
−c a
][a b
c d
]=
1
ad− bc
[ad− bc 0
0 ad− bc
]
AA−1 =1
ad− bc
[a b
c d
][d −b
−c a
]=
1
ad− bc
[ad− bc 0
0 ad− bc
]
117
2. Szukamy macierz odwrotnej do macierzy:
A =
2 1 0
−1 0 1
1 0 0
Liczymy wyznacznik
detA = 2 · 0 · 0 + 1 · 1 · 1 + 0 · (−1) · 0− 0 · 0 · 1− 2 · 1 · 0− 1 · (−1) · 0 = 1 .
Ponieważ jest równy jeden, macierz odwrotna istnieje i jest równa macierzy dołąc-zonej AD. Obliczamy macierz transponowaną i dołączoną:
AT =
2 −1 1
1 0 0
0 1 0
AD =
0 0 1
1 0 −2
0 1 1
Zatem
A−1 =
0 0 1
1 0 −2
0 1 1
Sprawdzamy
A−1A =
0 0 1
1 0 −2
0 1 1
2 1 0
−1 0 1
1 0 0
=
1 0 0
0 1 0
0 0 1
AA−1 =
2 1 0
−1 0 1
1 0 0
0 0 1
1 0 −2
0 1 1
=
1 0 0
0 1 0
0 0 1
118
Twierdzenie 6.16 (wzory Cramera) Niech A = [Aij ] ∈ Mn×n(K) będziemacierzą nieosobliwą. Wtedy układ równań
A11x
1 + A12x
2 + . . . + A1nx
n = c1
A21x
1 + A22x
2 + . . . + A2nx
n = c2
...An1x
1 + An2x2 + . . . + Annx
n = cn
ma dokładnie jedno rozwiązanie x =
x1
...xn
i jest ono dane wzorami
xi =detA[i]
detA, i = 1, . . . , n ,
gdzie macierz A[i] powstaje z macierzy A przez zamianę i-tej kolumny na
kolumnę wyrazów wolnych c =
c1
...cn
.
Dowód: Układ równań, o którym mowa w twierdzeniu, można przepisać w postacijednego równania macierzowego A1
1 . . . A1n
............
...An1 . . . Ann
x1
...xn
= Ax = c =
c1
...cn
.
Ponieważ macierz A jest nieosobliwa to istnieje macierz do niej odwrotna. Mnożącobustronnie ostatnie równanie przez A−1 i korzystając z Wniosku 6.9 otrzymujemy
x = A−1c =1
detAADc .
Korzystając z definicji macierzy dołączonej mamy więc
xi =1
detA
n∑j=1
(AD)ijcj =
1
detA
n∑j=1
cj(−1)i+jA[ji
].
Suma po prawej jest rozwinięciem Laplace’a wyznacznika macierzy
A[i] = [A1, . . . , Ai−1, c, Ai+1, . . . , An]
względem i-tej kolumny. •
119
7 Układy równań liniowych
7.1 Twierdzenie Kroneckera-Capelliego
Definicja 7.1 Niech A = [Aij ] ∈Mm×n(K) i C1, . . . , Cm ∈ K.Liniowym układem m równań o współczynnikach z ciała K i o nniewiadomych nazywamy układ
A11x
1 + A12x
2 + . . . + A1nx
n = C1
A21x
1 + A22x
2 + . . . + A2nx
n = C2
...Am1 x
1 + Am2 x2 + . . . + Amn x
n = Cm
(10)
Elementy C1, . . . , Cm nazywamy wyrazami wolnymi układu równań (10),a macierz A = [Aij ] - macierzą współczynników układu lub krótkomacierzą układu (10). Macierz B ∈ Mm×n+1(K) otrzymaną z macierzywspółczynników A = [Aij ] przez dołączenie kolumny wyrazów wolnych
B =
A1
1 A12 . . . A1
n C1
A21 A2
2 . . . A2n C2
. . ....
.........
......
Am1 Am2 . . . Amn Cm
nazywamy rozszerzoną macierzą układu (10). Ciąg elementów x1, . . . , xm
ciała K dla którego układ równań jest spełniony nazywamy rozwiązaniemtego układu. Jeżeli nie istnieje żadne rozwiązanie układu równań to układtaki nazywamy sprzecznym, w przeciwnym wypadku mówimy, że układ jestniesprzeczny.
Uwagi:
1. Układ równań liniowych (10) często zapisujemy w postaci macierzowejA1
1 A12 . . . A1
n
A21 A2
2 . . . A2n
......
.........
...Am1 Am2 . . . Amn
x1
x2
...xn
=
C1
C2
...Cn
2. Traktując kolumny rozszerzonej macierzy układu równań (10) jako wektory w
przestrzeni Km:
Ai = (A1i , A
2i , . . . , A
mi ) , i = 1, . . . , n,
120
C = (C1, C2, . . . , Cm)
możemy zapisać ten układ równań jako równanie wektorowe:
x1A1 + x2A2 + . . .+ xnAn = C .
Twierdzenie 7.1 (Kroneckera-Capelliego) Układ równań liniowych (10)jest niesprzeczny wtedy i tylko wtedy gdy
dim span{A1, A2, . . . , An} = dim span{A1, A2, . . . , An, C} .
Dowód: Załóżmy, że układ (10) ma rozwiązanie
X = {x1, x2, . . . , xn} .
Oznacza to, że wektor C jest kombinacją liniową wektorów A1, A2, . . . , An, a zatemC ∈ span{A1, A2, . . . , An} skąd
span{A1, A2, . . . , An} = span{A1, A2, . . . , AnC} ,
a więc i wymiary tych przestrzeni muszą być równe.Załóżmy teraz, że
dim span{A1, A2, . . . , An} = dim span{A1, A2, . . . , AnC} .
Na mocy Tw.5.8.ii dla każdej podprzestrzeni właściwej U przestrzeni liniowej V za-chodzi
dimU < dimV.
A zatem podprzestrzeń span{A1, A2, . . . , An} ⊂ span{A1, A2, . . . , AnC} musi być pod-przestrzenią niewłaściwą. Ponieważ, z definicji, nie jest podprzestrzenią zerową otrzy-mujemy
span{A1, A2, . . . , An} = span{A1, A2, . . . , AnC} .W szczególności C ∈ span{A1, A2, . . . , An}, a więc wektor C daje się przedstawić jakoliniowa kombinacja wektorów A1, A2, . . . , An:
C = x1A1 + x2A2 + . . .+ xnAn .
•Definicja 7.2 Układ równań (10) nazywamy układem niejednorodnym,jeżeli przynajmniej jeden z wyrazów wolnych jest różny od zera, tzn. wektorC jest niezerowy. W przeciwnym wypadku mówimy, że układ ten jest jed-norodny.
121
UwagaUkład jednorodny jest zawsze niesprzeczny. Istotnie ciąg Θ = (0, 0, . . . , 0) ∈ Kn
jest zawsze rozwiązaniem takiego układu.
Twierdzenie 7.2 Jeżeli niejednorodny układ równań liniowych
x1A1 + x2A2 + . . .+ xnAn = C , A1, . . . , An, C ∈ Km, (11)
ma rozwiązanie X0 = (x10, x
20, . . . , x
n0 ), to dla dowolnego rozwiązania X =
(x1, x2, . . . , xn) układu jednorodnego
x1A1 + x2A2 + . . .+ xnAn = 0
X0 + X jest rozwiązaniem układu niejednorodnego (11). Ponadto każderozwiązanie układu (11) można przedstawić w tej postaci.
Dowód: Niech X0 = (x10, x
20, . . . , x
n0 ) będzie rozwiązaniem układu niejednorodnego, a
X = (x1, x2, . . . , xn) - rozwiązaniem układu jednorodnego. Wtedy
(x10 + x1)A1 + (x2
0 + x2)A2 + . . .+ (xn0 + xn)An =
(x10A1 + x2
0A2 + . . .+ xn0An) + (x1A1 + x2A2 + . . .+ xnAn) =
C + Θ = C
Załóżmy teraz, że Y = (y1, y2, . . . , yn) jest dowolnym rozwiązaniem układu niejed-norodnego, tzn.
y1A1 + y2A2 + . . .+ ynAn = C .
Ponieważ X0 jest rozwiązaniem układu niejednorodnego, to
x10A1 + x2
0A2 + . . .+ xn0An = C .
Odejmując ostatnie dwa równania stronami otrzymujemy
(y1 − x10)A1 + (y2 − x2
0)A2 + . . .+ (yn − xn0 )An = 0 ,
a zatem U = Y − X0 jest rozwiązaniem układu jednorodnego, a Y = X0 + U -poszukiwanym przedstawieniem rozwiązania Y . •
122
7.2 Rząd macierzy
Definicja 7.3 Niech A = [Aij ] ∈ Mm×n(K) i niech A1, A2, . . . , An oznaczająkolumny macierzy A traktowane jako wektory w przestrzeni Km. Rzędemmacierzy A nazywamy wymiar przestrzeni liniowej rozpiętej na jej kolumnach.Rząd macierzy oznaczamy symbolem Rank:
RankA = dim Span{A1, A2, . . . , An} .
UwagaZamiana porządku kolumn lub wierszy nie zmienia rzędu macierzy.
Definicja 7.4 Niech D będzie minorem macierzy A = [Aij ] ∈Mm×n(K) stop-nia r. Wyznaczniki tych wszystkich macierzy dla których D jest minorem nazy-wamy minorami obejmującymi minora D.
Twierdzenie 7.3 (metoda minorów obejmujących) Niech D będzieróżnym od zera minorem macierzy A = [Aij ] ∈ Mm×n(K) stopnia r. Jeżeliwszystkie minory obejmujące minora D stopnia r + 1 są równe zeru to rządmacierzy A jest równy r.
Dowód: Możemy założyć, że minor D, o którym mowa w założeniach twierdzeniaodpowiada pierwszym r wierszom i pierwszym r kolumnom macierzyA. Istotnie, gdybytak nie było to można odpowiednio zmienić numerację wierszy i kolumn macierzy A,co na mocy uwagi poniżej Def.7.3 nie zmienia rzędu macierzy. Mamy więc
D =
∣∣∣∣∣∣∣∣∣A1
1 A12 . . . A1
r
A21 A2
2 . . . A2r
......
.........
...Ar1 Ar2 . . . Arr
∣∣∣∣∣∣∣∣∣ 6= 0 .
Wynika stąd, na mocy Wniosku 6.10, że kolumny minora D są liniowo niezależne.Liniowo niezależny jest więc także układ pierwszych r kolumn macierzy A, a zatemrank A ≥ r. Jeżeli r = n to rank A = r i dowód jest zakończony.
Załóżmy, że r < n. Wykażemy, że każda kolumna macierzy A jest linową kom-binacją pierwszych r kolumn. Wystarczy to udowodnić dla kolumn o numerach k =
123
r + 1, r + 2, . . . , n. Rozważmy w tym celu wyznacznik
Djk =
∣∣∣∣∣∣∣∣∣∣∣
A11 A1
2 . . . A1r A1
k
A21 A2
2 . . . A2r A2
k...
............
......
Ar1 Ar2 . . . Arr ArkAj1 Aj2 . . . Ajr Ajk
∣∣∣∣∣∣∣∣∣∣∣Dla każdego j = 1, 2, . . . , n mamy Dj
k = 0. Dla j = 1, 2, . . . , r wynika to stąd,że dwa wiersze wyznacznika Dj
k są identyczne. Dla j = r + 1, r + 2, . . . , n wynikato z założenia, gdyż wtedy Dj
k jest minorem obejmującym minora D stopnia r + 1.Korzystając z rozwinięcia Laplace’a względem ostatniego wiersza otrzymujemy
(−1)r+2Aj1M1 + (−1)r+3Aj2M2 + . . .+ (−1)2r+1AjrMr + AjkD = 0
gdzie M1,M2, . . . ,Mr są minorami macierzy A niezależnymi od wyboru j-ego wierszatej macierzy. Ponieważ D 6= 0 to
Ajk = − 1
D
((−1)r+2Aj1M1 + (−1)r+3Aj2M2 + . . .+ (−1)2r+1AjrMr
).
dla każdego j = 1, 2, . . . , n. Oznacza to, że k-ta kolumna macierzy A jest kombinacjąliniową pierwszych r kolumn tej macierzy. Zatem r = rank A. •
Przykłady:
1. Znajdziemy rząd macierzy 1 2 1 −11 1 0 12 3 1 00 1 1 −2
Obliczamy kolejno minory główne:
1 6= 0 ,
∣∣∣∣ 1 21 1
∣∣∣∣ 6= 0 ,
∣∣∣∣∣∣1 2 11 1 02 3 1
∣∣∣∣∣∣ = 0
Badamy minory obejmujące minora∣∣∣∣ 1 2
1 1
∣∣∣∣∣∣∣∣∣∣1 2 −11 1 10 1 −2
∣∣∣∣∣∣ = 0 ,
∣∣∣∣∣∣1 2 11 1 00 1 1
∣∣∣∣∣∣ = 0 ,
∣∣∣∣∣∣1 2 −11 1 12 3 0
∣∣∣∣∣∣ = 0
Zatem rankA = 2.
124
Twierdzenie 7.4 Niech A ∈ Mm×n(K). Rząd macierzy A jest równy stop-niowi najwyższego nie znikającego minora tej macierzy, tzn. istnieje minorstopnia r = rank A, różny od zera i każdy minor macierzy A stopnia r+ 1 jestrówny zeru.
Dowód: Jeżeli A jest macierzą zerową to rank A = 0 i teza jest oczywista. Załóżmywięc, że A jest macierzą niezerową.
Jeżeli istnieje minor stopnia r różny od zera i każdy minor macierzy A stopnia r+1jest równy zeru to na mocy Tw.7.3 rank A = r.
Załóżmy teraz, że rank A = r. Zatem dowolny układ więcej niż r kolumn macierzyA jest liniowo zależny, a więc dowolny minor stopnia większego niż r jest równy zeru.Ponadto z Tw.7.3 wynika, że musi istnieć różny od zera minor macierzy A stopnia r.Istotnie gdyby wszystkie minory macierzy A stopnia r były równe zeru to z Tw.7.3wynikałoby, że rank A < r, co jest sprzeczne z naszym założeniem. •
Wniosek 7.1 Niech A ∈Mm×n(K).
i. rank A = rank AT
ii. Rząd macierzy A jest równy wymiarowi przestrzeni liniowej rozpiętej najej wierszach.
Definicja 7.5 Niech A = [Aij ] ∈ Mm×n(K). Operacją elementarną nakolumnach (wierszach) macierzy A nazywamy każde z następujących przeksz-tałceń
i. przestawienie dwóch dowolnych kolumn (wierszy) macierzy A;
ii. pomnożenie dowolnej kolumny (wiersza) macierzy A przez skalar λ 6= 0;
iii. dodanie do kolumny (wiersza) dowolnej kombinacji liniowej pozostałychkolumn (wierszy).
Twierdzenie 7.5 Rząd macierzy jest niezmiennikiem operacji elemen-tarnych, tzn. nie ulega zmianie po wykonaniu na macierzy operacji elemen-tarnej na jej kolumnach lub wierszach.
Dowód: Oznaczmy przez A1, A2, . . . , An kolumny macierzy A =∈Mm×n(K). Dowódwynika natychmiast z następujących równości:
Span{A1, . . . , Ai, . . . , Aj, . . . , An} = Span{A1, . . . , Aj, . . . , Ai, . . . , An}
125
Span{A1, . . . , Ai, . . . , An} = Span{A1, . . . , λAi, . . . , An} , (λ 6= 0)
Span{A1, . . . , Ai, . . . , An} = Span{A1, . . . , Ai +∑j 6=i
αjAj, . . . , An}
•
Twierdzenie 7.6 Rząd macierzy A =∈ Mm×n(K) jest równy r wtedy i tylkowtedy gdy macierz A można przekształcić poprzez wykonanie operacji elemen-tarnych na wierszach lub kolumnach do postaci
B =
B11 0 0 . . . 0 . . . 0
0 B22 0 . . . 0 . . . 0
......
............
............
...
0 0 0 . . . Brr . . . 0
......
............
............
...
0 0 0 . . . 0 . . . 0
gdzie B1
1 , B22 , . . . , B
rr są jedynymi niezerowymi wyrazami macierzy B.
Dowód: Niech A = [Aij ] ∈ Mm×n(K) i niech rank A = r. Dowód przeprowadzimyprzez indukcję względem liczby wierszy macierzy A.
Jeżeli m = 1 to możliwe są dwa przypadki: albo wszystkie wyrazy są równe zeru,wtedy twierdzenie jest oczywiste, albo istnieje wyraz A1
j 6= 0. W drugim przypadkumożemy wyraz niezerowy umieścić w pierwszej kolumnie, a więc bez utraty ogólnościrozważań mamy A1
1 6= 0. Jeżeli pomnożymy pierwszą kolumnę macierzy A przez
−A1j
A11
i dodamy do j-tej kolumny to uzyskamy macierz z zerową j-tą kolumną. Wykonująctaką operację dla j = 2, 3, . . . , n otrzymamy macierz
B = [A11, 0, . . . , 0] ,
A zatem pierwsze założenie twierdzenia o indukcji matematycznej jest spełnione.Załóżmy teraz, że teza twierdzenia zachodzi dla macierzy o m − 1 wierszach i
dowolnej liczbie kolumn. Niech A = [Aij ] ∈ Mm×n(K). Jeżeli A jest macierzą zerowąto A ma postać diagonalną i rank A = 0. Jeżeli nie wszystkie wyrazy Aij są równe
126
zeru to możemy założyć, że A11 6= 0. Istotnie gdyby tak nie było, to zawsze możemy
przestawiając kolumny i wiersze doprowadzić do takiej sytuacji. Mnożąc pierwszywiersz macierzy A przez
−Ai1
A11
i dodając do i-tego wiersza otrzymamy macierz z zerem w pierwszej kolumnie i w i-tym wierszu. Wykonując taką operację dla wszystkich i = 2, 3, . . . , n uzyskamy macierzpostaci
A′ =
A11 A1
2 A13 . . . A1
n
0 C22 C2
3 . . . C2n
0 C32 C3
3 . . . C3n
......
............
...
0 Cm2 Cm
3 . . . Cmn
.
Mnożąc teraz pierwszą kolumnę macierzy A′ przez
−A1j
A11
i dodając do j-tej kolumny otrzymamy macierz z zerem w pierwszym wierszu i w j-tejkolumnie. Wykonując taką operację dla wszystkich j = 2, 3, . . . , n uzyskamy macierzpostaci
A′′ =
A11 0 0 . . . 0
0 D22 D2
3 . . . D2n
0 D32 D3
3 . . . D3n
......
............
...
0 Dm2 Dm
3 . . . Dmn
.
Ponieważ macierz
D =
D22 D2
3 . . . D2n
D32 D3
3 . . . D3n
......
.........
...
Dm2 Dm
3 . . . Dmn
.
127
ma m−1 wierszy więc, na mocy założenia kroku indukcyjnego, twierdzenie jest dla niejprawdziwe. Operacje elementarne, które prowadzą do postaci diagonalnej macierzy D,nie zmieniają pierwszego wiersza i pierwszej kolumny macierzy A”. Ponadto rank D =r − 1, bowiem pierwsza kolumna macierzy A” nie może być równa żadnej kombinacjiliniowej pozostałych kolumn. Wykazaliśmy więc, że macierz o m wierszach możnaprzy pomocy operacji elementarnych sprowadzić do postaci diagonalnej z r elementamiróżnymi od zera. •
Przykład Sprowadzamy do postaci diagonalnej macierz
A =
1 2 1 −1 11 1 0 1 02 3 1 0 10 1 1 −2 1
Operacje przeprowadzamy w kilku krokach:
• pierwszym wierszem zerujemy pierwszą kolumnę
A =
1 2 1 −1 10 −1 −1 2 −10 −1 −1 2 −10 1 1 −2 1
• drugim wierszem zerujemy trzeci i czwarty wiersz
A =
1 2 1 −1 10 −1 −1 2 −10 0 0 0 00 0 0 0 0
• pierwszą kolumną zerujemy pierwszy wiersz
A =
1 0 0 0 00 −1 −1 2 −10 0 0 0 00 0 0 0 0
• drugą kolumną zerujemy trzecią, czwartą i piątą kolumnę
A =
1 0 0 0 00 −1 0 0 00 0 0 0 00 0 0 0 0
128
7.3 Rozwiązywanie układów równań liniowych przy pomocywzorów Cramera
Rozważmy układ równań liniowych o współczynnikach z ciała K:
A11x
1 + A12x
2 + . . . + A1nx
n = C1
A21x
1 + A22x
2 + . . . + A2nx
n = C2
...Am1 x
1 + Am2 x2 + . . . + Amn x
n = Cm
(12)
Korzystając z pojęcia rzędu macierzy Twierdzenie 7.1 można sformułować następująco:
Twierdzenie 7.7 (Kroneckera-Capelliego) Układ równań liniowych (12)jest niesprzeczny wtedy i tylko wtedy gdy rząd macierzy współczynników tegoukładu jest równy rzędowi jego macierzy rozszerzonej.
Załóżmy teraz, że warunek, o którym mowa w twierdzeniu Kroneckera-Capelliegojest spełniony i że rząd macierzy współczynników A = [Aij] jest równy r. Na mocyTw.7.4 rząd macierzy A jest równy rzędowi największego nie znikającego minora tejmacierzy. Bez utraty ogólności rozważań możemy założyć, że jest to minor główny:
D =
∣∣∣∣∣∣∣∣∣A1
1 A12 . . . A1
r
A21 A2
2 . . . A2r
......
.........
...Ar1 Ar2 . . . Arr
∣∣∣∣∣∣∣∣∣ 6= 0 .
Istotnie, zmieniając kolejność równań i numerację niewiadomych możemy zawsze do-prowadzić do takiej sytuacji. To że minor D nie znika oznacza, że pierwsze r wier-szy macierzy rozszerzonej tworzy układ liniowo niezależny. Wiersze o numerach j =r + 1, . . . ,m muszą więc być liniowymi kombinacjami pierwszych r wierszy. Istotnie,gdyby tak nie było to rząd macierzy rozszerzonej byłby równy co najmniej r+1 wbrewzałożeniu. Równania od r + 1 do m są zatem liniowymi kombinacjami pierwszych rrównań układu i możemy je pominąć.
Ograniczając się do pierwszych r równań i przenosząc na prawą stronę wyrazy zniewiadomymi xj, j = r + 1, . . . , n, otrzymujemy układ:
A11x
1 + A12x
2 + . . . + A1rx
r = C1 − A1r+1x
r+1 − . . .− A1nx
n
A21x
1 + A22x
2 + . . . + A2rx
r = C2 − A2r+1x
r+1 − . . .− A2nx
n
...Ar1x
1 + Ar2x2 + . . . + Arrx
r = Cr − Arr+1xr+1 − . . .− Arnxn
(13)
129
Dla dowolnych ustalonych wartości niewiadomych xr+1, . . . , xn ∈ K układ ten możnarozwiązać względem niewiadomych x1, . . . , xr korzystając ze wzorów Cramera. Wiemyz Tw.6.16, że takie rozwiązanie jest jedyne. A zatem ogólne rozwiązanie układu możnaprzedstawić w postaci
x1(xr+1, . . . , xn)...
xr(xr+1, . . . , xn)xr+1
...xn
gdzie niewiadome xr+1, . . . , xn są dowolne i możemy je traktować jako parametry, apozostałe niewiadome są ich funkcjami określonymi jednoznacznie wzorami Cramera.
W szczególnym przypadku układu jednorodnego zbiór wszystkich rozwiązań tworzypodprzestrzeń liniową przestrzeni Km. W tym przypadku z omówionej wyżej metodyCramera wynika następujące twierdzenie.
Twierdzenie 7.8 Niech A = [Aij] ∈ Mm×n(K) będzie macierzą rzędu r. Wt-edy zbiór rozwiązań jednorodnego układu równań
Ai1x1 + Ai2x
2 + . . . Ainxn = 0 , i = 1, . . . ,m,
jest n− r wymiarową podprzestrzenią liniową Kn.
Tw.7.8 razem z Tw.7.2 daje pełną charakterystykę przestrzeni rozwiązań układuniejednorodnego.
PrzykładRozwiązać metodą Cramera układ równań
2x − y − z + 3u = 14x − 2y − z + u = 56x − 3y − z − u = 92x − y + 2z − 12u = 10
Rozszerzona macierz tego układu ma postać:
B =
2 −1 −1 3 14 −2 −1 1 56 −3 −1 −1 92 −1 2 −12 10
130
Zbadamy najpierw rząd tej macierzy. Skorzystamy w tym celu z operacji elementarnychi pierwszym wierszem zerujemy pierwszą kolumnę
2 −1 −1 3 10 0 1 −5 30 0 2 −10 60 0 3 −15 9
Już na tym etapie możemy zauważyć, że pierwszy i drugi wiersz są liniowo niezależne,a wiersze trzeci i czwarty są proporcjonalne do wiersza drugiego. To samo dotyczymacierzy współczynników. Zatem rząd obu macierzy jest ten sam i wynosi 2.
Szukamy w macierzy B niezerowego minora stopnia 2. Minor główny tego stopniaznika, łatwo jednak zauważyć, że różny od zera jest minor
A[
1,22,3
]=
∣∣∣∣ −1 −1−2 −1
∣∣∣∣ = −1
Ponieważ wiemy już, że rząd macierzy rozszerzonej wynosi 2 możemy pominąć równa-nia, które nie dają wkładu do minora A
[1,22,3
]. Otrzymujemy układ
2x − y − z + 3u = 14x − 2y − z + u = 5
który przekształcamy do postaci cramerowskiej, w której macierz współczynnikówodpowiada minorowi A
[1,22,3
], a niewiadome x i u traktujemy jako parametry:
− y − z = 1 − 2x − 3u− 2y − z = 5 − 4x − u
Korzystając z wzorów Cramera otrzymujemy
y =
∣∣∣∣ (1− 2x− 3u) −1(5− 4x− u) −1
∣∣∣∣∣∣∣∣ −1 −1−2 −1
∣∣∣∣ =3u+ 2x− 1 + 5− 4x− u
−1
= 2x− 2u− 4
z =
∣∣∣∣ −1 (1− 2x− 3u)−2 (5− 4x− u)
∣∣∣∣∣∣∣∣ −1 −1−2 −1
∣∣∣∣ =−5 + 4x+ u+ 2− 4x− 6u
−1
= 5u+ 3
131
Ogólne rozwiązanie układu ma więc postać:x
2x− 2u− 45u+ 3
u
gdzie x i u są dowolnymi elementami ciała.
7.4 Metoda eliminacji Gaussa
Metoda rozwiązywania układów równań liniowych opisana w poprzednim podrozdzialejest żmudna rachunkowo i ma raczej znaczenie teoretyczne. Możemy np. na podstawieznajomości rzędu macierzy współczynników ocenić liczbę dowolnych parametrów wrozwiązaniu ogólnym.
Znacznie skuteczniejszą metodą jest metoda eliminacji Gaussa polegająca naprzekształcaniu układu równań do postaci górno-trójkątnej. Opis tej metody rozpoczniemyod wprowadzenia przekształceń elementarnych układu równań.
Definicja 7.6 Przekształcenie układu równań liniowych o macierzy rozszer-zonej B ∈ Mm×(n+1)(K) do układu równań o macierzy rozszerzonej B′ ∈Mm×(n+1)(K) nazywamy przekształceniem elementarnym jeżeli macierzeB′ można otrzymać z macierzy B przez zastosowanie do wierszy tej macierzyjednej z operacji elementarnych opisanych w Def.7.5. tzn. poprzez:
i. przestawienie dwóch dowolnych wierszy macierzy B;
ii. pomnożenie dowolnego wiersza macierzy B przez skalar λ 6= 0;
iii. dodanie do wiersza dowolnej kombinacji liniowej pozostałych wierszy.
Twierdzenie 7.9 Układ równań liniowych otrzymany przez przekształcenie el-ementarne jest równoważny układowi pierwotnemu tzn. albo oba układy sąsprzeczne, albo oba mają dokładnie taki sam zbiór rozwiązań.
Dowód: Na mocy twierdzenia Kronekera-Capelliego układ jest sprzeczny wtedy i tylkowtedy gdy macierz układu i rozszerzona macierz układu mają różne rzędy. Przeksz-tałcenia elementarne macierzy rozszerzonej układu B są jednocześnie przekształceni-ami elementarnymi macierzy współczynników układu. Ponieważ na mocy Tw.7.5. rządmacierzy jest niezmiennikiem operacji elementarnych pierwsza część twierdzenia jestudowodniona.
132
Załóżmy teraz, że oba układy są niesprzeczne. Jest oczywiste, że przekształceniaelementarne typu i. i ii. nie zmieniają układu równań. Oznaczmy przez O′ układrównań otrzymany z układu O przez dodanie do jednego z równań kombinacji liniowejpozostałych. Jest oczywiste, że wszystkie rozwiązania układu O są rozwiązaniamiukładu O′. Łatwo zauważyć, że również układ O można otrzymać z układu O′ przezdodanie do jednego z równań liniowej kombinacji pozostałych. A zatem na mocypoprzedniego argumentu wszystkie rozwiązania układu O′ są rozwiązaniami układuO, co kończy dowód. •
Rozważmy układ równań liniowych o współczynnikach z ciała K:
A11x
1 + A12x
2 + . . . + A1nx
n = C1
A21x
1 + A22x
2 + . . . + A2nx
n = C2
...Am1 x
1 + Am2 x2 + . . . + Amn x
n = Cm
(14)
Metodę Gaussa można sformułować jako następujący algorytm:
1. Jeżeli wszystkie współczynnikiAij w i-tym równaniu są równe zeru, to sprawdzamy,czy i-ty wyraz wolny Ci jest równy zeru. Jeżeli Ci = 0 to i-te równanie jestspełnione tożsamościowo dla dowolnych wartości niewiadomych xj i może byćpominięte. Jeżeli Ci 6= 0 to i-te równanie jest sprzeczne i układ nie ma rozwiązań.
2. Jeżeli po wykonaniu pierwszego kroku nie okazało się, że któreś z równań jestsprzeczne to możemy założyć, że przynajmniej jeden ze współczynników w każdymz pozostałych równań jest różny od zera. Zmieniając numerację niewiadomychmożna zawsze doprowadzić do sytuacji, w której A1
1 6= 0. Mnożąc pierwsze rów-nanie przez
−Aj1
A11
i dodając do j-tego równania dla j = 2, 3, . . . , n otrzymujemy układ
A11x
1 + A12x
2 + . . . + A1nx
n = C1
D22x
2 + . . . + D2nx
n = E2
...Dm
2 x2 + . . . + Dm
n xn = Em
(15)
który, na mocy Tw.7.8 jest równoważny układowi wyjściowemu (14).
3. Kroki 1 i 2 powtarzamy dla układu
D22x
2 + . . . + D2nx
n = E2
...Dm
2 x2 + . . . + Dm
n xn = Em
(16)
133
Zauważmy, że operacje zawarte w tych krokach nie zmieniają pierwszego równaniaukładu (15), z wyjątkiem, być może zmiany numeracji niewiadomych x2, . . . , xn.
4. Po skończonej liczbie kroków, jeżeli układ nie jest sprzeczny, albo nie pozostajeżadne równanie, albo otrzymujemy układ równoważny w postaci górno-trójkątnej:
K11x
1 + K12x
2 + . . . + K1rx
r + . . . + K1nx
n = L1
K22x
2 + . . . + K2rx
r + . . . + K2nx
n = L2
...Krrx
r + . . . + Krnx
n = Lr
(17)
gdzie K11 6= 0, K2
2 6= 0, . . . , Krr 6= 0 .
5. W pierwszym przypadku dowolny ciąg skalarów x1, . . . , xn jest rozwiązaniemukładu.
W drugim przypadku tzn. dla r ≥ 1 układ (17) można rozwiązać „od końca”wyznaczającniewiadomą xr z ostatniego równania
xr =Lr
Krr
−n∑
j=r+1
Krj
Krr
xj .
6. Wstawiając xr wyliczoną w poprzednim kroku do pozostałych równań układuotrzymujemy układ r−1 równań w postaci górno-trójkątnej, do którego powtórniemożna zastosować postępowanie z poprzedniego kroku.
7. Po skończonej liczbie kroków otrzymamy rozwiązanie, w którym niewiadomex1, . . . , xr są funkcjami niewiadomych xr+1, . . . , xn, które przyjmują dowolne wartościi mogą być traktowane jako parametry.
PrzykładDla porównania rozwiążemy metodą Gaussa przykład z poprzedniego podrozdziału.
Mamy znaleźć wszystkie rozwiązania układu:
2x − y − z + 3u = 14x − 2y − z + u = 56x − 3y − z − u = 92x − y + 2z − 12u = 10
Rozszerzona macierz tego układu ma postać:
B =
2 −1 −1 3 14 −2 −1 1 56 −3 −1 −1 92 −1 2 −12 10
Stosujemy metodę Gaussa:
134
• Pierwszym wierszem zerujemy pierwszą kolumnę2 −1 −1 3 10 0 1 −5 30 0 2 −10 60 0 3 −15 9
• Drugim wierszem zerujemy wiersz trzeci i czwarty
2 −1 −1 3 10 0 1 −5 30 0 0 0 00 0 0 0 0
i otrzymujemy układ dwóch równań w postaci górnotrójkątnej
2x − y − z + 3u = 1z − 5u = 3
• Drugie równanie możemy rozwiązać, albo względem niewiadomej z traktującdrugą niewiadomą jako dowolny parametr, albo odwrotnie, względem u trak-tując z jako parametr. O wyborze decyduje zwykle prostota rachunków. Wrozważanym równaniu łatwiej wyrazić z przez u:
z = 5u+ 3 .
• Równanie na z wstawiamy do pierwszego równania:
2x− y − 5u− 3 + 3u = 2x− y − 2u− 3 = 1 .
Decydujemy, którą z niewiadomych x czy y wybrać jako dowolny parametr.Wybierając x otrzymujemy
y = 2x− 2u− 4 .
• Rozwiązanie ma więc postać: x
2x− 2u− 45u+ 3
u
gdzie x i u są dowolne.
135
Uwaga: W ostatnim kroku moglibyśmy wybrać jako parametr niewiadomą y irozwiązać ostatnie równanie względem x:
x =1
2y + u+ 2 .
Przy takim wyborze parametrów rozwiązanie ogólne ma postać12y + u+ 2
y5u+ 3
u
gdzie y i u są dowolne. Jest to inna, ale oczywiście równoważna parametryzacjatego samego zbioru rozwiązań.
7.5 Zadania
1. Znaleźć rząd macierzy
A =
1 2 3 1 −2−4 2 5 0 1−1 1 −1 3 3
4 5 −2 −2 1
.
Rozwiązanie: Skorzystamy z Tw.7.6, które mówi o tym, że rząd macierzy możnaustalić poprzez sprowadzenie jej do postaci diagonalnej przy wykorzystaniu op-eracji elementarnych.
Sprowadzenie do postaci diagonalnej nie jest jednoznaczne. Wybór rodzaju ikolejności tych operacji jest dowolny jednak wygodnie jest kierować się prostotąrachunków.
W rozważanym przypadku wygodnie jest wykorzystać czwartą kolumnę do wyze-rowania pierwszego wiersza:
A(1) =
0 0 0 1 0−4 2 5 0 1−4 −5 −10 3 9
6 9 4 −2 −3
.
Teraz łatwo wyzerować czwartą kolumnę pierwszym wierszem. Dla przejrzystościrachunków możemy ją umieścić jako pierwszą:
A(2) =
1 0 0 0 00 −4 2 5 10 −4 −5 −10 90 6 9 4 −3
.
136
Teraz najłatwiej wyzerować drugi wiersz ostatnią kolumną
A(3) =
1 0 0 0 00 0 0 0 10 32 −23 −55 90 −6 15 19 −3
.
Zerujemy drugim wierszem ostatnią kolumnę i ustawiamy ją jako drugą
A(4) =
1 0 0 0 00 1 0 0 00 0 32 −23 −550 0 −6 15 19
.
Dalsze stosowanie operacji elementarnych jest oczywiście możliwe, ale dużo proś-ciej jest zauważyć, że rząd macierzy 2× 3
B =
[32 −23 −55−6 15 19
].
jest równy 2. Istotnie nawet bez przeprowadzania obliczeń można stwierdzić żeminor ∣∣∣∣ 32 −23
−6 15
∣∣∣∣ .jest różny od zera, a zatem na mocy Tw.7.4. rząd macierzy B wynosi 2. Os-tatecznie wnioskujemy, że rząd macierzy A wynosi 4 (jest to największy możliwyrząd macierzy 4× 5).
2. W jaki sposób rząd macierzy
A =
2 1 −1 16 1 3 14 −1 t 02 t 5 −1
zależy od wartości parametru t?
Rozwiązanie:
Podobnie jak w poprzednim zadaniu do analizy rzędu macierzy A wygodnie jestzastosować metodę operacji elementarnych. Wybieramy korzystne rachunkowooperacje, np. zerujemy ostatnią kolumnę przy pomocy pierwszego wiersza
A(1) =
2 1 −1 14 0 4 04 −1 t 04 t+ 1 4 0
137
Ostatnią kolumnę przestawiamy na lewo i zerujemy przy jej pomocy pierwszywiersz
A(1) =
1 0 0 00 4 0 40 4 −1 t0 4 t+ 1 4
a następnie drugim wierszem zerujemy drugą kolumnę
A(3) =
1 0 0 00 4 0 40 0 −1 t− 40 0 t+ 1 0
Zerując teraz drugą kolumną drugi wiersz otrzymujemy macierz
A(4) =
1 0 0 00 4 0 00 0 −1 t− 40 0 t+ 1 0
Której rząd jest równy (na mocy Tw.7.5) rzędowi wyjściowej macierzy A. Ko-rzystając teraz z Tw.7.4 wnioskujemy, że rząd macierzy A jest równy rzędowimacierzy
B =
[−1 t− 4t+ 1 0
]powiększonemu o 2. Ponieważ minor główny macierzy B stopnia 1 jest różny odzera więc rankB ≥ 1. Mamy więc tylko dwa przypadki:
• ∣∣∣∣ −1 t− 4t+ 1 0
∣∣∣∣ = (t− 4)(t+ 1) = 0
wtedy rząd macierzy B wynosi 1,
• ∣∣∣∣ −1 t− 4t+ 1 0
∣∣∣∣ = (t− 4)(t+ 1) 6= 0
wtedy rząd macierzy B wynosi 2.
Ostatecznie otrzymujemy
rankA =
{3 gdy t = 4 ∨ t = −14 gdy t 6= 4 ∧ t 6= −1
138
3. Za pomocą elementarnych operacji na macierzach zbadać liniową zależność układuwektorów:
v1 = (1, 1, 1, 1, 1), v2 = (0, 1, 1, 1, 1), v3 = (0, 0, 1, 1, 1),
v4 = (1, 0, 0, 1, 1), v5 = (1, 1, 0, 0, 1), v6 = (1, 1, 1, 0, 0),
v7 = (1, 1, 1, 1, 0),
wybrać z tego układu bazę w przestrzeni
span{v1, . . . , v7}
i wyrazić w niej pozostałe wektory układu.
Rozwiązanie:
Pierwsza część zadania polega na znalezieniu maksymalnego układu wektorówliniowo niezależnych w układzie V = {v1, . . . , v7}. Rozwiążemy ten problem wdwóch krokach.
Ustalimy najpierw ile jest wektorów liniowo niezależnych w układzie V . Ponieważzgodnie z definicją, rząd macierzy jest równy maksymalnej liczbie jej liniowoniezależnych kolumn, wystarczy obliczyć rząd macierzy, której kolumnami sąwektory układu V :
A =
1 0 0 1 1 1 11 1 0 0 1 1 11 1 1 0 0 1 11 1 1 1 0 0 11 1 1 1 1 0 0
Skorzystamy z metody operacji elementarnych. Od pierwszej kolumny odejmu-jemy drugą i tak otrzymaną pierwszą kolumną zerujemy pierwszy wiersz
1 0 0 0 0 0 00 1 0 0 1 1 10 1 1 0 0 1 10 1 1 1 0 0 10 1 1 1 1 0 0
Od drugiej kolumny odejmujemy trzecią i tak otrzymaną drugą kolumną zerujemydrugi wiersz wiersz
1 0 0 0 0 0 00 1 0 0 0 0 00 0 1 0 0 1 10 0 1 1 0 0 10 0 1 1 1 0 0
139
Postępując w ten sam sposób z kolumną trzecią i czwartą, a następnie z czwartąi piątą otrzymamy macierz
1 0 0 0 0 0 00 1 0 0 0 0 00 0 1 0 0 0 00 0 0 1 0 0 00 0 0 0 1 0 0
której rząd wynosi 5 i jest na mocy Tw.7.6 równy rzędowi macierzy wyjściowej A.Pokazaliśmy, że układ V zawiera maksymalnie 5 liniowo niezależnych wektorów.
Ze sposobu w jaki przekształcaliśmy macierz A wynika, że pierwsze pięć kolumntej macierzy tworzy układ liniowo niezależny. Oczywiście jest to układ maksy-malny bowiem wszystkie wektory układu należą do przestrzeni 5-wymiarowej.To kończy pierwszą część zadania.
W drugiej części zadania mamy znaleźć współczynniki rozkładu wektorów v6, v7
w bazie {v1, . . . , v5}, tzn. takie liczby a1, . . . , a5 i b1, . . . , b5 dla których
v6 =5∑i=1
aivi
v7 =5∑i=1
bivi
Pierwsze z tych równań, zapisane we współrzędnych ma postać
a1
11111
+ a2
01111
+ a3
00111
+ a4
10011
+ a5
11001
=
11100
lub w postaci macierzowej
1 0 0 1 11 1 0 0 11 1 1 0 01 1 1 1 01 1 1 1 1
a1
a2
a3
a4
a5
=
11100
Jest to układ cramerowski. Istotnie, pokazaliśmy w pierwszej części zadania, żerząd macierzy współczynników tego układu jest równy 5, a więc na mocy Tw.7.4
140
wyznacznik macierzy współczynników jest różny od zera. Wzory Cramera dająnam więc jednoznaczne rozwiązanie. Ponieważ są żmudne rachunkowo skorzys-tamy z metody Gaussa, tzn. stosując przekształcenia elementarne doprowadzimyukład do postaci górnotrójkątnej.
• Rozszerzona macierz układu ma postać1 0 0 1 1 11 1 0 0 1 11 1 1 0 0 11 1 1 1 0 01 1 1 1 1 0
• pierwszym wierszem zerujemy pierwszą kolumnę
1 0 0 1 1 10 1 0 −1 0 00 1 1 −1 −1 00 1 1 0 −1 −10 1 1 0 0 −1
• od trzeciego i czwartego wiersza odejmujemy wiersz piąty
1 0 0 1 1 10 1 0 −1 0 00 0 0 −1 −1 10 0 0 0 −1 00 1 1 0 0 −1
• Z czwartego równania wynika, że a5 = 0. Po podstawieniu do pozostałych
równań otrzymujemy układ
a1 + a4 = 1
a2 − a4 = 0
−a4 = 1
a2 + a3 = −1
skąda4 = −1 a2 = −1 a1 = 2 a3 = 0 .
• Sprawdzamy
2
11111
−
01111
−
10011
=
11100
141
4. Rozwiązać metodą Cramera układ równań
−x− y − 2z − 2u = 3x− 1
2y + 3
2z + 2u = −1−3y − z = 4
52x− 2y + 7
2z + 5u = −3
2
Rozwiązanie:
Rozszerzona macierz tego układu ma postać:
B =
−1 −1 −2 −2 3
1 −12
32
2 −10 −3 −1 0 452−2 7
25 −3
2
Zanim rozpoczniemy rachunki wygodnie jest przejść do układu równoważnego,którego współczynniki są całkowite. Mnożąc drugie i czwarte równanie przez 2otrzymujemy układ o macierzy rozszerzonej:
B =
−1 −1 −2 −2 3
2 −1 3 4 −20 −3 −1 0 45 −4 7 10 −3
Zbadamy najpierw rząd tej macierzy. Skorzystamy w tym celu z operacji ele-mentarnych i pierwszym wierszem zerujemy pierwszą kolumnę
−1 −1 −2 −2 30 −3 −1 0 40 −3 −1 0 40 −9 −3 0 12
Już na tym etapie możemy zauważyć, że pierwszy i drugi wiersz są liniowo nieza-leżne, a wiersze trzeci i czwarty są proporcjonalne do wiersza drugiego. To samodotyczy macierzy współczynników. Zatem rząd obu macierzy jest ten sam iwynosi 2.
Szukamy w macierzy B niezerowego minora stopnia 2. Możliwości jest bardzodużo wybieramy taką, która jest najbardziej korzystna rachunkowo. Ponieważbędziemy stosować wzory Cramera, tzn. liczyć wyznaczniki, wygodnie jest wybraćtaki minor, który zawiera choć jedno zero. Możliwym wyborem jest więc minorz dwóch pierwszych kolumn i z drugiego i trzeciego wiersza
A[
2,31,2
]=
∣∣∣∣ 2 −10 −3
∣∣∣∣ = −6 6= 0
142
Ponieważ wiemy już, że rząd macierzy rozszerzonej wynosi 2 możemy pominąćrównania, które nie dają wkładu do minora A
[2,31,2
]. Otrzymujemy układ
2x − y + 3z + 4u = −2− 3y − z = 4
który przekształcamy do postaci cramerowskiej, w której macierz współczyn-ników odpowiada minorowi A
[2,31,2
], a niewiadome u i z traktujemy jako parame-
try:2x − y = − 3z − 4u − 2− 3y = z + 4
Korzystając z wzorów Cramera otrzymujemy
x =
∣∣∣∣ (−2− 3z − 4u) −1(4 + z) −3
∣∣∣∣∣∣∣∣ 2 −10 −3
∣∣∣∣ =−3(−3z − 4u− 2) + (z + 4)
−6
=10z + 12u+ 10
−6= −5
3z − 2u− 5
3
y =
∣∣∣∣ 2 (−3z − 4u− 2)0 (z + 4)
∣∣∣∣∣∣∣∣ 2 −10 −3
∣∣∣∣ =2z + 8
−6
= −1
3z − 4
3
Ogólne rozwiązanie układu ma więc postać:−4
3z − 2u+ 5
3
−13z − 4
3
zu
gdzie z i u są dowolnymi elementami ciała.
5. Metodą Gaussa rozwiązać układ równań:
x+ 2y − z − 3u+ 4v = 12x− y + 3z + 2u− v = 2x+ 4y + 2z − 5u+ 3v = 3
4x+ 15y + 6z − 19u+ 9v = 1
143
Rozwiązanie
Macierz rozszerzona układu ma postać:1 2 −1 −3 4 12 −1 3 2 −1 21 4 2 −5 3 34 15 6 −19 9 1
Poszukujemy optymalnych rachunkowo przekształceń elementarnych. Pierwsząkolumnę możemy wyzerować pierwszym lub trzecim wierszem. Trzeci wiersz jestkorzystniejszy bo otrzymamy mniejsze wspólczynniki liczbowe. Wstawiamy więctrzeci jako pierwszy i zerujemy pierwszą kolumnę:
1 4 2 −5 3 30 −2 −3 2 1 −20 −9 −1 12 −7 −40 −1 −2 1 −3 −11
Teraz drugą kolumnę najkorzystniej wyzerować ostatnim wierszem. Wstawiamygo jako drugi i wykonujemy odpowiednie przekształcenia elementarne
1 4 2 −5 3 30 −1 −2 1 −3 −110 0 1 0 7 200 0 17 3 20 95
Uzyskaliśmy postać górnotrójkątną (wystarczy zamienić miejscami ostatnie wier-sze i odpowiednio przenumerować kolumny), którą możemy jeszcze uprościć do-dając do pierwszego wiersza drugi wiersz:
1 3 0 −4 0 −80 −1 −2 1 −3 −110 0 17 3 20 950 0 1 0 7 20
Mamy swobodę wyboru parametru w ostatnim równaniu:
z + 7t = 20
Wygodniej przyjąć, że t jest dowolnym parametrem wtedy
z = 20− 7t .
144
Wstawiamy tak obliczone z do trzeciego równania i obliczamy u:
17z + 3u+ 20t = 95
3u = 95− 17z − 20t
= 95− 17(20− 7t)− 20t+ 95
= −340 + 95 + (119− 20)t
= −245 + 99t
u = 33t− 245
3
Wstawiamy u i z do drugiego równania i obliczamy y
−y − 2z + u− 3t = −11
y = −2z + u− 3t+ 11
= −2(20− 7t) + (33t− 245
3)− 3t+ 11
= −40 + 14t+ 33t− 245
3− 3t+ 11
= 44t− 3 · 29 + 245
3
y = 44t− 332
3
Ostatecznie z pierwszego równania wyliczamy x
x+ 3y − 4z = −8
x = −3y + 4z − 8
= −3(44t− 332
3) + 4(33t− 245
3)− 8
= 332− 4 · 245
3− 8 = 332− 4 · 80− 4
5
3− 8
= 4− 20
3= −8
3
145
8 Przekształcenia liniowe.
8.1 Przekształcenia liniowe
Definicja 8.1 Niech v i W będą przestrzeniami liniowymi nad (tym samym)ciałem K. Odwzorowanie A : V → W nazywamy przekształceniem lin-iowym (homomorfizmem przestrzeni linowych lub odwzorowaniemliniowym) jeżeli dla dowolnych wektorów u, v ∈ V i dla dowolnego skalaraα ∈ K spełnione są następujące relacje:
i. A(u+ v) = A(u) + A(v)
ii. A(αu) = αA(u)
Obraz zbioru V przez przekształcenie A
imA = {w ∈ W : w = T (v) dla pewnego v ∈ V }
nazywamy obrazem przekształcenia A. Zbiór wektorów przestrzeni V przek-ształcanych w wektor zerowy przestrzeni W :
kerA = {v ∈ V : T (v) = Θ}
nazywamy jądrem przekształcenia A. Liczbę
rankA = dim imA
nazywamy rzędem przekształcenia A.
Uwagi:
1. Warunki i. i ii. są równoważne warunkowi
A(αu+ βv) = αA(u) + βA(v)
dla dowolnych α, β ∈ K, u, v ∈ V .
2. Wprost z definicji wynika, że dla każdego przekształcenia liniowego zachodzi
A(Θ) = Θ , A(−v) = −A(v) .
3. Jeżeli A : V → W jest przekształceniem liniowym to kerA jest podprzestrzeniąliniową V , a imA jest podprzestrzenią liniową W .
146
konwencja notacyjnaJeżeli A : V → W jest przekształceniem liniowym to stosujemy tradycyjneoznaczenie Av na wartość A(v) ∈ W przekształcenia A na wektorze v ∈ V , wktórym pomija się nawiasy wokół argumentu:
Av ≡ A(v) .
Przykłady:
1. W przestrzeni R2 obrót O wokół początku układu współrzędnych jest odw-zorowaniem liniowym.
kerO = {(0, 0)} , imO = R2 , rankO = 2 .
2. W przestrzeni wektorów zaczepionych w początku układu współrzędnych rzu-towanie ΠXY na płaszczyznę XY w kierynku Z jest odwzorowaniem liniowym.Przestrzeni R3 w R3.
ker ΠXY = oś Z , im ΠXY = płaszczyzna XY , rank ΠXY = 2 .
3. Odwzorowanie:
Iλ : Cn 3 (v1, . . . , vn) → λ(v1, . . . , vn) ∈ Cn
(λ 6= 0) jest liniowe w Cn.
ker Iλ = {(0, . . . , 0)} , im Iλ = Cn , rank Iλ = n .
4. Niech C∞(R) oznacza przestrzeń funkcji gładkich (tzn. takich dla których istniejepochodna dowolnego rzędu) na R o wartościach zespolonych. Przestrzeń ta mastrukturę przestrzeni liniowej nad ciałem C ze względu na dodawanie funkcji imnożenie funkcji przez stałą zespoloną. Odwzorowanie
D : C∞(R) 3 f → df
dx∈ C∞(R)
jest liniowe.
Twierdzenie 8.1 Niech V i W będą przestrzeniami liniowymi o skończonychwymiarach nad ciałem K. Jeśli A : V → W jest przekształceniem liniowym to
dimV = dim imA+ dim kerA
147
Dowód:Niech układ wektorów {e1, . . . , ek} będzie bazą podprzestrzeni kerA. Na podstawie
Tw.5.8.iii. układ ten możemy rozszerzyć do bazy:
{e1, . . . , ek, ek+1, . . . , en}
w przestrzeni V . Oczywiście dim kerA = k i dim V = n. Jeżeli pokażemy, że n − kwektorów {Aek+1, . . . , Aen} tworzy bazę w podprzestrzeni imA to twierdzenie będzieudowodnione.
Wykażemy najpierw, że dowolny wektor z imA jest liniową kombinacją wektorów{Aek+1, . . . , Aen}. Niech w ∈ imA wtedy istnieje taki wektor v ∈ V , że Av = w.Wektor v możemy rozłożyć względem bazy {ei}ni=1:
v = v1e1 + . . .+ vkek + vk+1ek+1 + . . .+ vnen .
Ponieważ pierwsze k elementów tej bazy należy do kerA to
Av = v1Ae1 + . . .+ vkAek + vk+1Aek+1 + . . .+ vnAen
= vk+1Aek+1 + . . .+ vnAen .
Pokazaliśmy więc, że wektory {Aek+1, . . . , Aen} rozpinają podprzestrzeń imA.Pozostaje do wykazania, że wektory {Aek+1, . . . , Aen} są liniowo niezależne. Za-
łóżmy, że kombinacja liniowa tych wektorów jest wektorem zerowym:
αk+1Aek+1 + . . .+ αnAen = Θ .
Ale A jest liniowe, zatem
A(αk+1ek+1 + . . .+ αnen) = Θ ,
co oznacza, że wektor αk+1ek+1 + . . .+αnen należy do kerA i może być przedstawionyjako kombinacja liniowa elementów bazy w kerA:
αk+1ek+1 + . . .+ αnen = β1e1 + . . .+ βkek .
Z liniowej niezależności wektorów {ei}ni=1 wynika
αk+1 = . . . = αn = β1 = . . . = βk = 0 .
Oznacza to, że wektory {Aek+1, . . . , Aen} są liniowo niezależne. •
148
Definicja 8.2 Niech V,W będą przestrzeniami liniowymi nad ciałem K i niechL(V,W ) będzie zbiorem wszystkich przekształceń liniowych przestrzeni V wprzestrzeń W .Sumą przekształceń liniowych A,B ∈ L(V,W ) nazywamy przekształcenieA+B : V → W zdefiniowane dla każdego v ∈ V wzorem
(A+B)v = Av +Bv .
Iloczynem przekształcenia liniowego A ∈ L(V,W ) przez α ∈ K nazy-wamy przekształcenie αA : V → W zdefiniowane dla każdego v ∈ V wzorem
(αA)v = α(Av) .
Twierdzenie 8.2 Niech U, V,W będą przestrzeniami liniowymi nad ciałem K.Wtedy
i. jeżeli A ∈ L(U, V ) i B ∈ L(U, V ) to A+B ∈ L(U, V );
ii. jeżeli α ∈ K i A ∈ L(U, V ) to αA ∈ L(U, V );
iii. jeżeli A ∈ L(U, V ) i B ∈ L(V,W ) to B ◦ A ∈ L(U,W ).
Dowód: Dla dowolnej kombinacji liniowej αv + βw ∈ V mamy
(A+B)(αv + βw) = A(αv + βw) +B(αv + βw)
= αAv + βAw + αBv + βBw
= α(A+B)v + β(A+B)w
co dowodzi punktu i.. Dowód punktu ii. wygląda podobnie:
(γA)(αv + βw) = γ(A(αv + βw))
= γ(αAv + βAw)
= α(γ(Av)) + β(γ(Aw))
= α(γA(v)) + β(γA(w)) .
W przypadku złożenia przekształceń liniowych mamy:
(B ◦ A)(αv + βw) = B(A(αv + βw))
= B(αAv + βAw)
= αB(Av) + βB(Aw)
= α(B ◦ A)v + β(B ◦ A)w
149
•Twierdzenie 8.3 Niech V,W będą przestrzeniami liniowymi nad ciałem K.Zbiór L(V,W ) wszystkich przekształceń liniowych z V do W wraz z działa-niami dodawania przekształceń i mnożenia przekształcenia przez skalar jestprzestrzenią liniową nad ciałem K.
Dowód: Zauważmy najpierw, że z punktów i., ii. Tw.8.2 wynika, że dodawanieprzekształceń liniowych i mnożenie ich przez skalar są dobrze określonymi działaniamiw zbiorze L(V,W ).
Łatwo sprawdzić, że wszystkie aksjomaty przestrzeni liniowej są spełnione. Wynikato natychmiast z definicji działań i z tego, że W jest przestrzenią liniową nad ciałemK.
8.2 Izomorfizmy przestrzeni liniowych
Definicja 8.3 Przekształcenie liniowe A : V → W nazywamy :
i. monomorfizmem, jeżeli jest ono injekcją;
ii. epimorfizmem, jeżeli jest ono suriekcją;
iii. izomorfizmem, jezeli jest ono bijekcją.
Wniosek 8.1 Przekształcenie liniowe A : V → W przestrzeni liniowych jestmonomorfizmem wtedy i tylko wtedy, gdy
kerA = {Θ}.
Dowód: =⇒ Jeżeli A jest monomorfizmem to z tego, że Av = Θ = AΘ wynika, żev = Θ, a zatem każdy element jądra przekształcenia A jest wektorem zerowym.⇐= Niech Av = Av′. Ponieważ A jest liniowe to
Θ = Av − Av′ = A(v − v′) ,
a zatem v − v′ ∈ kerA. Ale kerA = {Θ} skąd v − v′ = Θ i v = v′, a to oznacza, że Ajest injekcją. •
Z poprzedniego wniosku i Tw.8.1. otrzymujemy:
150
Wniosek 8.2 Przekształcenie A : V → W liniowe przestrzeni wektorowych oskończonym wymiarze jest jest monomorfizmem wtedy i tylko wtedy, gdy
dim V = dim imA.
Twierdzenie 8.4 Jeżeli A : V → W jest izomorfizmem to izomorfizmem jesttakże przekształcenie odwrotne A−1 : W → V .
Dowód:Wiemy, że A−1 : W → V jest bjekcją. Wystarczy wykazać, że jest to homomorfizm
przestrzeni liniowych. Niech α, β ∈ K, y, z ∈ W i
A−1(αy + βz) = v . (18)
Ponieważ A jest suriekcją, istnieją takie wektory u,w ∈ V , że
y = Au , z = Aw , A−1(y) = u , A−1(z) = w .
Z (18) otrzymujemy zatem:
Av = αy + βz = αAu+ βAw = A(αu+ βw)
i ponieważ A jest injekcją v = αu+ βw. Mamy więc ostatecznie:
A−1(αy + βz) = v = αu+ βw = αA−1(y) + βA−1(z) .
•Definicja 8.4 Mówimy, że przestrzenie liniowe V i W nad ciałem K sąizomorficzne, jeżeli istnieje izomorfizm A : V → W .
Uwaga:Relacja izomorfizmu jest relacją równoważności w zbiorze wszystkich przestrzeni
liniowych nad ciałem K.
Twierdzenie 8.5 Skończenie-wymiarowe przestrzenie liniowe V i W nadciałem K są izomorficzne wtedy i tylko wtedy gdy dimV = dimW .
151
Dowód:⇐= Załóżmy, że dimV = dimW = n. Niech {ei}ni=1 będzie bazą w V , a {fi}ni=1 baząw W . Pokażemy, że odwzorowanie A : V → W zdefiniowane wzorem
V 3 v = v1e1 + . . .+ vnen −→ Av ≡ v1f1 + . . .+ vnfn ∈ W
jest izomorfizmem.Najpierw pokażemy, że A jest odwzorowaniem liniowym. Dla dowolnych α, β ∈
K, u, v ∈ V mamy
u = u1e1 + . . .+ unen
v = v1e1 + . . .+ vnen
αu+ βv = (αu1 + βv1)e1 + . . .+ (αun + βvn)en
a zatem:
A(αu+ βv) = (αu1 + βv1)f1 + . . .+ (αun + βvn)fn
= α(u1f1 + . . .+ unfn) + β(v1f1 + . . .+ vnfn)
= αAu+ βAv .
Odwzorowanie A jest surjekcją bo dla dowolnego wektora w ∈ W mamy rozkład wbazie {fi}ni=1:
w = w1f1 + . . .+ wnfn
i zgodnie z definicją A wektor w jest obrazem wektora w1e1 + . . .+ wnen ∈ V :
w = A(w1e1 + . . .+ wnen) .
W końcu wykażemy, że A jest injekcją. Niech Av = Θ. Wtedy
Av = A(v1e1 + . . .+ vnen) = v1f1 + . . .+ vnfn = Θ
i na mocy liniowej niezależności wektorów {fi}ni=1 mamy v1 = . . . = vn = 0 czyli v = Θ.=⇒ Załóżmy, że przekształcenie A : V → W jest izomorfizmem. Wówczas kerA ={Θ}, imA = W i na mocy Tw.8.1 mamy
dimV = dim kerA+ dim imA = dimW .
•Wniosek 8.3 Każda n-wymiarowa przestrzeń liniowa nad ciałem K jestizomorficzna z przestrzenią liniową Kn.
152
Twierdzenie 8.6 Niech V będzie skończenie wymiarową przestrzenią liniowanad ciałem K, a A : V → V przekształceniem liniowym. Natępujące warunkisą równoważne:
i. A jest monomorfizmem;
ii. A jest epimorfizmem;
iii. dla każdego liniowo niezależnego układu wektorów {e1, . . . , ek} w V , układutworzony z ich obrazów przez odwzorowanie A, {Ae1, . . . , Aek} jest lin-iowo niezależny;
iv. jeżeli układ {e1, . . . , en} jest bazą w V to także układ {Ae1, . . . , Aen} jestbazą w V .
Uwaga:Formułowanie twierdzeń w postaci kilku równoważnych warunków, jest wygodne
z punktu widzenia dowodu: wystarczy wykazać zamkniętą pętlę implikacji pomiędzywarunkami. W przypadku zamieszczonego niżej dowodu pętla ta ma następującą struk-turę:
i. ⇐ ii.⇓ ⇑iii. ⇒ iv.
Dowód:i. ⇐ ii. Jeśli A jest epimorfizmem to imA = V i dim imA = dimV korzystając więcz Tw.8.1
dimV = dim imA+ dim kerA
otrzymujemy dim kerA = 0, a to oznacza, że kerA = {Θ}. Zatem na mocy W.8.1.i.A jest monomorfizmem.
i.⇒ iii. Niechα1Ae1 + . . .+ αkAek = Θ
Wtedy z liniowości odwzorowania A wynika, że także
A(α1e1 + . . .+ αkek) = Θ
Ale A jest injekcją i powyższe równanie implikuje:
α1e1 + . . .+ αkek = Θ
a ponieważ układ {e1, . . . , ek} jest liniowo niezależny to α1 = . . . = αk = 0, co kończydowód liniowej niezależności układu wektorów {Ae1, . . . , Aek}.
153
iii.⇒ iv. Implikacja ta jest oczywista.iv. ⇒ ii. Pokażemy, że dla dowolnego wektora v ∈ V istnieje wektor w ∈ V taki, żev = Aw. Ponieważ układ {Ae1, . . . , Aen} jest bazą w V to każdy wektor v ∈ V jestkombinacją liniową wektorów z tego układu:
v = α1Ae1 + . . .+ αnAen .
Wobec liniowości A mamy
v = A(α1e1 + . . .+ αnen) .
a więc poszukiwanym wektorem jest w = α1e1 + . . .+ αnen. •
8.3 Macierz przekształcenia liniowego
Definicja 8.5 Niech V,W będą przestrzeniami liniowymi nad ciałem K,{ej}nj=1 bazą w V , {fi}mi=1 bazą w W , a A : V → W przekształceniem lin-iowym. Obrazy elementów bazy {ej}nj=1 przez odwzorowanie A można rozłożyćwzględem elementów bazy {fi}mi=1:
Aej =m∑i=1
(Aej)i fi , j = 1, . . . , n .
Współczynniki tych rozkładów tworzą kolumny macierzy
A = [Aij ] ≡
(Ae1)1 (Ae2)1 . . . (Aen)1
(Ae1)2 (Ae2)2 . . . (Aen)2
......
.........
...
(Ae1)m (Ae2)m . . . (Aen)m
którą nazywamy macierzą przekształcenia liniowego A względem baz{ej}nj=1, {fi}mi=1 w przestrzeniach V,W .
Przykłady:
1. Macierz operatora jednostkowego 1l : Kn → Kn względem dowolnej bazy {ej}nj=1
w Kn ma postać:
1l = [ δij ] =
1 0 . . . 00 1 . . . 0...
............
...0 0 . . . 1
.
154
2. Macierz obrotu Oα o kąt α wokół punktu (0, 0) w przestrzeni R2. Podobnie jak wpoprzednim przykładzie przestrzeń argumentów przekształcenia Oα jest ta samaco przestrzeń jego wartości. W obu przestrzeniach możemy wybrać tę samą bazę.W bazie {(1, 0), (0, 1)} w R2 macierz obrotu o kąt α (w kierunku przeciwnym doruchu wskazówek zegara) ma postać:
Oα =
[cosα − sinα
sinα cosα
].
3. Macierz rzutowania ΠXY : R3 → R2 na płaszczyznę XY w kierunku Z względembaz: {(1, 0, 0), (0, 1, 0), (0, 0, 1)} w R3 i {(1, 0), (0, 1)} w R2:
ΠXY =
[1 0 00 1 0
].
Wprost z Definicji 8.5 otrzymujemy
Wniosek 8.4 Niech V,W będą przestrzeniami liniowymi nad ciałem K, a [Aij ]macierzą przekształcenia liniowego A : V → W względem baz {ej}nj=1, {fi}mi=1
w przestrzeniach V,W . Jeżeli vj są współczynnikami rozkładu wektora v wbazie {ej}nj=1:
v =n∑j=1
vjej
to współczynniki rozkładu wektora Av w bazie {fi}mi=1:
Av =m∑i=1
(Av)ifi
zadane są wzorem:
(Av)i =n∑j=1
Aijvj (19)
Dowód:Teza wniosku wynika łatwo z liniowości przekształcenia A. Niech v =
n∑j=1
vj ej.
Wtedy
Av = A
(n∑j=1
vjej
)=
n∑j=1
vjAej
155
=n∑j=1
vj
(m∑i=1
(Aej)ifi
)=
m∑i=1
(n∑j=1
Aijvj
)fi .
Ponieważ jednocześnie
Av =m∑i=1
(Av)i fi
to z jednoznaczności współczynników rozkładu wektora względem bazy otrzymujemywzór (19). •
Uwaga: Niech V,W będą przestrzeniami liniowymi nad ciałem K, a A : V → Wprzekształceniem liniowym. Współrzędne wektora v ∈ V w bazie {ej}nj=1 w przestrzeniV tworzą wektor (v1, . . . , vn) ∈ Kn. Wektor ten możemy potraktować jako macierztypu n× 1: v1
...vn
∈Mn,1(K) .
Podobnie, współrzędne wektora w = Av ∈ W w bazie {fi}mi=1 w przestrzeni W tworząwektor (w1, . . . , wm) ∈ Km. Wektor ten możemy potraktować jako macierz typu m×1: w1
...wm
∈Mm,1(K) .
Taka interpretacja pozwala zapisać wzór (19) z Wniosku 8.4 w postaci macierzowejw1
w2
...
wm
=
A1
1 A12 . . . A1
n
A21 A2
2 . . . A2n
......
.........
...
Am1 Am2 . . . Amn
v1
v2
...
vn
gdzie [Aij ] ∈Mm,n(K) jest macierzą przekształcenia A względem baz {ej}nj=1, {fi}mi=1.Wzór ten ma duże znaczenie praktyczne przy obliczaniu wyniku działania przeksz-tałcenia liniowego na zadany wektor i razem ze wzorem na mnożenie macierzy stanowipodstawowe narzędzie rachunkowe przy badaniu przekształceń liniowych w przestrzeni-ach skończenie-wymiarowych.
Przykłady:
156
1. Obrót o kąt α wokół punktu (0, 0) w R2 w bazie kanonicznej przestrzeni R2:[cosα − sinα
sinα cosα
][x
y
]=
[cosαx− sinα y
sinαx+ cosα y
]
2. Rzut ΠXY : R3 → R2 na płaszczyznę XY w kierunku Z w bazach kanonicznychprzestrzeni R3,R2: [
1 0 00 1 0
] xyz
=
[xy
]
Twierdzenie 8.7 Niech V,W będą przestrzeniami liniowymi nad ciałem K,{ej}nj=1 bazą w V , {fi}mi=1 bazą w W . Odwzorowanie, które każdemu przeksz-tałceniu liniowemu A ∈ L(V,W ) przyporządkowuje jego macierz [Aij ] względembaz {ej}nj=1, {fi}mi=1 w przestrzeniach V,W :
L(V,W ) 3 A→ [Aij ] ∈Mm,n(K) (20)
jest izomorfizmem przestrzeni liniowych.
Dowód:Wykażemy, że odwzorowanie, o którym mowa w twierdzeniu jest injekcją. Niech
macierze [Aij ], [Bij ] ∈ Mm,n(K) będą macierzami przekształceń liniowych A,B ∈
L(V,W ) względem baz {ej}nj=1, {fi}mi=1 w przestrzeniach V,W . Załóżmy, że [Aij ] =[Bi
j ]. Wtedy dla dowolnego wektora v ∈ V , na mocy Wniosku 8.4:
Av =m∑i=1
(n∑j=1
Aijvj
)fi =
m∑i=1
(n∑j=1
Bijvj
)fi = Bv
a zatem A = B, co oznacza, że (20) jest injekcją.Pokażemy teraz, że odwzorowanie (20) jest surjekcją tzn. każda macierz [Ci
j ] ∈Mm,n(K) jest macierzą pewnego przekształcenia liniowego C : V → W względembaz {ej}nj=1, {fi}mi=1 w przestrzeniach V,W . Łatwo sprawdzić, że przekształcenie Czdefiniowane wzorem
V 3 v =n∑j=1
vjej → Cv ≡m∑i=1
(n∑j=1
Cijvj
)fi
jest liniowe i że macierz [Cij ] jest macierzą tego przekształcenia w zadanych bazach.
157
Pozostaje do wykazania, że odwzorowanie (20) jest homomorfizmem. Wynika tołatwo z definicji działań w przestrzeniach L(V,W ) i Mm,n(K) oraz z Definicji 8.5.:
[ (A+B)ij ] = [ ((A+B)ej)i ] = [ (Aej)
i + (Bej)i ]
= [Aij +Bij ] = [Aij ] + [Bi
j ]
[ (αA)ij ] = [ ((αA)ej)i ] = [α(Aej)
i ]
= [αAij ] = α[Aij ] .
•Z Twierdzenia 8.6 otrzymujemy
Wniosek 8.5 Niech V,W będą przestrzeniami liniowymi nad ciałem K. Wt-edy
dimL(V,W ) = dimV · dimW .
Twierdzenie 8.8 Niech U, V,W będą przestrzeniami liniowymi nad ciałem K,a B : U → V i A : V → W - przekształceniami liniowymi.Dla dowolnych baz {ej}nj=1, {fi}mi=1, {gk}rk=1 w przestrzeniach U, V,W macierz[ (AB)kj ] przekształcenia AB jest iloczynem macierzy [Aki ], [Bi
j ] przekształceńA,B:
(AB)kj =m∑i=1
Aki Bij . (21)
Dowód: Na podstawie Def.8.5. i Wniosku 8.4. mamy:
(AB)kj = ((AB)ej)k = (A(Bej))
k =m∑i=1
Aki (Bej)i =
m∑i=1
Aki Bij
•
Uwaga Własność macierzy odwzorowań liniowych o której mowa w Tw.8.8 jest uza-sadnieniem przyjętej przez nas wcześniej definicji mnożenia macierzy.
Twierdzenie 8.9 Niech V,W będą przestrzeniami liniowymi nad ciałem K,a [Aij ] macierzą przekształcenia liniowego A : V → W względem baz {ej}nj=1,{fi}mi=1 w przestrzeniach V,W .Rząd przekształcenia liniowego A jest równy rzędowi jego macierzy:
rankA = rank[Aij ] .
158
Dowód:Przypomnijmy, że rzędem macierzy nazywamy liczbę liniowo niezależnych wierszy
(lub kolumn) tej macierzy. Kolumny macierzy [Aij ] są współrzędnymi wektorów Aejw bazie {fi}ni=1. Liczba liniowo niezależnych kolumn jest więc równa licznie liniowoniezależnych wektorów Aej. Ponieważ układ wektorów {Aej}nj=1 rozpina obraz przek-ształcenia A to liczba liniowo niezależnych wektorów tego układu jest równa dim imA,a zatem (zgodnie Definicją 8.1) jest równa rzędowi przekształcenia A. •
Twierdzenie 8.10 Niech A : U → V i B : V → W będą przekształceniamiliniowymi skończenie-wymiarowych przestrzeni liniowych nad ciałem K. Wtedy
rankB ◦ A 6 min{rankA, rankB}.
Dowód: Zgodnie z definicją rząd przekształcenia liniowego jest równy wymiarowiobrazu tego przekształcenia. Ponieważ imA ⊂ V to
imB ◦ A = B(imA) ⊂ B(V ) = imB
a zatem (Tw.6.8.iii.):
rankB ◦ A = dim imB ◦ A 6 dim imB = rankB .
Niech {ei}ki=1 będzie bazą w podprzestrzeni imA ⊂ V . Z liniowości przekształcenia Bwynika, że
imB ◦ A = span{Be1, . . . , Bek}
a zatem
rankB ◦ A = dim span{Be1, . . . , Bek} 6 k = dim imA = rankA .
•
Korzystając z udowodnionego właśnie twierdzenia oraz z twierdzeń: Tw.8.7. Tw.8.8.,Tw.8.9. otrzymujemy natychmiast:
Wniosek 8.6 Dla dowolnych macierzy B ∈Mn×m(K), A ∈Mm×k(K)
rankBA 6 min{rankA, rankB} .
Wniosek 8.7 Niech A,B,C ∈Mn×n(K). Jeśli macierze B i C są nieosobliweto
rankBA = rankAC = rankA .
159
Dowód:Pokażemy, że rankBA = rankA. Z Wniosku.8.6 wynika, że rankBA 6 rankA.
Ponieważ, A = B−1(BA) to również rankA 6 rankBA, a zatem rankBA = rankA.Podobnie dowodzimy drugiej równości. •
Z Wn.8.7 wynika łatwo następujący:
Wniosek 8.8 Niech A, S ∈Mn×n(K). Jeśli macierz S jest nieosobliwa to
i. rankS−1AS = rankA;
ii. rankSTAS = rankA.
8.4 Zmiana bazy, macierz przejścia
Definicja 8.6 Niech {ei}ni=1, {e′j}nj=1 będą bazami w przestrzeni liniowej V nadciałem K. Macierz S = [Sij ] współczynników rozkładu wektorów bazy {e′j}nj=1
względem wektorów bazy {ei}ni=1:
e′j =n∑i=1
Sij ei , j = 1, 2, . . . , n . (22)
nazywamy macierzą przejścia od bazy {ei}ni=1 do bazy {e′j}nj=1.
Uwagi:
1. j-ta kolumna macierzy przejścia jest utworzona ze współczynników rozkładu j-tego wektora bazy {e′j}nj=1 względem wektorów bazy {ei}ni=1.
2. Macierz przejścia jest macierzą przekształcenia liniowego S : V → V przekształ-cającego bazę {ei}ni=1 na bazę {e′j}nj=1:
e′j = S(ej) , j = 1, 2, . . . , n ,
względem bazy {ei}ni=1.
3. Macierz przejścia od bazy do bazy jest zawsze nieosobliwa.
PrzykładZnajdziemy macierz przejścia S od bazy standardowej w R3:
e1 = (1, 0, 0) , e2 = (0, 1, 0) , e3 = (0, 0, 1) ,
160
do bazye′1 = (1, 2, 0) , e′2 = (1, 1, 1) , e′3 = (0, 1, 0) .
Rozkładając wektory e′i w bazie standardowej {ei}3i=1 otrzymujemy
e′1 = 1 · (1, 0, 0) + 2 · (0, 1, 0) + 0 · (0, 0, 1) = 2e1 + e2
e′2 = 1 · (1, 0, 0) + 1 · (0, 1, 0) + 1 · (0, 0, 1) = e1 + e2 + e3
e′3 = 0 · (1, 0, 0) + 1 · (0, 1, 0) + 0 · (0, 0, 1) = e2
Zgodnie z Uwagą 1. poniżej Definicji 8.6. współczynniki tych rozkładów tworząkoumny macierzy przejścia, a zatem:
S =
1 1 02 1 10 1 0
.
Twierdzenie 8.11 Jeżeli S = [Sij] jest macierzą przejścia od bazy {ei}ni=1 dobazy {e′j}nj=1 to S−1 jest macierzą przejścia od bazy od bazy {e′j}nj=1 do bazy{ei}ni=1.
Dowód: Zgodnie z Uwagą 1. poniżej Definicji 8.6., i-ta kolumna macierzy przejściaT od bazy {e′j}nj=1 do bazy {ei}ni=1 jest utworzona ze współczynników rozkładu i-tegowektora bazy {ei}ni=1 względem wektorów bazy {e′j}nj=1:
ei =n∑j=1
T ji e′j .
Z drugiej strony dla macierzy przejścia od bazy {ei}ni=1 do bazy {e′j}nj=1 mamy
e′j =n∑k=1
Skj ek .
Podstawiając jedno równanie do drugiego otrzymujemy
ei =n∑j=1
T ji
(n∑k=1
Skj ek
)=
n∑k=1
(n∑j=1
Skj Tji
)ek =
n∑k=1
(ST )ki ek
e′j =n∑i=1
Sij
(n∑k=1
T ki e′k
)=
n∑k=1
(n∑i=1
T ki Sij
)e′k =
n∑k=1
(TS)kj e′k
co wobec jednoznaczności rozkładu wektora w bazie daje równania macierzowe:
ST = I = TS .
161
Ponieważ równania te charakteryzują jednoznacznie macierz odwrotną do macierzy S,T = S−1. •
Twierdzenie 8.12 Niech {ei}ni=1, {e′j}nj=1 będą bazami w przestrzeni liniowejV nad ciałem K, a S = [Sij] macierzą przejścia od bazy {ei}ni=1 do bazy {e′j}nj=1.Wtedy:
i. jeżeli {vi}ni=1 są współrzędnymi wektora v ∈ V względem bazy {ei}ni=1, a{v′j}nj=1 współrzędnymi tego wektora względem bazy {e′j}nj=1:
v =n∑i=1
vi ei =n∑i=1
v′i e′i
to v′1
v′2
...v′n
= S−1
v1
v2
...vn
(23)
ii. jeżeli A = [Aij ] jest macierzą endomorfizmu A ∈ L(V, V ) względem bazy{ei}ni=1, a A′ = [A′ij ] macierzą tego endomorfizmu względem bazy {e′j}nj=1
toA′ = S−1AS . (24)
Dowód:i) Korzystając ze wzoru (22) mamy
v =n∑k=1
vk ek =n∑i=1
v′i e′i
=n∑i=1
v′i
(n∑k=1
Ski ek
)=
n∑k=1
(n∑i=1
Ski v′i
)ek .
Z jednoznaczności rozkładu wektora względem bazy mamy
vi =n∑i=1
Ski v′i
162
lub w postaci macierzowej v1
v2
...vn
= S
v′1
v′2
...v′n
.
Mnożąc z lewej obie strony przez S−1 otrzymujemy równanie (23).ii) Z Definicji 8.5. macierzy przekształcenia liniowego A : V → V względem bazy w Vmamy:
Aej =n∑i=1
Aijei
Ae′j =n∑i=1
A′ij e′i .
Podstawiając relację (22) do drugiego z równań i korzystając z pierwszego otrzymujemy
A
(n∑i=1
Sij ei
)=
n∑i=1
A′ij
(n∑k=1
Ski ek
)n∑i=1
Sij Aei =n∑k=1
(n∑i=1
Ski A′ij
)ek
n∑i=1
Sij
(n∑k=1
Aki ek
)=
n∑k=1
(n∑i=1
Ski A′ij
)ek
n∑k=1
(n∑i=1
Aki Sij
)ek =
n∑k=1
(n∑i=1
Ski A′ij
)ek .
Z jednoznaczności rozkładu wektora względem bazy otrzymujemyn∑i=1
Aki Sij =
n∑i=1
Ski A′ij ,
lub w zapisie macierzowymAS = SA′ .
Mnożąc z lewej obie strony przez S−1 otrzymujemy równanie (61). •Przykłady:
1. Niech A bedzie przekształceniem przestrzeni R2 na siebie, które w pewnej bazie{e1, e2} ma macierz
A =
[8 −2
28 −7
]163
Rozpatrzmy nową bazę:
e′1 = 2e1 + 7e2 , e′2 = e1 + 4e2 .
Macierzą przejścia od bazy {e1, e2} do bazy {e′1, e′2} jest macierz
S =
[2 17 4
].
Zauważmy, że detS = 1 i macierz odwrotna ma postać
S−1 =
[4 −1−7 2
].
Macierz przekształcenia A ma w nowej bazie postać
A′ = S−1AS =
[4 −1−7 2
] [8 −2
28 −7
] [2 17 4
]=
[4 −1−7 2
] [2 07 0
]=
[1 00 0
].
W bazie {e′1, e′2} działanie przekształcenia liniowego na dowolny wektor o współrzęd-nych {v′1, v′2} można łatwo odczytać, ze wzoru[
v′1
0
]=
[1 00 0
] [v′1
v′2
]Mamy więc
A(v′1e′1 + v′2e′2) = v′1e′1 .
Przekształcenie A jest więc rzutem na podprzestrzeń span{e′1} równoległym dopodprzestrzeni span{e′2}.Powyższy przykład ilustruje jak duże uproszczenie może wnieść do badania przek-ształcenia liniowego odpowiedni wybór bazy.
Definicja 8.7 Macierze A,B ∈ Mn×n(K) nazywamy podobnymi i piszemyA ∼ B, jeśli istnieje macierz nieosobliwa C taka, że A = C−1BC.
Twierdzenie 8.13 Relacja podobieństwa jest relacją równoważności wMn×n(K).
164
Dowód:zwrotność: A ∼ A, ponieważ, A = I−1AI.symetria: Jesli A ∼ B to istnieje nieosobliwa macierz C, taka, że A = C−1BC. Alewtedy także (C−1)−1AC−1 = B, zatem B ∼ A.przechodniość: Niech A ∼ B i B ∼ C. Wtedy istnieją nieosobliwe macierze D i Etakie, że A = D−1BD i B = E−1CE. Zatem A = D−1E−1CED = (ED)−1CED iA ∼ C. •
8.5 Automorfizmy i macierze nieosobliwe
Definicja 8.8 Niech V będzie przestrzenią liniową nad ciałem K. Przeksz-tałcenia liniowe A : V → V nazywamy endomorfizmami przestrzeni V .Endomorfizmy przestrzeni V , które są bijekcjami nazywamy automorfizmamiprzestrzeni V .
Twierdzenie 8.14 Zbiór wszystkich automorfizmów przestrzeni liniowej Vnad ciałem K jest grupą ze względu na składanie odwzorowań.
Dowód:Na mocy Tw.8.2.iii. złożenie automorfizmów jest automorfizmem. Składanie
przekształceń jest łączne:
∀ v ∈ V : ((AB)C)v = (AB)(Cv) = A(B(Cv))
(A(BC))v = A((BC)v) = A(B(Cv)) .
Elementem neutralnym ze względu na składanie odwzorowań jest odwzorowanie iden-tycznościowe:
idV : V 3 v → v ∈ V .
Z Twierdzenia 8.4 wiemy, że odwzorowanie odwrotne do izomorfizmu jest izomor-fizmem. W szczególności, odwzorowanie odwrotne do automorfizmu jest automor-fizmem. •
Twierdzenie 8.15 Niech {ei}ni=1 będzie bazą w przestrzeni liniowej V nadciałem K. Przekształcenie liniowe A : V → V jest automorfizmem przestrzeniV wtedy i tylko wtedy gdy jego macierz względem bazy {ei}ni=1 jest nieosobliwa.
Dowód: Z definicji rzędu odwzorowania i Wniosku 8.1.iii. wynika, że przekształcenieliniowe przestrzeni n-wymiarowej w siebie jest automorfizmem wtedy i tylko wtedy gdyjego rząd wynosi n co na mocy Tw.8.9. jest równoważne warunkowi, że rząd macierzy
165
przekształcenia A jest równy n. Na mocy Tw.7.4 rząd macierzy typu n×n jest równyn wtedy i tylko wtedy jest to macierz nieosobliwa. •
Definicja 8.9 Grupę automorfizmów przestrzeni liniowej V nad ciałem Knazywamy pełną (ogólną) grupą liniową przetrzeni V i oznaczamy sym-bolem GL(V ;K).
Twierdzenie 8.16 Jeżeli V jest n-wymiarową przestrzenią liniową nadciałem K to grupy GL(V,K) i GLn(K) są izomorficzne.
Dowód:Niech {ej}nj=1 będzie bazą w przestrzeni V , a [Aij ] macierzą przekształcenia lin-
iowego A : V → V w tej bazie. Na mocy Tw.8.7. odwzorowanie
Φ : GL(V,K) 3 A→ [ aij ] ∈ GLn(K)
jest injekcją. Z Tw.8.15 wynika, że jest ono także surjekcją. Z Tw.8.8. wynika, że Φjest homomorfizmem grup:
Φ(AB) = Φ(A)Φ(B) .
•
9 Struktura przekształceń liniowych
9.1 Podprzestrzenie niezmiennicze
Definicja 9.1 Niech A będzie endomorfizmem przestrzeni liniowej nad ciałemK. Podprzestrzeń W ⊂ V nazywamy podprzestrzenią niezmienniczą en-domorfizmu A jeżeli A(W ) ⊂ W .
Uwagi:
1. Podprzestrzenie niewłaściwe V i {Θ} przestrzeni V są podprzestrzeniami niezmi-enniczymi każdego przekształcenia A ∈ L(V, V ).
2. Podprzestrzenie kerA i imA są podprzestrzeniami niezmienniczymi przekształce-nia A. Jeśli A nie jest automorfizmem to są to podprzestrzenie właściwe.
Przykłady:
166
1. Przekształcenie linioweDα : V 3 v → αv ∈ V
gdzie α ∈ K nazywamy dylatacją. Dla dowolnej dylatacji Dα każda pod-przestrzeń przestrzeni V jest niezmiennicza.
2. Niech V będzie n-wymiarową przestrzenią liniową nad ciałem K. Załóżmy, że Vjest sumą prostą podprzestrzeni U ⊂ V i W ⊂ V :
V = U ⊕W .
Wtedy, każdy wektor v ∈ V daje się jednoznacznie przedstawić jako suma
v = u+ w , u ∈ U , w ∈ W .
OdwzorowanieΠ : V 3 v → u ∈ V
nazywamy rzutem na podprzestrzeń U równoległym do podprzestrzeniW . Z definicji wynika natychmiast, że rzut jest przekształceniem liniowym.
Zgodnie z Tw.5.12. w przestrzeni V można wybrać bazę {ei}ni=1 taką, że układpierwszych k wektorów {ei}ki=1 tworzy bazę w podprzestrzeni U , a układ ostatnichn− k wektorów {ei}ni=k+1 tworzy bazę w podprzestrzeni W . Macierz rzutu Π wtej bazie ma postać
1 . . . 0 0 . . . 0
............
......
.........
...
0 . . . 1 0 . . . 0
0 . . . 0 0 . . . 0
............
......
.........
...
0 . . . 0 0 . . . 0
Podprzestrzeń rozpięta na dowolnym podzbiorze bazy {ei}ni=1 jest podprzestrzeniąniezmienniczą rzutu Π.
3. Pokażemy, że przekształcenie A : R2 → R2, zadane w bazie standardowej
e1 = (1, 0) , e2 = (0, 1)
macierzą [0 1−1 0
]
167
nie ma niewłaściwych podprzestrzeni niezmienniczych.
Załóżmy, że W jest taką podprzestrzenią. Wtedy dimW = 1, a więc W =span{v} dla pewnego niezerowego wektora v ∈ V . Z niezmienniczości pod-przestrzeni W wynika, że Av ∈ W czyli isnieje takie α ∈ R, że
Av = αv .
Z drugiej strony
Av = A(v1e1 + v2e2) = v1Ae1 + v2Ae2 = −v2e1 + v1e2 .
porównując prawe strony ostatnich równości otrzymujemy
αv1e1 + αv2e2 = −v2e1 + v1e2
αv1 = −v2 , αv2 = v1
(α2 + 1)v1 = 0 , (α2 + 1)v2 = 0 .
Ponieważ wektor v jest niezerowy to co najmniej jedna ze współrzędnych v1, v2
musi być różna od zera, ale wtedy α2 + 1 = 0 co jest niemożliwe dla α ∈ R.
Twierdzenie 9.1 Niech {ej}nj=1 będzie bazą w przestrzeni V nad ciałem K.Podprzestrzeń W = span{e1, . . . , ek}, k < n jest podprzestrzenią niezmiennicząendomorfizmu A : V → V wtedy i tylko wtedy gdy macierz endomorfizmu Awzględem bazy {ej}nj=1 ma postać:
A11 . . . A1
k A1k+1 . . . A1
n
............
......
.........
...
Ak1 . . . Akk Akk+1 . . . Akn
0 . . . 0 Ak+1k+1 . . . Ak+1
n
............
......
.........
...
0 . . . 0 Ank+1 . . . Ann
(25)
Dowód:⇒ Z założenia, że W jest popdprzestrzenią niezmienniczą wynika, że Aei ∈ W dlai = 1, . . . , k, a więc
Aei =k∑j=1
Ajiej dla i = 1, . . . , k .
168
Ponieważ i-ta kolumna macierzy przekształcenia A w bazie {ej}nj=1 jest utworzona zewspółczynników rozkładu wektora Aei równania powyższe dają postać (25) macierzyA.⇐ Załóżmy teraz, że macierz przekształcenia A ma w bazie {ej}nj=1 postać (25). Wek-tory w z podprzestrzeni W są opisane w bazie {ej}nj=1 macierzami
w =
w1
...wk
0...0
Na mocy Wniosku 8.3. otrzymujemy
A11 . . . A1
k A1k+1 . . . A1
n
............
......
.........
...
Ak1 . . . Akk Akk+1 . . . Akn
0 . . . 0 Ak+1k+1 . . . Ak+1
n
............
......
.........
...
0 . . . 0 Ank+1 . . . Ann
w1
...
wk
0
...
0
=
k∑j=1
A1jw
j
...k∑j=1
Akjwj
0
...
0
skąd wynika, że Aw ∈ W , a więc W jest podprzestrzenią niezmienniczą przekształceniaA •
Z udowodnionego wyżej twierdzenia otrzymujemy
169
Wniosek 9.1 Niech {ej}nj=1 będzie bazą w przestrzeni V nad ciałem K. Pod-przestrzenie W = span{e1, . . . , ek}, U = span{ek+1, . . . , en}, k < n są pod-przestrzeniami niezmienniczymi endomorfizmu A : V → V wtedy i tylko wtedygdy macierz endomorfizmu A względem bazy {ej}nj=1 ma postać:
A11 . . . A1
k 0 . . . 0
............
......
.........
...
Ak1 . . . Akk 0 . . . 0
0 . . . 0 Ak+1k+1 . . . Ak+1
n
............
......
.........
...
0 . . . 0 Ank+1 . . . Ann
(26)
Dowód: W dowodzie Tw.9.1. jest oczywiście nieistotne czy elementy bazy pod-przestrzeni niezmienniczej W umieścimy na pierwszych k miejscach w bazie całejprzestrzeni, czy na ostatnich k miejscach tej bazy. W tym drugim przypadku macierzprzekształcenia będzie miała postać
A11 . . . A1
n−k 0 . . . 0
............
......
.........
...
An−k1 . . . An−kn−k 0 . . . 0
An−k+11 . . . An−k+1
n−k An−k+1n−k+1 . . . An−k+1
n
............
......
.........
...
An1 . . . Ann−k Ann−k+1 . . . Ann
.
Ponieważ obie podprzestrzenie, W i U są niezmiennicze macierz endomorfizmu mapostać (26). •
Korzystając z Tw.5.12. można nieco inaczej sformułować Wniosek 9.1.:
170
Wniosek 9.2 Przestrzeń V nad ciałem K jest sumą prostą
V = W ⊕ U
podprzestrzeni niezmienniczych endomorfizmu A : V → V wtedy i tylko wt-edy gdy istnieje taka baza {ej}nj=1 w przestrzeni V względem której macierzendomorfizmu A ma postać:
A11 . . . A1
k 0 . . . 0
............
......
.........
...
Ak1 . . . Akk 0 . . . 0
0 . . . 0 Ak+1k+1 . . . Ak+1
n
............
......
.........
...
0 . . . 0 Ank+1 . . . Ann
(27)
i W = span{e1, . . . , ek}, U = span{ek+1, . . . , en}, k < n.
Uwagi:
1. Powyższy wniosek łatwo uogólnić na sumę prostą dowolnej (skończonej) liczbypodprzestrzeni niezmienniczych. Wybierając bazę składającą się z elementówbaz podprzestrzeni niezmienniczych, możemy macierz endomorfizmu sprowadzićdo postaci, w której wzdłuż diagonali mamy mniejsze macierze kwadratowe,a pozostałe elementy macierzowe są zerami. Taką postać macierzy nazywamypostacią blokową.
2. Najprostszą, diagonalną postać macierzy endomorfizmu można uzyskać przezodpowiedni wybór bazy wtedy i tylko wtedy gdy przestrzeń rozkłada się nasumę prostą jednowymiarowych podprzestrzeni niezmienniczych. Takimi pod-przestrzeniami zajmiemy się w następnym podrozdziale.
Twierdzenie 9.2 Jeżeli A : V → V jest automorfizmem przestrzeni liniowejV o skończonym wymiarze i W ⊂ V jest podprzestrzenią niezmienniczą A toW jest również podprzestrzenią niezmienniczą przekształcenia odwrotnego A−1.
Dowód:Ponieważ W jest podprzestrzenią niezmienniczą to A(W ) ⊂ W . Niech {ei}ki=1
będzie bazą w W . Ponieważ A jest automorfizmem to układ wektorów {Aei}ki=1 jest
171
liniowo niezależny, a więc na mocy Tw.5.6. jest bazą w W . A zatem A(W ) = W . AleA jest bijekcją więc także A−1(W ) = W . •
9.2 Wektory i wartości własne
Definicja 9.2 Niech V bedzie przestrzenią liniową nad ciałem K i niechA : V → V będzie przekształceniem liniowym. Jeżeli istnieje skalar α ∈ Ki niezerowy wektor v ∈ V takie, że
Av = λ v ,
to α nazywamy wartością własną przekształcenia A, a v – wektoremwłasnym przekształcenia A odpowiadającym wartości własnej α.
Twierdzenie 9.3 Niech V będzie przestrzenią liniową nad ciałem K. Zbiórwszystkich wektorów własnych przekształcenia liniowego A : V → V odpowiada-jących danej wartości własnej α ∈ K, uzupełniony o wektor zerowy:
Vα = {v ∈ V : Av = α v}
jest podprzestrzenią liniową przestrzeni V .
Dowód: Na mocy Tw.5.2. wystarczy pokazać, że zbiór Vα jest zamknięty ze względuna dodawanie wektorów i mnożenie wektora przez liczbę. Niech v, w ∈ Vα, wtedy
Av = α v i Aw = αw .
A zatemA(v + w) = Av + Aw = α v + αw = α(v + w) ,
więc v + w ∈ Vα. Dla dowolnego β ∈ K i v ∈ Vα mamy
A(β v) = βAv = β(α v) = α(β v) ,
więc również β v ∈ Vα. •
Definicja 9.3 Niech V będzie przestrzenią liniową nad ciałem K. Zbiór wszys-tkich wektorów własnych przekształcenia liniowego A : V → V odpowiadającychdanej wartości własnej α ∈ K uzupełniony o wektor zerowy:
Vα = {v ∈ V : Av = α v}
nazywamy podprzestrzenią własną przekształcenia A odpowiadającąwartości własnej α.
172
Uwagi:
1. Jeżeli α 6= β to Vα ∩ Vβ = {Θ}.
2. Każda podprzestrzeń podprzestrzeni własnej przekształceniaA jest podprzestrzeniąniezmienniczą tego przekształcenia.
Twierdzenie 9.4 Wektory własne odpowiadające różnym wartościom włas-nym tego samego przekształcenia liniowego są liniowo niezależne
Dowód:Niech A : V → V i Avi = αi vi, i = 1, . . . , n. Przeprowadzimy dowód przez
indukcję.Jeżeli n = 1, to ponieważ v1 6= Θ, układ {v1} jest liniowo niezależny.Udowodnimy teraz, założenie o kroku indukcyjnym. Załóżmy, że teza twierdzenia
jest słuszna dla n− 1 tzn. układ wektorów:
{v1, . . . , vn−1}
jest liniowo niezależny. Niech
λ1v1 + λ2v2 + . . .+ λnvn = Θ . (28)
Obliczając wartość przekształcenia A po obu stronach równości mamy:
α1λ1v1 + α2λ
2v2 + . . .+ αnλnvn = Θ .
Mnożąc przedostatnie równanie przez αn i odejmując od ostatniego mamy:
(α1 − αn)λ1v1 + (α2 − αn)λ2v2 + . . .+ (αn−1 − αn)λn−1vn−1 = Θ .
Z założenia kroku indukcyjnego wynika, że
(αj − αn)λj = 0 dla j = 1, . . . , n− 1 .
Ponieważ αn 6= αj dla j = 1, . . . , n− 1, więc
λ1 = λ2 = . . . = λn−1 = 0
i z równania (28) wynika, że λnvn = Θ, ale vn jest z definicji wektorem niezerowym,więc także λn = 0 co oznacza, że układ {vi}ni=1 jest liniowo niezależny.
Wykazaliśmy, że założenia twierdzenia o indukcji matematycznej są spełnione. Za-tem na mocy twierdznia o indukcji teza Twierdzenia 9.4. jest prawdziwa dla dowolnegon. •
173
Definicja 9.4 Niech {ei}ni=1 bedzie bazą w przestrzeni liniowej V nad ciałemK, a A = [Aij] macierzą przekształcenia liniowego A : V → V względem tejbazy. Wyznacznik:
det(A− λI) =
∣∣∣∣∣∣∣∣∣∣∣∣
A11 − λ A1
2 . . . A1n
A21 A2
2 − λ . . . A2n
......
.........
...
An1 An2 . . . Ann − λ
∣∣∣∣∣∣∣∣∣∣∣∣nazywamy wielomianem charakterystycznym przekształcenia A.
Uwagi:
1. Z definicji wyznacznika macierzy wynika, że wielomian charakterystyczny endo-morfizmu A : V → V , n-wymiarowej przestrzeni wektorowej nad ciałem K jestwielomianem stopnia n nad ciałem K zmiennej λ.
2. Niech A′ = [A′ij ] będzie macierzą przekształcenia A : V → V względem innejbazy {e′i} przestrzeni V . Wtedy A′ = S−1AS gdzie S jest macierzą przejścia odbazy {ei} do bazy {e′i}. Otrzymujemy
det(A′ − λI) = det(S−1AS − λI) = det(S−1(A− λI)S) = det(A− λI) ,
a więc wyznacznik charakterystyczny przekształcenia A nie zależy od wyborubazy.
3. Wyznacznik charakterystyczny det(A−λI) będziemy także nazywać wyznacznikiemcharakterystycznym macierzy A.
Twierdzenie 9.5 Niech {ei}ni=1 będzie bazą w przestrzeni liniowej V nadciałem K, a A = [Aij] macierzą przekształcenia liniowego A : V → V względemtej bazy. Wtedy:
i. skalar α ∈ K jest wartością własną przekształcenia A wtedy i tylko wtedy,gdy jest pierwiastkiem wielomianu charakterystycznego:
det(A− λI) = 0 ;
ii.dimVα = n− rank(A− λI) .
174
Uwaga:Ponieważ, zgodnie z Tw.8.9. rząd przekształcenia liniowego (wymiar obrazu przek-
ształcenia) i rząd macierzy tego przekształcenia (liczba liniowo niezależnych kolumntej macierzy) są sobie równe to w punkcie ii. Tw.9.5. symbol rank(A − λI) możemyinterpretować zarówno jako rząd przekształcenia liniowego A− λI jak i rząd macierzy[Aij − λδij] tego przekształcenia w dowolnie wybranej bazie.Dowód:i.
Równanie na wektory własne i wartości własne
Av = λ v
ma w bazie {ei}ni=1 postaćA1
1 A12 . . . A1
n
A21 A2
2 . . . A2n
......
.........
...
An1 An2 . . . Ann
v1
v2
...
vn
= λ
v1
v2
...
vn
lub
A11 − λ A1
2 . . . A1n
A21 A2
2 − λ . . . A2n
......
.........
...
An1 An2 . . . Ann − λ
v1
v2
...
vn
=
0
0
...
0
.
To równanie macierzowe jest równoważne jednorodnemu układowi n równań liniowychz n niewiadomymi. Z twierdzenia Cramera wynika, że układ ten ma niezerowe rozwiąza-nia wtedy i tylko wtedy gdy wyznacznik macierzy jego współczynników jest równyzeru. W rozważanym przypadku wyznacznik ten jest równy wielomianowi charak-terystycznemu przekształcenia skąd wynika, że równanie na wektory własne ma nieze-rowe rozwiązania wtedy i tylko wtedy gdy λ jest pierwiastkiem tego wielomianu tzn.det(A− λI) = 0.
ii.Zauważmy, że podprzestrzeń własna Vλ przekształcenia A odpowiadająca wartości
własnej λ jest z definicji równa jądru przekształcenia A− λI:
Vλ = ker (A− λI) .
175
Korzystając z Tw.8.1. otrzymujemy
dimVλ = dim ker (A− λI) = n− dim im (A− λI) = n− rank (A− λI) .
•
Przykład:Znaleźć wartości własne, wektory własne i podprzestrzenie własne przekształcenia
liniowego w C3, którego macierzą w bazie {e1, e2, e3} jest
A =
4 −2 22 0 2−1 1 1
Równanie charakterystyczne dla macierzy A ma postać:
det
4− λ −2 22 0− λ 2−1 1 1− λ
=
= −(4− λ)λ(1− λ) + 2 · 2 + 2 · 2−λ · 2− (4− λ) · 2 + 4 · (1− λ)
= (1− λ)(2− λ)2
równanie to ma jeden pierwiastek jednokrotny λ1 = 1 i jeden pierwiastek dwukrotnyλ2 = 2.
Dla każdej z wartości własnych rozwiązujemy równanie na odpowiadający jej wektorwłasny. Dla λ1 = 1 mamy: 4 −2 2
2 0 2−1 1 1
v1
v2
v3
=
v1
v2
v3
lub w postaci równia jednorodnego: 3 −2 2
2 −1 2−1 1 0
v1
v2
v3
=
000
równanie to jest równoważne układowi jednorodnemu:
3v1 − 2v2 + 2v3 = 02v1 − v2 + 2v3 = 0−v1 + v2 = 0
⇔v1 + 2v3 = 0v1 + 2v3 = 0
v2 = v1
⇔v1 = tv2 = tv3 = −1
2t
176
Zatem jedyny wektor własny odpowiadający wartości własnej λ1 = 1 ma postać:
−→v =
v1
v2
v3
=
tt
−12t
= t
11−1
2
, t ∈ C
Wektory tej postaci są ogólnym rozwiązaniem problemu na wektory własne odpowiada-jące wartości własnej λ1 = 1. Wraz z wektorem zerowym tworzą one 1-wymiarowąpodprzestrzeń własną V1.
Dla λ1 = 2 mamy: 4 −2 22 0 2−1 1 1
v1
v2
v3
= 2
v1
v2
v3
lub w postaci równania jednorodnego: 2 −2 2
2 −2 2−1 1 −1
v1
v2
v3
= 0
równanie to jest równoważne układowi jednorodnemu:
2v1 − 2v2 + 2v3 = 02v1 − 2v2 + 2v3 = 0−v1 + v2 − v3 = 0
⇔ v3 = −v1 + v2 ⇔v1 = tv2 = sv3 = s− t
Zatem każdy wektor własny odpowiadający wartości własnej λ1 = 2 ma postać:
−→v =
v1
v2
v3
=
ts
s− t
= t
10−1
+ s
01−1
, s, t ∈ C
Wektory tej postaci są ogólnym rozwiązaniem problemu na wektory własne odpowiada-jące wartości własnej λ2 = 2. Wraz z wektorem zerowym tworzą one 2-wymiarowąpodprzestrzeń własną V2.
9.3 Diagonalizacja
Z Twierdzenia 9.4. wynika, że jeśli przekształcenie liniowe ma wystarczająco dużowektorów własnych to można z nich utworzyć bazę względem której przekształcenieto będzie miało postać diagonalną. Możemy więc sformułować następujący wniosek odiagonalizacji.
177
Wniosek 9.3 Niech V będzie n-wymiarową przestrzenią liniową nad ciałemK. Jeżeli przekształcenie liniowe A : V → V ma n różnych wartości włas-nych α1, . . . , αn to odpowiadające tym wartościom własnym wektory własnev1, . . . , vn tworzą bazę w przestrzeni V . Macierz przekształcenia A względemtej bazy ma postać:
α1 0 . . . 0
0 α2 . . . 0
......
.........
...
0 0 . . . αn
(29)
Na odwrót, jeśli macierz przekształcenia A względem bazy {vi}ni=1 ma postaćdiagonalną (29), przy czym tym razem αj nie muszą byc parami różne, to dlakażdego j = 1, . . . , n, vj jest wektorem własnym przekształcenia A odpowiada-jącym wartości własnej αj.
Na ogól przekształcenie liniowe nie ma tak prostej budowy. W dalszej części tegopodrozdziału zbadamy kiedy jest możliwa diagonalizacja przekształcenia.
Definicja 9.5 Niech α będzie wartością własną przekształcenia liniowego A :V → V skończenie-wymiarowej przestrzeni liniowej V nad ciałem K. Liczbę
dimVα = dim ker(A− αI)
nazywamy krotnością geometryczną wartości własnej α.Krotnością algebraiczną wartości własnej α nazywamy jej krotność jakopierwiastka wielomianu charakterystycznego det(A− λI) przekształcenia A.
Twierdzenie 9.6 Niech α będzie wartością własną przekształcenia liniowegoA : V → V skończenie-wymiarowej przestrzeni liniowej V nad ciałem K. Krot-ność geometryczna wartości własnej α jest jest mniejsza bądź równa jej krot-ności algebraicznej.
Dowód:Załóżmy, że krotność geometryczna wartości własnej α wynosi r. ker(A− αI) jest
podprzestrzenią niezmienniczą przekształceniaA. Rozszerzając bazę tej podprzestrzenido bazy w całej przestrzeni V otrzymujemy bazę względem której, na mocy Tw.9.1.,macierz przekształcenia A ma postać blokową:
A =
[αI B0 C
].
178
Wtedy wielomian charakterystyczny przekształcenia A ma postać
det(A− λI) = (α− λ)r det(C − λI) ,
skąd wynika, że α jest co najmniej r-krotnym pierwiastkiem tego wielomianu. •
Twierdzenie 9.7 Przekształcenie liniowe A : V → V skończeniewymiarowejprzestrzeni liniowej V nad ciałem K ma macierz diagonalną względem pewnejbazy tej przestrzeni wtedy i tylko wtedy, gdy spełnione są dwa następującewarunki:
i. wielomian charakterystyczny przekształcenia A rozkłada sie na iloczynczynników liniowych;
ii. dla każdej wartości własnej przekształcenia A jej krotności: geometrycznai algebraiczna są sobie równe.
Dowód:⇒
Załóżmy, że postać przekształcenia A ma w pewnej bazie przestrzeni V postaćdiagonalną. Zawsze można elementy bazy uporządkować tak, żeby macierz diagonalnamiała postać
α1 . . .α1 0
α2 . . .α2 . . .
0 αk . . .αk
(30)
w której na głównej przekątnej występuje k różnych liczb αi (i = 1, . . . , k 6 dimV )przy czym αi występuje ri razy. Z tej postaci wynika, że wielomian charakterystycznyprzekształcenia A ma postać
det(A− λI) = (α1 − λ)r1(α2 − λ)r2 . . . (αk − λ)rk , (31)
a więc rozkłada się na iloczyn czynników liniowych i pierwszy warunek jest spełniony.Z postaci diagonalnej macierzy A wynika także, że dimVαi = ri dla i = 1, . . . , k, a
więc i drugi warunek jest spełoniony⇐
179
Załóżmy, że wielomian charakterystyczny rozkłada się na iloczyn czynników lin-iowych, a więc ma postać (31) gdzie liczby αi są parami różne. Stąd wynika, że A mak różnych wartości własnych αi, i = 1, . . . , k, których krotności algebraiczne sumująsię do wymiaru przetrzeni V :
dimV = r1 + r2 + . . .+ rk .
Ale z waruku ii. wynika, że dla każdej wartości własnej krotność algebraiczna jestrówna krotności geometrycznej tzn.
∀i : ri = dimVαi = dim ker(A− αiI)
zatemdimV = dimVα1 + dimVα2 + . . .+ dimVαk . (32)
Ponieważ Vα1 ∪ Vα2 = {Θ} dla α1 6= α2 (Uwaga 1. poniżej Def.9.3.)
Vα1 + Vα2 + . . .+ Vαk = Vα1 ⊕ Vα2 ⊕ . . .⊕ Vαk (33)
skąd na mocy Wn.5.2.
dim(Vα1 + Vα2 + . . .+ Vαk) = dimVα1 + dimVα2 + . . .+ dimVαk .
Z równości (32) wynika, że wymiar podprzestrzeni Vα1 +Vα2 + . . .+Vαk ⊂ V jest równywymiarowi całej przestrzeni V , a zatem, korzystając z równości (33), otrzymujemy
V = Vα1 ⊕ Vα2 ⊕ . . .⊕ Vαk .
Na mocy Tw.5.12 z dowolnych baz w podprzestrzeniach Vαi możemy utworzyć bazę wprzestrzeni V , taką, że pierwsze r1 wektorów jest bazą w podprzestrzeni Vα1 , kolejne r2
wektorów jest bazą w podprzestrzeni Vα2 itd., aż do ostatnich rk wektorów tworzącychbazę w podprzestrzeni Vαr . Macierz przekształcenia A względem tej bazy ma postaćdiagonalną (30). •Przykłady:
1. Rozpatrzymy przykład ilustrujący konieczność warunku o rozkładzie wielomianuna czynniki liniowe.
Niech A : R2 → R2 będzie przekształceniem liniowym, którego macierz względempewnej bazy ma postać:[
cosφ − sinφsinφ cosφ
], 0 < φ < π .
Wielomian charakterystyczny tego przekształcenia ma postać
det(A− λI) = (cosφ− λ)(cosφ− λ) + sin2 φ = λ2 − 2λ cosφ+ 1
180
Ponieważ wyróżnik dla tego równania jest liczbą ujemną:
∆ = 4 cos2 φ− 4 = 4(cos2 φ− 1) < 0 dla 0 < φ < π ,
to równanie to nie ma pierwiastków rzeczywistych, więc przekształcenie nie mawartości własnych ani wektorów własnych.
Brak pierwiastków jest równoznaczny z tym, że wielomianu charkterystycznegonie można rozłożyć na czynniki liniowe.
2. Założenie o rozkładzie wielomianu charakterystycznego na czynniki liniowe za-pewnia istnienie wartości własnych jednak nie jest wystarczające do tego, żebyistniała baza złożona z wektorów własnych, a więc baza względem której macierzprzekształcenia jest diagonalna.
Rozważmy przkształcenie liniowe A : R2 → R2, którego macierz względempewnej bazy ma postać: [
1 10 1
].
Wielomian charkterystyczny rozkłada się na czynniki liniowe:
det(A− λI) = (1− λ)2 ,
istnieje więc jedna wartość własna α = 1 z krotnością algebraiczną 2. Równaniena wektory własne, które jej odpowiadają ma postać[
1 10 1
] [v1
v2
]=
[v1
v2
]lub [
0 10 0
] [v1
v2
]=
[00
]⇔[v2
0
]=
[00
]⇔ v2 = 0 .
Rozwiązaniem ogólnym tego równania są wektory postaci[v1
0
]= v1
[10
]Zatem podprzestrzeń własna V1 odpowiadająca wartości własnej 1 jest jednowymi-arowa:
V1 =
{[10
]}.
Nie istnieje więc w przestrzeni R2 baza składająca się z wektorów własnych przek-ształcenia A, a tym samym nie istnieje w R2 baza, w której macierz przekształce-nia A ma postać diagonalną.
Zauważmy, że w omawianym przykładzie krotność geometryczna wartości własnej1 wynosi 1 i jest mniejsza od jej krotności algebraicznej. Ilustruje to znaczeniedrugiego warunku w Tw.9.7.
181
3. Rozważymy teraz przykład, w którym spełnione są oba warunki Tw.9.7. isprowadzenie macierzy przekształcenia do postaci diagonalnej jest możliwe.
Niech A : R3 → R3 będzie przekształceniem liniowym, którego macierz względempewnej bazy {e1, e2, e3} ma postać 0 1 1
1 0 11 1 0
.
Wiemy już, że jeżeli istnieją trzy liniowo niezależne wektory własne to w bazieutworzonej przez te wektory przekształcenie A będzie miało macierz diagonalną.
Zaczynamy od zbadania wielomianu charakterystycznego:
det(A− λI) =
∣∣∣∣∣∣−λ 1 1
1 −λ 11 1 −λ
∣∣∣∣∣∣= −λ3 + 1 + 1− (−λ− λ− λ) = −λ3 + 2 + 3λ .
Zgadujemy, że -1 jest pierwiastkiem tego wielomianu i dzielimy przez odpowiada-jący temu pierwiastkowi czynnik liniowy (λ+ 1):
−λ2 +λ +2
−λ3 +3λ +2 : λ+ 1−λ3 −λ2
λ2 +3λ +2λ2 +λ
2λ +22λ +2
a zatem
det(A− λI) = (λ+ 1)(−λ2 + λ+ 2)
= (λ+ 1)(−λ2 − λ+ 2λ+ 2) = (λ+ 1)2(−λ+ 2)
skąd wynika, że wielomian charakterystyczny rozkłada się na czynniki liniowe.Mamy dwie wartości własne: λ = −1 z krotnością algebraiczną 2, i λ = 2 zkrotnością algebraiczną 1.
Wektory własne odpowiadające wartości własnej λ = −1 spełniają równanie 0 1 11 0 11 1 0
v1
v2
v3
= −
v1
v2
v3
.
182
które wygodnie jest przekształcić do postaci: 1 1 11 1 11 1 1
v1
v2
v3
=
000
,
która, z kolei, jest równoważna układowi równań jednorodnych:
v1 + v2 + v3 = 0v1 + v2 + v3 = 0v1 + v2 + v3 = 0
⇔ v1 + v2 + v3 = 0 ⇔v1 = −s− tv2 = sv3 = t
Zatem każdy wektor własny odpowiadający wartości własnej λ = −1 ma postać:
v =
v1
v2
v3
=
−s− tst
= s
−110
+ t
−101
, s, t ∈ R
Pokazaliśmy, że podprzestrzeń własna V−1 jest dwuwymiarowa, a jej bazę tworząwektory o współrzędnych −1
10
,
−101
względem bazy {e1, e2, e3}, czyli wektory
e′1 = −e1 + e2 , e′2 = −e1 + e3 .
Znajdziemy teraz wektor własny odpowiadający wartości własnej λ = 2. Wektorten spełnia równanie 0 1 1
1 0 11 1 0
v1
v2
v3
= 2
v1
v2
v3
.
które przekształcamy do postaci: −2 1 11 −2 11 1 −2
v1
v2
v3
=
000
,
która, z kolei, jest równoważna układowi równań jednorodnych:
−2v1 + v2 + v3 = 0v1 − 2v2 + v3 = 0v1 + v2 − 2v3 = 0
183
Przy pomocy ostatniego równania możemy wyeliminować zmienną v1 z dwóchpierwszych równań, co prowadzi do układu
3v2 − 3v3 = 0− 3v2 + 3v3 = 0
v1 + v2 − 2v3 = 0⇔ 3v2 = 3v3
v1 = 2v3 − v2 ⇔ v2 = v3
v1 = v3 .
Przyjmując v3 = s jako dowolny parametr rzeczywisty otrzymujemy v1
v2
v3
=
sss
= s
111
.
Oznacza to, że podprzestrzeń własna V2 jest jednowymiarowa, a jej bazę tworzywektor
e′3 = e1 + e2 + e3 .
Na mocy Tw.9.4. wektory e′1, e′2, e′3 są liniowo niezależne i tworzą bazę w przestrzeni
R3.
Macierz przejścia od bazy {e1, e2, e3} do bazy {e′1, e′2, e′3} ma postać:
S =
−1 −1 11 0 10 1 1
.
Obliczamy macierz transponowaną:
ST =
−1 1 0−1 0 1
1 1 1
.
i macierz odwrotną
S−1 =1
3
−1 2 −1−1 −1 2
1 1 1
.
Zatem macierz przekształcenia A w bazie {e′1, e′2, e′3} ma postać:
S−1AS =
−1 0 00 −1 00 0 2
.
184
Twierdzenie 9.8 Jeżeli V jest niezerową, skończeniewymiarową przestrzeniąliniową nad ciałem liczb zespolonych to każde przekształcenie liniowe A : V →V ma co najmniej jedną wartość własną i co najmniej jedną jednowymiarowąpodprzestrzeń niezmienniczą.
Dowód:Wiemy z Tw.9.5., że wartości własne przekształcenia A są pierwiastkami wielomi-
anu charakterystycznegodet(A− λI) .
Jest to wielomian stopnia n o współczynnikach zespolonych. Z podstawowego twierdzeniaalgebry wynika, że wielomian taki ma zawsze n pierwiastków zespolonych, przy czymmoże się zdarzyć, że niektóre z nich powtarzają się k-razy (wtedy k nazywamy krotnoś-cią takiego pierwiastka). Zatem w przypadku ciała liczb zespolonych mamy zawsze conajmniej jeden pierwiastek zespolony α i tym samym co najmniej jeden wektor własny,który mu odpowiada. Podprzestrzeń rozpinana przez ten wektor jest oczywiście jed-nowymiarową podprzestrzenią niezmienniczą przekształcenia A. •
Na koniec podamy jeszcze jedno twierdzenie dotyczące ogólnej postaci przekształceńliniowych w zespolonych przestrzeniach wektorowych.
Twierdzenie 9.9 Niech V będzie n-wymiarową przestrzenią liniową nadciałem liczb zespolonych. Dla każdego przekształcenia liniowego A : V → Vistnieje taka baza przestrzeni V , względem której macierz przekształcenia A mapostać górnotrójkątną, tzn. pod główną przekątną znajdują się same zera:
α1 A12 . . . A1
n
0 α2 . . . A2n
......
.........
...
0 0 . . . αn
W macierzy tej na głównej przekątnej znajdują się wartości własne przeksz-tałcenia A, przy czym każda z nich występuje tyle razy ile wynosi jej alge-braiczna krotność.
Dowód: Ponieważ V jest przestrzenią zespoloną to na mocy Tw.9.8. przekształcenieliniowe A ma co najmniej jedną wartość własną, którą oznaczymy symbolem α1. Niechv1 będzie odpowiadającym jej wektorem własnym. Wektor v1 możemy w dowolnysposób uzupełnić do bazy {v1, w2, . . . , wn} w przestrzeni V . Na mocy Tw.9.1. macierz
185
przekształcenia A ma w tej bazie postać blokową:[α1 B1
0 A1
]Rozważmy teraz przestrzeń ilorazową V/span{v1}. Łatwo sprawdzić, że klasy ab-strakcji {[w2], . . . , [wn]} tworzą bazę w tej przestrzeni. Dzięki temu, że span{v1} jestpodprzestrzenią niezmienniczą, przekształcenie A : V → V indukuje przekształcenieliniowe
A(1) : V/span{v1} 3 [v]→ A(1)[v] = [Av] ∈ V/span{v1} .którego macierzą jest A1. Korzystając ponownie z Tw.9.8. wiemy, że istnieje takiwektor v2 ∈ V oraz liczba α2 taka, że
[v2] 6= Θ i A(1)[v2] = [Av2] = α2[v2]
Ponieważ [v2] 6= Θ to wektory v1 i v2 są liniowo niezależne i ich układ można rozszerzyćdo bazy w przestrzeni V . Ponieważ [Av2] = α2[v2] to Av2 = b1v1 + α2v2 i w tej baziemacierz przekształcenia A ma postać blokową[
C2 B2
0 A2
]gdzie C2 =
[α1 b1
0 α2
]W następnym kroku powtarzamy rozumowanie dla przekształcenia
A(2) : V/span{v1, v2} 3 [v]→ A(2)[v] = [Av] ∈ V/span{v1, v2} .
Powtarzając to rozumowanie skończoną liczbę razy otrzymamy bazę {v1, . . . , vn} przestrzeniV , w której macierz przekształcenia A jest górnotrójkątna. Wyznacznik charakterysty-czny ma więc w tej bazie postać
det(A− λI) = (α1 − λ) · . . . · (αn − λ) ,
z której wynika pozostała część tezy. •
10 Formy liniowe, dwuliniowe i kwadratowe
10.1 Formy liniowe
Definicja 10.1 Niech V będzie przestrzenią linową nad ciałem K. Przestrzeńlinową L(V,K) wszystkich odwzorowań liniowych z przestrzeni V w przestrzeńK nazywamy przestrzenią dualną lub przestrzenią sprzężoną doprzestrzeni V i oznaczamy symbolem V ∗. Elementy przestrzeni V nazywamyformami liniowymi lub funkcjonałami liniowymi na przestrzeni V .
Uwagi:
186
1. Odwzorowanie F : V → K jest formą liniową wtedy i tylko wtedy gdy
∀α, β ∈ K, ∀u, v ∈ V : f(αu+ βv) = αf(u) + βf(v) .
2. Zazwyczaj terminu forma liniowa używamy na określenie elemnentu przestrzenidualnej V ∗ wtedy gdy przestrzeń V jest skończenie wymiarowa, a terminu funkcjonałliniowy – wtedy gdy wymiar V jest nieskończony.
Przykłady:
1. Niech V będzie przestrzenią liniową nad ciałem K, {ei}ni=1 bazą w tej przestrzeni.Dla każdego wektora v ∈ V mamy jednoznaczny rozkład względem wektorówbazy:
v =n∑i=1
viei .
Rzutem na i-ty wektor bazy {ei}ni=1 będziemy nazywać odwzorowanie ei :V → K, które każdemu wektorowi v ∈ V przyporządkowuje jego i-tą współrzędnąwzględem bazy {ei}ni=1:
ei : V 3 v → ei(v) ≡ vi ∈ K .
Sprawdzimy, że tak zdefiniowane odwzorowanie jest formą liniową. Niech
u =n∑i=1
uiei , v =n∑i=1
viei .
Wtedy dla dowolnych skalarów α, β ∈ K:
αu+ βv = αn∑i=1
uiei + βn∑i=1
viei
=n∑i=1
(αui + βvi)ei
i wobec jednoznaczności rozkładu wektora względem bazy
ei(αu+ βv) = αui + βvi = αei(u) + βei(v) .
Uwaga: Rzutowanie na i-ty wektor bazy zależy od wszystkich wektorów tworzą-cych bazę w przestrzeni V .
187
2. Niech F([a, b],R) będzie przestrzenią liniową wszystkich funkcji rzeczywistychokreślonych na odcinku [a, b]. Dla każdego x ∈ [a, b] odwzorowanie δx określonewzorem:
δx : F([a, b],R) 3 ϕ→ δx(ϕ) ≡ ϕ(x) ∈ R
jest funkcjonałem linowym na przestrzeni F([a, b],R). Wynika to bezpośrednioz definicji dodawania i mnożenia przez skalar w przestrzeni F([a, b],R). Dladowolnych funkcji ϕ, ψ ∈ F([a, b],R) i dowolnych liczb rzeczywistych α, β ∈ Rmamy bowiem
δx(αϕ+ βψ) = (αϕ+ βψ)(x) = αϕ(x) + βψ(x) = αδx(ϕ) + βδx(ψ) .
Twierdzenie 10.1 Niech V będzie przestrzenią liniową nad ciałem K, a{ei}ni=1 – bazą w tej przestrzeni. Wtedy rzuty ei na wektory bazy {ei}ni=1 tworząbazę {ei}ni=1 przestrzeni dualnej V ∗.
Dowód:Pokażemy najpierw, że układ form {ei}ni=1 rozpina całą przestrzeń V ∗. Dla dowolnejformy liniowej f ∈ V ∗ i dowolnego wektora v ∈ V mamy
f(v) = f
(n∑i=1
viei
)=
n∑i=1
vif(ei) =n∑i=1
f(ei)ei(v) ,
a zatem
f =n∑i=1
f(ei)ei .
Dowolna forma liniowa na przestrzeni V jest więc kombinacją liniową elementów układu{ei}ni=1 i
V ∗ = span{e1, . . . , en} .
Pokażemy, że układ {ei}ni=1 jest liniowo niezależny. Niech
α1e1 + α2e
2 + . . .+ αnen = Θ .
Wtedy dla każdego wektora v ∈ V
α1e1(v) + α2e
2(v) + . . .+ αnen(v) = 0 .
Podstawiając v = ei, otrzymujemy:
α1e1(ei) + α2e
2(ei) + . . .+ αnen(ei) = αie
i(ei) = αi = 0 .
188
dla każdego i, a więc warunek występujący w definicji układu liniowo niezależnego jestspełniony. •
Uwaga: W dowodzie Tw.10.1. skorzystaliśmy z następującej własności rzutów ei nawektory bazy {ei}ni=1:
ek(ej) = δij . (34)
Przypomnijmy, że każde przekształcenie liniowe jest jednoznacznie wyznaczone przezswoje wartości na elementach bazy przestrzeni na której jest określone. Wynika stąd,że relacje (34) definiują jednoznacznie rzuty ei na wektory bazy {ei}ni=1 przestrzeni V .
Powyższa Uwaga oraz Tw.10.1. uzasadniają następującą definicję
Definicja 10.2 Niech V będzie n-wymiarową przestrzenią liniową nad ciałemK, a {ei}ni=1 – bazą w tej przestrzeni. Bazę {ei}ni=1 przestrzeni V ∗ zadanąrelacjami
ei(ej) = δij
nazywamy bazą dualną do bazy {ei}ni=1.
Z Tw.10.1. i z Wn.8.2 otrzymujemy
Wniosek 10.1 Niech V będzie skończenie-wymiarową przestrzenią liniowąnad ciałem K. Wtedy przestrzenie V i V ∗ są izomorficzne.
Twierdzenie 10.2 Niech {ei}ni=1, {e′j}nj=1 będą bazami w przestrzeni liniowejV nad ciałem K, a S = [Sij] macierzą przejścia od bazy {ei}ni=1 do bazy {e′j}nj=1.Jeżeli {fi}ni=1 są współrzędnymi formy f ∈ V ∗ względem bazy {ei}ni=1 dualnejdo bazy {ei}ni=1, a {f ′j}nj=1 współrzędnymi tej formy względem bazy {e′j}nj=1
dualnej do bazy {e′j}nj=1:
f =n∑i=1
fi ei =
n∑i=1
f ′i e′i
to
f ′i =n∑i=1
Sji fj ,
f ′1f ′2...f ′n
= ST
f1
f2...fn
(35)
189
Dowód: Z dowodu Twierdzenia 10.1. wynika, że współczynniki rozkładu formy f ∈V ∗ względem baz {ei}ni=1, {e′j}nj=1
f =n∑i=1
fiei =
n∑j=1
f ′je′j
są wartościami tej formy na odpowiednich elementach baz dualnych:
fi = f(ei) , f ′j = f(e′j) .
Z definicji macierzy przejścia S = [Sij] od bazy {ei}ni=1 do bazy {e′j}nj=1 mamy
e′j =n∑i=1
Sijei .
Podstawiając do równania na f ′j otrzymujemy
f ′j = f
(n∑i=1
Sijei
)=
n∑i=1
Sijf(ei) =n∑i=1
Sijfi
co w zapisie macierzowym daje równanie (35). •
Uwaga: Prawa transformacyjne dla współrzędnych wektorów i współrzędnych form(35) przy przejściu od bazy do bazy mają w zapisie macierzowym postać
v′1
v′2
...v′n
= S−1
v1
v2
...vn
f ′1f ′2...f ′n
= ST
f1
f2...fn
W zwykłym zapisie prawa te opisane sa równaniami
v′i =n∑j=1
(S−1
)ijvj , f ′i =
n∑j=1
S ji fj .
Zarówno współrzędne wektora jak i formy tworzą n-ki uporządkowane elementów ciałaK czyli elementy przestrzeni Kn. Ich własności transformacyjne przy zmianie bazy sąjednak zupełnie różne. Zmianę współrzędnych charaktrystyczną dla wektorów przyjęłosię nazywać zmianą kontrawariantną lub przeciwzmienniczą, a zminę współrzęd-nych charakterystyczną dla form - zmianą kowariantną lub współzmienniczą. Wcelu łatwego rozróżnienia własności transformacyjnych korzystamy z konwencji za-pisu, zgodnie z którą współrzędne z ideksem górnym transformują się kontrawariant-nie (jak współrzędne wektora), a współrzędne z indeksem dolnym – kowariantnie (jakwspółrzędne formy).
190
10.2 Formy dwuliniowe
Definicja 10.3 Niech V będzie przestrzenią liniową nad ciałem K. Formądwuliniową, określoną na przestrzeni V , nazywamy funkcję F : V × V → Kliniową w pierwszym i w drugim argumencie z osobna, tzn. spełniającą warunki:
i. F (αu+ βv, w) = αF (u,w) + βF (v, w),
ii. F (u, αv + βw) = αF (u, v) + βF (u,w),
dla dowolnych α, β ∈ K, u, v, w ∈ V .Formę dwuliniową nazywamy symetryczną jeśli
F (u, v) = F (v, u)
dla wszystkich u, v ∈ V .
Przykłady:
1. Odwzorowanie
F : Rn × Rn 3 (x, y)→ F (x, y) ≡n∑i=1
xiyi ∈ R
jest symetryczną formą dwuliniową na Rn.
2. Niech C([a, b],C) będzie przestrzenią liniową ciągłych funkcji zespolonych naprzedziale [a, b]. Odwzorowanie
F : C([a, b],C) × C([a, b],C) 3 (ϕ, ψ)→ F (ϕ, ψ) ∈ C
F (ϕ, ψ) =
b∫a
ϕ(t)ψ(t)dt
jest symetryczną formą dwuliniową na C([a, b],C).
Uwaga:Niezerowa forma dwuliniowa na przestrzeni V nie jest formą liniową na przestrzeni
V×V . Korzystając z jednorodności w pierwszym i w drugim argumencie mamy bowiem
F (αu, αv) = α2F (u, v) .
191
Definicja 10.4 Niech V będzie przestrzenią liniową nad ciałem K, a {ei}ni=1
bazą w tej przestrzeni. Macierzą formy dwuliniowej F względem bazy{ei}ni=1 nazywamy macierz
F = [Fij] , Fij ≡ F (ei, ej)
gdzie pierwszy index i = 1, . . . , n jest indeksem wiersza, a drugi index j =1, . . . , n – indeksem kolumny.
Uwagi:
1. Macierz formy biliniowej wyznacza ją jednoznacznie:
F (v, w) =n∑
i,j=1
Fij ei(v)ej(w) .
2. Do tej pory używaliśmy konwencji, zgodnie z którą elementy macierzy miałyjeden indeks górny i jeden dolny, przy czym indeks górny był indeksem wier-sza, a dolny – indeksem kolumny. W Def.10.4. rozszerzamy tę konwencję namacierze o dwóch indeksach dolnych, w ten sposób, że pierwszy indeks jest za-wsze indeksem wiersza, a drugi – indeksem kolumny. Rozszerzenie konwencjizapisu macierzowego jest związane z własnościami transformacyjnymi reprezen-tacji macierzowych takich obiektów jak wektory, formy liniowe i dwuliniowe.
Twierdzenie 10.3 Niech {ei}ni=1, {e′j}nj=1 będą bazami w przestrzeni liniowejV nad ciałem K, a S = [Sij] macierzą przejścia od bazy {ei}ni=1 do bazy {e′j}nj=1.Jeżeli F = [Fij] jest macierzą formy dwuliniowej F : V × V → K względembazy {ei}ni=1, a F ′ = [F ′ij] macierzą tej formy względem bazy {e′j}nj=1
Fij = F (ei, ej) , F ′ij = F (e′i, e′j)
to pomiędzy nimi zachodzi związek
F ′ij =n∑k=1
n∑l=1
Ski SljFkl , (36)
który w zapisie macierzowym ma postać
F ′ = STFS .
192
Dowód: Z definicji macierzy przejścia od bazy {ei}ni=1 do bazy {e′j}nj=1 mamy
e′i =n∑j=1
Sji ej .
Podstawiając do wzoru na elementy macierzowe macierzy formy F w bazie {e′j}nj=1ikorzystając z liniowości formy F w każdym z argumentów otrzymujemy:
F ′ij = F (e′i, e′j) = F
(n∑k=1
Ski ek,
n∑l=1
Sljel
)
=n∑k=1
n∑l=1
Ski SljF (ek, el) =
n∑k=1
n∑l=1
Ski SljFkl.
•Z Wniosku 8.7. wynika, że następująca definicja jest poprawna:
Definicja 10.5 Rzędem formy dwuliniowej na skończenie-wymiarowejprzestrzeni liniowej V nazywamy rząd jej macierzy względem dowolnej bazytej przestrzeni.
10.3 Formy kwadratowe
Definicja 10.6 Niech V będzie przestrzenią liniową nad ciałem K. Formąkwadratową określoną na przestrzeni V nazywamy funkcję
f : V → K
która ma następujące własności:
i. dla dowolnych α ∈ K, v ∈ V :
f(αv) = α2f(v) ;
ii. wyrażenie
B(v, w) ≡ 1
2(f(v + w)− f(v)− f(w)) (37)
jest formą dwuliniową na V .
Formę B nazywamy formą biegunową formy f .
Uwagi:
193
1. Forma biegunowa jest symetryczna: B(v, w) = B(w, v).
2. Dla każdej formy dwuliniowej F : V × V → K funkcja F : V → K określonawzorem
f(v) = F (v, v)
jest formą kwadratową. Rzeczywiście, dla dowolnych α ∈ K, v ∈ V :
f(αv) = F (αv, αv) = α2F (v, v) = α2f(v) .
Funkcja:
B(v, w) =1
2(f(v + w)− f(v)− f(w))
=1
2(F (v + w, v + w)− F (v, v)− F (w,w))
=1
2(F (v, w) + F (w, v)) ,
jest symetryczna więc wystarczy sprawdzić liniowość w pierwszym argumencie:
B(αu+ βv, w) =1
2(F (αu+ βv, w) + F (w, αu+ βv))
=1
2(αF (u,w) + βF (w, u) + αF (v, w) + βF (w, v))
= α1
2(F (u,w) + F (w, u)) + β
1
2(F (v, w) + F (w, v))
= αB(u,w) + βB(v, w) .
Definicja 10.7 Macierzą formy kwadratowej nazywamy macierz jejformy biegunowej. Rzędem formy kwadratowej nazywamy rząd jejmacierzy w dowolnej bazie.
Uwagi:
1. Niech {ei}ni=1 będzie bazą w przestrzeni liniowej V nad ciałem K. Niech [Bij] =[B(ei, ej)] będzie macierzą formy biegunowej B formy kwadratowej f . Wtedy,dla dowolnego wektora
v =n∑i=1
viei
mamy
f(v) = B(v, v) =n∑i=1
n∑j=1
Bijvivj ,
194
Ponieważ macierz [Bij] jest symetryczna to
f(v) =n∑i=1
Bii(vi)2 + 2
∑16j<k6n
Bjkvjvk .
Powyższe wyrażenie możemy traktować jako ogólną postać formy kwadratowej.
2. Ponieważ forma biegunowa formy kwadratowej jest formą dwuliniową to macierz[Bij] formy kwadratowej transformuje się przy zmianie bazy zgodnie z prawem:
B′ = STBS
gdzie S jest macierzą przejścia od bazy {ei}ni=1 do bazy {e′j}nj=1 :
e′i =n∑j=1
Sji ej .
Przykład:Funkcja
f(v) ≡n∑i=1
(vi)2
jest formą kwadratową na przestrzeni liniowej Kn. Rzeczywiście, pierwszy warunekwynika bezpośrednio z definicji f , a drugi z postaci formy biegunowej:
B(v, w) =1
2(f(v + w)− f(v)− f(w))
=1
2
n∑i=1
(vi + wi)2 − 1
2
n∑i=1
(vi)2 − 1
2
n∑i=1
(wi)2 =n∑i=1
viwi
Macierzą formy kwadratowej f w bazie standardowej przestrzeni Kn jest macierz jed-nostkowa:
[Bij] =
1 0 . . . 00 1 . . . 0...
............
...0 0 . . . 1
195
Definicja 10.8 Niech f : V → K będzie formą kwadratową na przestrzeniliniowej V nad ciałem K. Mówimy, że formę kwadratową f można sprowadzićdo postaci kanonicznej jeżeli istnieje baza {e′i}ni=1 przestrzeni V taka, że
f(v) =n∑i=1
Bii(vi)2 ,
dla każdego wektora v =n∑i=1
viei ∈ V .
Uwagi:
1. Wprost z definicji, wynika, że forma kwadratowa jest sprowadzona do postacikanonicznej w bazie {ei}ni=1 jeśli jej macierz w tej bazie jest diagonalna:
[Bij] =
B11 0 . . . 00 B22 . . . 0...
............
...0 0 . . . Bnn
2. Załóżmy, że formę kwadratową f można sprowadzić do postaci kanonicznej, tzn.
istnieje baza, w której macierz [Bij] formy kwadratowej jest diagonalna. Ponieważrząd formy kwadratowej jest niezmiennikiem ze względu na zmianę bazy to jeston równy liczbie niezerowych elementów diagonalnych macierzy [Bij]. Jeżeli r =rankf , to przez odpowiednie przenumerowanie elementów bazy macierz formy fmożna zapisać w postaci:
[Bij] =
B11 . . . 0 0 . . . 0...
.........
......
.........
...0 . . . Brr 0 . . . 00 . . . 0 0 . . . 0...
.........
......
.........
...0 . . . 0 0 . . . 0
Twierdzenie 10.4 Niech V będzie n-wymiarową przestrzenią liniową nadciałem K. Każdą formę kwadratową f : V → K można sprowadzić do postacikanonicznej.
Dowód:
196
Dowód będzie polegał na podaniu algorytm pozwalającego sprowadzić dowolnąformę kwadratową do postaci kanonicznej. Algorytm ten został podany przez La-grange’a i nosi nazwę metody Lagrange’a sprowadzania formy kwadratowej do postacikanonicznej.
Niech {ei}ni=1 będzie bazą przestrzeni V , w której forma kwadratowa f ma postać
f(v) =n∑i=1
Bii(vi)2 + 2
∑16j<k6n
Bjkvjvk .
Możliwe są dwa przypadki:
1. Bii = 0 dla każdego i = 1, . . . , n;
2. istnieje taki wskaźnik i, że Bii 6= 0.
Pokażemy, że przez odpowiedni wybór bazy, pierwszy przypadek można zawsze sprowadzićdo przypadku drugiego.
Jeśli forma f jest zerowa to ma postać kanoniczną w każdej bazie i twierdzenie jestwtedy udowodnione. Załóżmy więc, że jest niezerowa, tzn. istnieje para wskaźników(r, s) taka, że Brs 6= 0. Wprowadzimy nowy układ wektorów:
e′i = ei gdy i 6= r, i 6= se′r = er + ese′s = er − es
.
Układ ten tworzy bazę przestrzeni V wtedy i tylko wtedy gdy macierz przejścia S,zdefiniowana relacjami
e′i =n∑j=1
Sji ej
jest nieosobliwa. W rozważanym przypadku:
[Sij] =
1 . . . 0 0 . . . 0 0 . . . 0...
.........
......
.........
......
.........
...0 . . . 1 0 . . . 0 1 . . . 00 . . . 0 1 . . . 0 0 . . . 0...
.........
......
.........
......
.........
...0 . . . 0 0 . . . 1 0 . . . 00 . . . 1 0 . . . 0 −1 . . . 0...
.........
......
.........
......
.........
...0 . . . 0 0 . . . 0 0 . . . 1
197
Korzystając z rozwinięcia Laplace’a łatwo sprawdzić, że detS = −2, a zatem układwektorów {e′i}ni=1 jest bazą w przestrzeni V . Obliczając macierz formy kwadratowej fw tej bazie otrzymujemy
B′rr = B(e′r, e′r) = B(er + es, er + es) = Brr +Brs +Bsr +Bss = 2Brs 6= 0 .
A zatem w nowej bazie przynajmniej jeden element diagonalny jest różny od zera.Przejdziemy do analizy drugiego przypadku. Bez ograniczenia ogólności rozważań
możemy założyć, że B11 6= 0. Wydzielając w ogólnym wyrażeniu na formę f wyrazyzależące od współrzędnej v1, można f zapisać w postaci:
f(v) = B11(v1)2 + 2v1
n∑i=2
B1ivi + f1(v′)
=1
B11
((B11v
1)2 + 2B11v1
n∑i=2
B1ivi +B11f1(v′)
)=
1
B11
(B11v
1 +B12v2 + . . .+B1nv
n)2
+ f1(v′) (38)
gdzie v′ =n∑i=2
viei i funkcje f1, f1 nie zależą od współrzędnej v1.
Rozważmy liniową zamianę zmiennych:
v′1 = B11v1 +B12v
2 + . . .+B1nvn
v′2 = v2
...v′n = vn
. (39)
W notacji macierzowej v′1
v′2
...v′n
= A
v1
v2
...vn
(40)
gdzie
A =
B11 B12 B13 . . . B1n
0 1 0 . . . 00 0 1 . . . 0...
......
.........
...0 0 0 . . . 1
.
198
Ponieważ detA = B11 6= 0, macierz A jest nieosobliwa i istnieje macierz do niejodwrotna A−1. Z równania (40) i z prawa transformacyjnego dla współrzędnych wek-torów przy zmianie bazy (Tw.8.11) wynika, że zamianę zmiennych (39) możemy po-traktować jako zmianę współrzędnych wektora v przy przejściu od bazy {ei}ni=1 dobazy
e′i =n∑j=1
(A−1
)jiej .
Z równania (38) wynika, że w bazie {e′i}ni=1 forma kwadratowa f ma postać:
f(v) =1
B11
(v′1)2 + f1(v′)
gdzie v′ =n∑i=2
v′ie′i =n∑i=2
viei. Oznaczmy przez V1 = span{e′2, . . . , e′n}. Wtedy funkcja
f1 jest obcięciem formy kwadratowej do podprzestrzeni V1 jest więc formą kwadratowąna przestrzeni (n−1)-wymiarowej. Powtarzając rozumowanie dla formy f1 otrzymamyformę f2 na podprzestrzeni (n−2)-wymiarowej itd. Ostatecznie po n krokach zapiszemyformę f w postaci kanonicznej. •Przykład:
Korzystając z metody Lagrange’a sprowadzimy do postaci kanonicznej formę określonąw bazie {e1, e2, e3} przestrzeni trójwymiarowej wzorem
f(v) = 2v1v2 + 4v1v3 − (v2)2 − 8(v3)2 .
Macierz formy f ma w tej bazie postać
B =
0 1 21 −1 02 0 −8
.
Zgodnie z algorytmem szukamy niezerowego elementu diagonalnego. Wybierzmy ele-ment B33 = −8. Przepisujemy formę w postaci
f(v) = −8(v3)2 + 2v3(2v1) + [−(v2)2 + 2v1v2]
= −1
8
{(−8v3)2 + 2(−8v3)(2v1) + (2v1)2
}+
1
2(v1)2 − (v2)2 + 2v1v2
= −1
8
(−8v3 + 2v1
)2+
1
2(v1)2 − (v2)2 + 2v1v2
Możemy teraz postąpić tak jak w dowodzie Twierdzenia, tzn. znaleźć odpowiedniątransformację wektorów bazy, ale wygodniej jest wcześniej przeprowadzić podobnerachunki dla formy f1, która w naszym przypadku ma postać:
f1(v′) =1
2(v1)2 − (v2)2 + 2v1v2 .
199
Ponieważ oba elementy diagonalne są różne od zera możemy wybrać dowolny z nich.Jednak nieco łatwiejszy rachunkowo jest drugi element
f1(v′) = −[(v2)2 − 2v1v2 + (v1)2
]+ (v1)2 +
1
2(v1)2
= −(v2 − v1
)2+
3
2(v1)2
Ostatecznie formę f możemy zapisać w postaci
f(v) = −1
8
(−8v3 + 2v1
)2 −(v2 − v1
)2+
3
2(v1)2 (41)
skąd wynika postać odpowiedniej zamiany zmiennych v′1
v′2
v′3
= A
v1
v2
v3
, A =
1 0 0−1 1 0
2 0 −8
Łatwo sprawdzić, że detA = −8 i że macierz odwrotna ma postać:
S = A−1 = −1
8
−8 0 0−8 −8 0−2 0 1
=
1 0 01 1 014
0 −18
Zamianie zmiennych opisanej macierząA odpowiada więc zmiana bazy opisana macierząprzejścia S:
e′1 = e1 + e2 + 14e3
e′2 = e2
e′3 = −18e3
Postać kanoniczną formy kwadratowej f w nowej bazie, mozemy odczytać bezpośrednioz równania (41) :
f(v) =3
2(v′1)2 − (v′2)2 − 1
8(v′3)2
lub wyliczyć przy pomocy prawa transformacyjnego dla form dwuliniowych:
B′ = STBS =
32
0 00 −1 00 0 −1
8
Jako prosty wniosek z Tw.10.4. otrzymujemy
Wniosek 10.2 Niech V -będzie n-wymiarową przestrzenią liniową nad ciałemK. Dla każdej symetrycznej formy dwuliniowej F : V × V → K istnieje takabaza w przestrzeni V , w której macierz formy F jest diagonalna.
200
Opiszemy teraz inny sposób sprowadzania formy kwadratowej do postaci kanon-icznej, zwany metodą Jacobiego.
Twierdzenie 10.5 Niech V -będzie n-wymiarową przestrzenią liniową nadciałem K, a f : V → K formą kwadratową na V . Niech B = [Bij] będziemacierzą formy biegunowej formy f w bazie {ei}ni=1:
f(v) =k∑
i,j=1
Bijvivk .
Jeśli wszystkie minory główne macierzy [Bij]
∆k =
∣∣∣∣∣∣∣∣∣B11 B12 . . . B1k
B21 B22 . . . B2k...
............
...Bk1 Bk2 . . . Bkk
∣∣∣∣∣∣∣∣∣ , k = 1, 2, . . . , n,
są różne od zera, to istnieje baza {e′i}ni=1 przestrzeni V , w której forma kwadra-towa ma postać
f(v) =∆0
∆1
(v′1)2
+∆1
∆2
(v′2)2
+ . . .+∆n−1
∆n
(v′n)2
gdzie ∆0 = 1 i v =n∑i=1
v′ie′i.
Dowód: Szukamy bazy {e′i}ni=1 w postaci
e′1 = S11e1 ,
e′2 = S12e1 + S2
2e2 ,...
e′n = S1ne1 + S2
ne2 + . . .+ Snnen .
(42)
Niech B będzie formą biegunową formy kwadratowej f . Żeby sprowadzić formę fdo postaci kanonicznej wystarczy tak wybrać współczynniki Sji , aby dla każdego j,1 < j 6 n spełnione były równości
B(e′i, e′j) = B′ij = 0 dla i = 1, 2, . . . , j − 1. (43)
Istotnie dzięki symetrii formy biegunowej różne od zera będą wtedy tylko elementy di-agonalne. Poszukiwanie rozwiązań układu (43) nie jest wygodne ponieważ lewe strony
201
równań są biliniowe w zmiennych Sij które chcemy wyznaczyć. Zauważmy jednak, że
B(e′i, e′j) = B(S1
i e1 + S2i e2 + . . .+ Siiei, e
′j)
= S1iB(e1, e
′j) + S2
iB(e2, e′j) + . . .+ SiiB(ei, e
′j)
a więc każde rozwiązanie prostszego układu
B(ei, e′j) = 0 dla i = 1, 2, . . . , j − 1, (44)
będzie jednocześnie rozwiązaniem układu (43). Przy ustalonym j układ (44) jest ukła-dem j − 1 równań liniowych na j niewiadomych S1
j , S2j , . . . , S
jj . Pokażemy, że układ
ten uzupełniony dodatkowym równaniem
B(ej, e′j) = 1 (45)
ma rozwiązanie dla każdego j = 1, . . . , n. Podstawiając
e′j =∑i=1
Sijei
do równań (44) i (45) otrzymujemy układ
B11S1j + B12S
2j + . . . + B1jS
jj = 0
...Bj−1,1S
1j + Bj−1,2S
2j + . . . + Bj−1,jS
jj = 0
Bj1S1j + Bj2S
2j + . . . + BjjS
jj = 1
(46)
Dla każdego 1 6 j 6 n, wyznacznik tego układu jest równy minorowi głównemu ∆j
macierzy B i na mocy założenia jest różny od zera. Zatem, dla każdego 1 6 j 6 nrozwiązania istnieją i wyrażają się wzorami Cramera.
Pozostaje do sprawdzenia czy wektory zadane układami równań (42) są liniowoniezależne tzn czy macierz przejścia S, zadana współczynnikami Sji , i 6 j jest nieosobliwa.Ponieważ jest to macierz górnotrójkątna, to jej wyznacznik jest iloczynem elementówdiagonalnych.
j-ty współczynnik diagonalny możemy obliczyć korzystając ze wzorów Cramera dlaukładu (46):
Sjj =1
∆j
∣∣∣∣∣∣∣∣∣∣∣
B11 B12 . . . B1,j−1 0B21 B22 . . . B2,j−1 0
......
.........
......
Bj−1,1 Bj−1,2 . . . Bj−1,j−1 0Bj1 Bk1 . . . Bj,j−1 1
∣∣∣∣∣∣∣∣∣∣∣=
∆j−1
∆j
202
Otrzymujemy
detS = S11S
22 . . . S
nn =
∆0
∆1
∆1
∆2
. . .∆n−1
∆n
=1
∆n
6= 0
zatem macierz S jest nieosobliwa i układ wektorów {e′i}ni=1 zadany równaniami (42)tworzy bazę w V .
Macierz formy f w bazie {e′i}ni=1 jest diagonalna. Korzystając z równań (44,45)otrzymujemy
B′jj = B(e′j, e′j) = B(S1
ke1 + S2ke2 + . . .+ Sjj ei, e
′j)
= SjjB(ej, e′j) = Sjj =
∆j−1
∆j
.
Zatem w bazie otrzymanej metodą Jacobiego forma kwadratowa f ma postać
f(v) =n∑
i,j=1
v′iv′jB(e′i, e′j) =
∆0
∆1
(v′1)2
+∆1
∆2
(v′2)2
+ . . .+∆n−1
∆n
(v′n)2
gdzie v =n∑i=1
v′ie′i. •
10.4 Formy kwadratowe na przestrzeniach rzeczywistych
W tym podrozdziale ograniczymy się do przestrzeni liniowych nad ciałem liczb rzeczy-wistych R.
Wniosek 10.3 Niech V -będzie n-wymiarową przestrzenią liniową nad ciałemliczb rzeczywistych R. Dla każdej formy kwadratowej f : V × V → R istniejetaka baza {ei}ni=1 w przestrzeni V , w której forma f ma postać
f(v) =k∑i=1
(vi)2 −
r∑i=k+1
(vi)2
,
gdzie r = rankf .
Dowód:Niech f będzie formą kwadratową określoną na przestrzeni rzeczywistej V . Zgodnie
z Tw.10.4. istnieje baza {e′i}ni=1, w której forma ta ma postać kanoniczną
f(v) =r∑i=1
B′ii(v′i)2
,
203
gdzie v =n∑i=1
v′ie′i, B′ii ∈ R, B′ii 6= 0 dla i = 1, . . . , r oraz r = rankf . Zawsze można tak
zamienić kolejność wektorów bazy {e′i}ni=1, żeby pierwsze k współczynników B′ii byłododatnich, a kolejne r − k - ujemnych. Przechodząc do nowej bazy
ei = 1√|B′ii|
e′i dla i = 1, . . . , r ,
ei = e′i dla i = r + 1, . . . , n .
otrzymujemy postać kanoniczną formy f , o której mowa we wniosku:
f(v) =k∑i=1
(v′i)2 −
r∑i=k+1
(v′i)2
.
•
Definicja 10.9 Niech f : V × V → R będzie formą kwadratową określoną nan-wymiarowej przestrzeni liniowej V nad ciałem liczb rzeczywistych R. Postać
f(v) =k∑i=1
(vi)2 −
rankf∑i=k+1
(vi)2
,
formy kwadratowej f nazywamy jej postacią normalną. Liczbę k wyrazówdodatnich formy normalnej nazywamy indeksem dodatnim formy kwadra-towej f , a liczbę wyrazów ujemnych indeksem ujemnym tej formy. Różnicęindeksu dodatniego i ujemnego nazywamy sygnaturą formy kwadratowej.
Twierdzenie 10.6 prawo bezwładności form kwadratowych Dla każdejformy kwadratowej określonej na n-wymiarowej rzeczywistej przestrzeni lin-iowej indeksy dodatni i ujemny są niezmiennikami tej formy, tzn. nie zależąod wyboru bazy, w której forma ta ma postać normalną.
Dowód: Załóżmy, że forma kwadratowa f ma postać normalną
f(v) =k∑i=1
(vi)2 −
r∑i=k+1
(vi)2
,
w bazie {ei}ni=1 i postać normalną
f(v) =l∑
i=1
(v′i)2 −
r∑i=l+1
(v′i)2
,
204
w bazie {e′i}ni=1, gdzie r = rankf oraz
v =n∑i=1
viei =n∑i=1
v′ie′i .
Dla każdego wektora v ∈ V otrzymujemy równość
k∑i=1
(vi)2 −
r∑i=k+1
(vi)2
=l∑
i=1
(v′i)2 −
r∑i=l+1
(v′i)2
. (47)
Musimy pokazać, że k = l. Załóżmy, że tak nie jest, tzn. k 6= l. Bez ograniczeniaogólności rozważań można założyć, że k < l. Niech S = [Sij] będzie macierzą przejściaod bazy {ei}ni=1 do bazy {e′i}ni=1:
e′j =n∑i=1
Sijei .
Wtedy współrzędne wektora v spełniają relację
vi =n∑j=1
Sijv′j .
Podstawiając ją do równania (47) otrzymujemy równanie, które jest spełnione dladowolnych v′i, i = 1, . . . , n. Rozważmy układ współrzędnych v′1, . . . , v′l, który spełniaukład równań
v1 = S11v′1 + S1
2v′2 + . . . + S1
l v′l = 0 ,
v2 = S21v′1 + S2
2v′2 + . . . + S2
l v′l = 0 ,
...vk = Sk1v
′1 + Sk2v′1 + . . . + Skl v
′l = 0 .
Ponieważ k < l układ posiada niezerowe rozwiązania. Niech v′1, . . . , v′l będzie jednymz nich. Uzupełniamy je do układu współrzędnych wektora w V przyjmując
v′l+1 = . . . = v′r = v′r+1 = . . . = v′n = 0 .
Wstawiając tak otrzymane współrzędne wektora do równania (47) dostajemy
−r∑
i=k+1
(vi)2
=l∑
i=1
(v′i)2
.
Otrzymaliśmy sprzeczność bowiem prawa strona tego równania jest dodatnia podczasgdy lewa jest zerem lub liczbą ujemną. Zatem k = l. •
205
Definicja 10.10 Formę kwadratową f , określoną na n-wymiarowej rzeczywis-tej przestrzeni liniowej V nad ciałem liczb rzeczywistych, nazywamy dodatniookreśloną, jeśli f(v) > 0 dla każdego wektora v ∈ V, v 6= Θ.
Uwagi:
1. Dla każdej formy kwadratowej zachodzi f(Θ) = 0. mamy bowiem,
f(Θ) = f(0v) = 02f(v) = 0 .
2. Formę kwadratową nazywamy ujemnie określoną jeśli f(v) < 0 dla wszystkichwektorów niezerowych. Każdą formę ujemnie określoną otrzymujemy z formydodatnio określonej przez zmianę znaku, dlatego wystarczy rozważać tylko formydodatnio określone.
Przykłady:
1. Forma kwadratowa f określona na przestrzeni Rn wzorem
f(x) =n∑i=1
(vi)2
jest dodatnio określona.
2. Forma kwadratowag(v) =
(v1)2 −
(v2)2
na R2 nie jest dodatnio określona, bo g(v) = 0 dla wektorów postaci v = (a, a) ∈R2.
Na podstawie Wn.10.3 oraz prawa bezwładności (Tw.10.6) otrzymujemy
Wniosek 10.4 Forma kwadratowa f , określona na n-wymiarowej, rzeczywis-tej przestrzeni liniowej V nad ciałem liczb rzeczywistych jest dodatnio określonawtedy i tylko wtedy gdy liczba współczynników dodatnich (indeks dodatni formyf) jest równa n.
206
Twierdzenie 10.7 Jeżeli forma kwadratowa określona na n-wymiarowej,rzeczywistej przestrzeni liniowej jest dodatnio określona to
i. elementy diagonalne macierzy tej formy w dowolnej bazie spełniająnierówności Bii > 0 , i = 1, . . . , n ;
ii. wyznacznik macierzy tej formy jest dodatni;
iii. rząd formy f jest równy n.
Twierdzenie 10.8 (kryterium Sylvestera) Na to, żeby forma kwadratowaokreślona na n-wymiarowej, rzeczywistej przestrzeni liniowej była dodatniookreślona potrzeba i wystarcza, żeby minory główne ∆k jej macierzy w dowolnejbazie były dodatnie dla k = 1, 2, . . . , n.
Dowód:konieczność
Załóżmy, że forma f jest dodatnio określona. Niech {ei}ni=1 będzie bazą w przestrzeniV . Rozważmy podprzestrzenie
Vk = span{e1, . . . , ek} , k = 1, . . . , n .
Obcięcie fk = f|Vk formy f do podprzestrzeni Vk jest formą kwadratową na przestrzeniVk, która jest także dodatnio określona, a zatem na mocy Tw.10.7.ii. wyznacznikmacierzy tej formy jest dodatni. Ale wyznacznik ten jest minorem głównym ∆k
macierzy formy f na V . Zatem ∆k > 0. Ponieważ rozumowanie to jest słusznedla dowolnego k = 1, . . . , n, konieczność warunku została udowodniona.dostateczność
Przypuśćmy, że ∆k > 0 dla k = 1, . . . , n. Sprowadzając formę do postaci kanon-icznej metodą Jacobiego otrzymujemy
f(v) =∆0
∆1
(v′1)2
+∆1
∆2
(v′2)2
+ . . .+∆n−1
∆n
(v′n)2
gdzie v =n∑i=1
v′ie′i. Jeśli v 6= Θ to co najmniej jedna ze współrzędnych v′i 6= 0 i wobec
tego f(v) > 0. •
207
11 Przestrzenie liniowe z iloczynem skalarnym
11.1 Przestrzenie euklidesowe
Definicja 11.1 Niech V będzie przestrzenią liniową nad ciałem liczb rzeczy-wistych R. Iloczynem skalarnym na przestrzeni V nazywamy symetrycznąformę dwuliniową na V
〈 . , . 〉 : V × V 3 (u, v)→ 〈u , v 〉 ∈ R
taką, że odpowiadająca jej forma kwadratowa jest dodatnio określona, tzn.następujące warunki są spełnione:
i. 〈αu+βv , w 〉 = α〈u , w 〉+β〈 v , w 〉 dla dowolnych wektorów u, v, w ∈ Vi dowolnych skalarów α, β ∈ R;
ii. 〈u , v 〉 = 〈 v , u 〉 dla dowolnych wektorów u, v ∈ V ;
iii. 〈 v , v 〉 > 0 dla każdego wektora v ∈ V, v 6= Θ.
Uwaga: Jeżeli przestrzeń rzeczywista V ma wymiar skończony to iloczyn skalarny naV jest często nazywany metryką euklidesową na przestrzeni liniowej V .Przykłady:
1. Funkcja
〈 . , . 〉 : Rn × Rn 3 (u, v)→ 〈u , v 〉 ≡n∑i=1
uivi ∈ R
jest iloczynem skalarnym na przestrzeni Rn. Iloczyn ten nazywamy standard-owym iloczynem skalarnym (standardową metryką euklidesową) w Rn.Jeżeli {ei}ni=1 jest bazą standardową w przestrzeni Rn to
〈 ei , ej 〉 = δij .
2. Niech F : R3 × R3 → R będzie formą dwuliniową, której macierz w bazie stan-dardowej {e1, e2, e3} ma postać
[Fij] =
2 1 01 2 10 1 1
.
Ponieważ macierz ta jest symetryczna także forma F jest symetryczna. Sprawdz-imy, czy odpowiadająca jej forma kwadratowa
f(v) = F (v, v) =3∑
i,j=1
Fijvivj
208
jest dodatnio określona. W tym celu można skorzystać z kryterium Sylvestera(Tw.10.10). Minory główne macierzy [Fij] wynoszą odpowiednio
∆1 = 2 , ∆2 = 3 , ∆3 = 4− 2− 1 = 1 .
i wszystkie są dodatnie, a zatem forma kwadratowa f jest dodatnio określona iwszystkie warunki Def.11.1. są spełnione. Tym samym forma F jest iloczynemskalarnym (metryką euklidesowa) na R3.
Definicja 11.2 Zespół {V, 〈 . , . 〉} gdzie V jest przestrzenią liniową nad ciałemliczb rzeczywistych R, a 〈 . , . 〉 iloczynem skalarnym na tej przestrzeni, nazy-wamy przestrzenią euklidesową.
Przykłady:
1. Zespół {Rn, 〈 . , . 〉}, a więc przestrzeń Rn ze standardowym iloczynem skalarnymjest standardową przestrzenią euklidesową, którą będziemy oznaczać symbolemEn.
2. Zespół {R3, F ( . , . )} gdzie F jest formą z drugiego przykładu poniżej Definicji11.1., jest przestrzenią euklidesową.
Definicja 11.3 Niech {V, 〈 . , . 〉} będzie przestrzenią euklidesową. Funkcję
V 3 v → ||v|| ≡√〈 v , v 〉 ∈ R
nazywamy normą, a wartość tej funkcji ||v|| na wektorze v ∈ V – normą lubdługością wektora v.
Przykłady:
1. W przykładzie 1. poniżej Def.11.1 norma ma postać
||v|| =
√√√√ n∑i=1
(vi)2 .
2. W przykładzie 2. poniżej Def.11.1 norma wyraża się wzorem
||v|| =
√√√√ 3∑i,j=1
Fijvivj
=
√2 (v1)2 + 2v1v2 + 2 (v2)2 + 2v2v3 + (v3)2
209
Twierdzenie 11.1 (nierówność Schwarza) Niech {V, 〈 . , . 〉} będzieprzestrzenią euklidesową. Dla każdych dwóch wektorów u,w ∈ V zachodzinierówność:
|〈u , w 〉| 6 ‖u‖ ‖w‖ .
Dowód: Dla w = Θ,|〈 v , Θ 〉| = 0 = ‖Θ‖ i nierówność jest spełniona. Niech w 6= Θ.Dla dowolnej liczby λ ∈ R mamy
0 6 〈 v − λw , v − λw 〉 = 〈 v , v 〉 − 2λ〈 v , w 〉+ λ2〈w , w 〉= ‖v‖2 − 2λ〈 v , w 〉+ λ2‖w‖2
Podstawiając
λ =〈 v , w 〉‖w‖2
otrzymujemy
0 6 ‖v‖2 − 2〈 v , w 〉‖w‖2
〈 v , w 〉+〈 v , w 〉2
‖w‖4‖w‖2
0 6 ‖v‖2 − 〈 v , w 〉2
‖w‖2
〈 v , w 〉2 6 ‖v‖2‖w‖2
skąd wynika bezpośrednio nierówność Schwarza. •
Twierdzenie 11.2 Niech {V, 〈 . , . 〉} będzie przestrzenią euklidesową. Norma‖ . ‖ =
√〈 . , . 〉 ma następujące własności:
i. ‖v‖ > 0 dla każdego v ∈ V, v 6= Θ, oraz ‖Θ‖ = 0;
ii. ‖αv‖ = |α|‖v‖ dla dowolnego wektora v ∈ V i dowolnego skalara α ∈ R;
iii. nierówność trójkąta
‖v + w‖ 6 ‖v‖+ ‖w‖
dla dowolnych wektorów v, w ∈ V ;
iv. tożsamość równoległoboku
‖v + w‖2 + ‖v − w‖2 = 2(‖v‖2 + ‖w‖2
)dla dowolnych wektorów v, w ∈ V .
210
Dowód: Własności i. i ii. wynikają wprost z definicji normy i iloczynu skalarnego.Nierówność trójkąta można wyprowadzić z nierówności Schwarza w następujący sposób:
‖v + w‖2 = 〈 v + w , v + w 〉 = 〈 v , v 〉+ 2〈 v , w 〉+ 〈w , w 〉≤ ‖v‖2 + 2‖v‖‖w‖+ ‖w‖2 = (‖v‖+ ‖w‖)2 .
Tożsamość równoległoboku wynika z następujących przekształceń
‖v + w‖2 + ‖v − w‖2 = 〈 v + w , v + w 〉+ 〈 v − w , v − w 〉= 2〈 v , v 〉+ 2〈w , w 〉= 2
(‖v‖2 + ‖w‖2
).
•Definicja 11.4 Niech {V, 〈 . , . 〉} będzie przestrzenią euklidesową. Kątempomiędzy wektorami v, w ∈ V nazywamy liczbę α z przedziału [ 0, π ], dlaktórej
cosα =〈 v , w 〉‖v‖‖w‖
.
Uwagi:
1. W powyższej definicji pojęcie kąta dotyczy miary kąta nieskierowanego pomiędzywektorami, a nie figury geometrycznej.
2. Powyższa definicja jest uogólnieniem pojęcia miary kąta znanego z geometriieuklidesowej na płaszczyźnie. Rozważmy na płaszczyźnie trójkąt utworzony zniezerowych wektorów v, w, v − w. Z twierdzenia cosinusów otrzymujemy dlaboków tego trójkąta równanie
‖v − w‖2 = ‖v‖2 + ‖w‖2 − 2‖v‖‖w|| cosα
Rozpisując lewą stronę
‖v‖2 − 2〈 v , w 〉+ ‖w‖2 = ‖v‖2 + ‖w‖2 − 2‖v‖‖w|| cosα
otrzymujemy wzór
cosα =〈 v , w 〉‖v‖‖w‖
.
który wykorzystaliśmy jako definicję miary kata między wektorami w dowolnejprzestrzeni euklidesowej.
Definicja 11.5 Mówimy, że wektory v, w przestrzeni euklidesowej {V, 〈 . , . 〉}są ortogonalne lub prostopadłe i piszemy v ⊥ w, jeżeli 〈 v , w 〉 = 0.
211
Uwagi:
1. Wektor zerowy Θ jest prostopadły do każdego z wektorów przestrzeni euklides-owej.
2. Zgodnie z podaną wcześniej definicją kąta między wektorami, wektory niezerowesą ortogonalne wtedy i tylko wtedy gdy cosinus kąta α między nimi jest równyzeru, tzn. gdy α = π
2.
Twierdzenie 11.3 uogólnione twierdzenie Pitagorasa Niech {V, 〈 . , . 〉}będzie przestrzenią euklidesową. Jeżeli wektory v1, v2, . . . , vn ∈ V są paramiortogonalne, tzn.
〈 vi , vj 〉 = 0 dla i 6= j , i, j = 1, . . . , n ,
ton∑i=1
‖vi‖2 =
∥∥∥∥∥n∑i=1
vi
∥∥∥∥∥2
.
Dowód: Udowodnimy twierdzenie przez indukcję względem liczby wektorów. Dlan = 1 twierdzenie jest oczywiste.
Załóżmy, że jest ono prawdziwe dla n−1 parami ortogonalnych wektorów v1, . . . , vn−1 ∈V , tzn
‖w‖2 = ‖v1‖2 + ‖v2‖2 + . . .+ ‖vn−1‖2 (48)
gdziew = v1 + v2 + . . .+ vn−1 .
Niec vn ∈ V będzie wektorem ortogonalnym do wszystkich wektorów v1, . . . , vn−1 ∈ V .Wtedy
〈w , vn 〉 = 〈 v1 , vn 〉+ . . .+ 〈 vn−1 , vn 〉 = 0
a zatem
‖w + vn‖2 = 〈w + vn , w + vn 〉= 〈w , w 〉+ 2〈w , vn 〉+ 〈 vn , vn 〉= ‖w‖2 + ‖vn‖2
= ‖v1‖2 + ‖v2‖2 + . . .+ ‖nn−1‖2 + ‖vn‖2 ,
gdzie w ostatniej równości skorzystaliśmy z założenia (48) kroku indukcyjnego. Pokaza-liśmy, że oba założenia twierdzenia o indukcji matematycznej są spełnione, a zatem, na
212
mocy tego twierdzenia, uogólnione twierdzenie Pitagorasa jest prawdziwe dla każdegon. •
Definicja 11.6 Niech M będzie podzbiorem przestrzeni euklidesowej{V, 〈 . , . 〉}. Ortogonalnym dopełnieniem zbioru M nazywamy zbiór
M⊥ = {v ∈ V : ∀w ∈M : v ⊥ w} .
Twierdzenie 11.4 Dopełnienie ortogonalne M⊥ dowolnego podzbioruprzestrzeni euklidesowej {V, 〈 . , . 〉} jest podprzestrzenią liniową przestrzeni V .
Dowód: Zbiór M⊥ jest niepusty ponieważ należy do niego wektor zerowy (Uwaga 1poniżej Def.11.5.). Jeżeli u, v ∈M⊥ to dla każdego w ∈M
〈u , w 〉 = 〈 v , w 〉 = 0 .
Wtedy dla dowolnych skalarów α, β ∈ R mamy również
〈αu+ βv , w 〉 = α〈u , w 〉+ β〈 v , w 〉 = 0 .
•
11.2 Baza ortonormalna w przestrzeni euklidesowej
Definicja 11.7 Układ wektorów {v1, . . . , vn} przestrzeni euklidesowej{V, 〈 . , . 〉} nazywamy układem ortogonalnym jeżeli
〈 vi , vj 〉 = 0 dla i 6= j , i, j = 1, . . . , n .
Układ ortogonalny {v1, . . . , vn} nazywamy układem ortonormalnym jeżeli
‖vi‖2 = 1 dla i = 1, . . . , n .
Twierdzenie 11.5 Niech {v1, . . . , vn} będzie układem niezerowych wektorówprzestrzeni euklidesowej {V, 〈 . , . 〉}. Jeśli układ {v1, . . . , vn} jest ortogonalnyto wektory tego układu są liniowo niezależne.
Dowód: Pokażemy, że przy założeniach twierdzenia, ze znikania kombinacji liniowej
α1v1 + α2v2 + . . .+ αnvn = Θ
213
wynika znikanie jej współczynników. Rzeczywiście, obliczając iloczyn skalarny lewej iprawej strony tego równania z wektorem vj badanego układu, otrzymujemy
〈 vj , α1v1 + α2v2 + . . .+ αnvn 〉 = αj〈 vj , vj 〉 = αj‖vj‖2 = 0
Ponieważ, zgodnie z założeniem, , vj 6= Θ, to ‖vj‖2 6= 0, a zatem αj = 0. Ponieważrozumowanie to jest słuszne dla każdego j = 1, . . . , n, wszystkie współczynniki αjznikają, a więc zgodnie z definicją, wektory {v1, . . . , vn} są liniowo niezależne. •
Twierdzenie 11.6 W każdej przestrzeni euklidesowej {V, 〈 . , . 〉}, którejwymiar jest skończony i różny od zera, istnieje baza ortonormalna.
Dowód: (ortogonalizacja Grama-Schmidta)Niech {V, 〈 . , . 〉} będzie n-wymiarową przestrzenią euklidesową. Jeżeli układ wek-
torów {w1, . . . , wn} jest bazą ortogonalną w tej przestrzeni to wektory
1
‖wj‖wj , j = 1, . . . , n ,
tworzą bazę ortonormalną tej przestrzeni. Z kolei z Tw.11.5. wynika, że każdy układortogonalny n wektorów jest bazą w przestrzeni V . Problem sprowadza się więc doznalezienia układu ortogonalnego złożonego z n niezerowych wektorów.
Przedstawimy metodę Grama-Schmita, która pozwala skonstruować taki układ zdowolnej bazy {v1, . . . , vn} przestrzeni V .
Dowód przeprowadzimy przez indukcję ze względu na liczbę wektorów.Pokażemy najpierw, że z pierwszych dwóch wektorów bazy {v1, . . . , vn} można zbu-
dować dwa niezerowe wektory wzajemnie prostopadłe w postaci
w1 = v1
w2 = v2 + α12w1 .
Niezależnie od wartości współczynnika α12 wektory w1, w2 są zawsze niezerowe. Współczyn-
nik α12 można wyznaczyć z warunku ortogonalności wektorów w1, w2:
0 = 〈w2 , w1 〉 = 〈α12v1 + v2 , v1 〉 = α1
2〈 v1 , v1 〉+ 〈 v2 , v1 〉 .
Otrzymujemy
α12 = −〈 v2 , v1 〉
‖v1‖2.
Załóżmy teraz, że z pierwszych k, (k < n) wektorów bazy {v1, . . . , vn} można zbudowaćk wzajemnie ortogonalnych wektorów w postaci
w1 = v1
w2 = v2 + α12w1
...wk = vk + αk−1
k wk−1 + . . .+ α1kw1
214
Pokażemy, że istnieje niezerowy wektor wk+1 w postaci
wk+1 = vk+1 + αkk+1wk + αk−1k wk−1 + . . .+ α1
kw1 ,
który jest prostopadły do wszystkich wektorów wi, i < k + 1:
〈wk+1 , wi 〉 = 0 dla i = 1, 2, . . . , k . (49)
Ponieważ wektor wk+1 jest kombinacją liniową wektorów bazy i jeden ze współczyn-ników tej kombinacji jest równy 1, to wektor ten jest niezerowy niezależnie od wartościpozostałych współczynników. Pokażemy, że można je tak wybrać, żeby spełnić warunkiortogonalności (49). Ponieważ, z założenia kroku indukcyjnego wektory w1, . . . , wk sąwzajemnie ortogonalne, warunki (49) przyjmują postać
0 = 〈wk+1 , wi 〉 = 〈 vk+1 + αkk+1wk + αk−1k wk−1 + . . .+ α1
kw1 , wi 〉= 〈 vk+1 , wi 〉+ αik+1〈wi , wi 〉
skąd
αik+1 = −〈 vk+1 , wi 〉‖wi‖2
dla i = 1, . . . , k .
Ponieważ oba założenia twierdzenia o indukcji matematycznej są spełnione, na mocytego twierdzenia, istnieje układ ortogonalny n wektorów o zadanej postaci. •
Przykład Stosując metodę ortogonalizacji Grama-Schmidta znajdziemy bazę ortonor-malną w przestrzeni euklidesowej {R3, 〈 . , . 〉}, startując z bazy
v1 = (1, 0, 0) , v2 = (1, 1, 0) , v3 = (1, 1, 1)] .
Zaczynamy od bazy ortogonalnej {w1, w2, w3}. Definiujemy
w1 = v1 = (1, 0, 0)
Wektora w2 szukamy w postaci
w2 = v2 + α12w1
gdzie współczynnik α12 wyznaczamy z warunku ortogonalności
0 = 〈w2 , w1 〉 = 〈 v2 , v1 〉+ α12〈 v1 , v1 〉 = 1 + α1
2
skąd α12 = −1, a zatem
w2 = v2 − v1 = (1, 0, 0)− (1, 1, 0) = (0, 1, 0) .
215
Wektora w3 szukamy w postaci
w3 = v3 + α23w2 + α1
3v1 .
Tym razem warunki ortogonalności przyjmują postać
0 = 〈w3 , w1 〉 = 〈 v3 , w1 〉+ α13〈w1 , w1 〉 = 1 + α1
3
0 = 〈w3 , w2 〉 = 〈 v3 , w2 〉+ α23〈w2 , w2 〉 = 1 + α2
3
zatemw3 = v3 − w2 − w1 = (0, 0, 1) .
Wniosek 11.1 Każdy ortonormalny układ wektorów w n-wymiarowejprzestrzeni euklidesowej {V, 〈 . , . 〉} można rozszerzyć do bazy ortonormalnejtej przestrzeni.
Dowód:Niech {v1, . . . , vr} będzie dowolnym układem ortonormalnym w V . Na mocy Tw.11.5.jest to układ niezależny liniowo. Na mocy Tw.6.8.iv istnieje rozszerzenie tego układu dobazy {v1, . . . , vr, vr+1, . . . , vn} przestrzeni V . Stosując proces ortogonalizacji Grama-Schmidta do tego układu otrzymamy układ, którego pierwszych k wektorów to wektoryv1, . . . , vr, a pozostałe uzupełniają je do bazy ortogonalnej. Normując te wektoryotrzymujemy bazę ortonormalną. •
Twierdzenie 11.7 Niech {e1, . . . , en} będzie bazą ortonormalną w przestrzenieuklidesowej {V, 〈 . , . 〉}. Dowolny wektor v ∈ V ma w tej bazie rozkład
v =n∑i=1
〈 v , ei 〉 ei .
Dowód: Ponieważ {e1, . . . , en} jest bazą to dla każdego wektora v ∈ V mamy jednoz-naczny rozkład
v =n∑i=1
viei .
Obliczając iloczyn skalarny każdej ze stron tej równości z j-tym wektorem bazy ej,otrzymujemy
〈 v , ej 〉 = 〈n∑i=1
viei , ej 〉 =n∑i=1
vi〈 ei , ej 〉 =n∑i=1
viδij = vj.
216
•
Twierdzenie 11.8 Niech W będzie skończenie wymiarową podprzestrzeniąprzestrzeni euklidesowej {V, 〈 . , . 〉}. Wtedy
V = W ⊕W⊥ ,
tzn. dla każdego wektora v ∈ V istnieje jednoznaczne przedstawienie w postacisumy v = w1 + w2, gdzie w1 ∈ W , w2 ∈ W⊥.
Dowód: Niech {e1, . . . , er} będzie bazą ortonormalną w podprzestrzeni W . Wtedywektor
w1 =r∑i=1
〈 v , ei 〉ei
należy do W . Wektor w2 = v − w1 jest prostopadły do każdego z wektorów bazy{e1, . . . , er}
〈w2 , ej 〉 = 〈 v − w1 , ej 〉 = 〈 v , ej 〉 −n∑i=1
〈 v , ei 〉〈 ei , ej 〉
= 〈 v , ej 〉 − 〈 v , ej 〉 = 0 ,
a zatem w2 ∈ W⊥.Pokażemy, że rozkład v = w1 + w2 jest jednoznaczny. Niech v = w′1 + w′2 będzie
innym takim rozkładem, tzn. w′1 ∈ W , w′2 ∈ W⊥. Wtedy
w1 + w2 = w′1 + w′2w1 − w′1 = w′2 − w2
‖w1 − w′1‖2 = ‖w′2 − w2‖2 = 〈w1 − w′1 , w′2 − w2 〉 .
Ponieważ w1 − w′1 ∈ W , w′2 − w2 ∈ W⊥ to 〈w1 − w′1 , w′2 − w2 〉 = 0 i
‖w1 − w′1‖ = ‖w′2 − w2‖ = 0 ,
a zatem w1 − w′1 = Θ i w2 − w′2 = Θ. •
Definicja 11.8 Niech W będzie skończenie wymiarową podprzestrzeniąprzestrzeni euklidesowej {V, 〈 . , . 〉}. Odwzorowanie
PW : V ∈ v → PWv = v‖ ∈ W ,
gdzie wektor v‖ jest składnikiem rozkładu v = v‖ + v⊥, v‖ ∈ W , v⊥ ∈ W⊥,nazywamy rzutem ortogonalnym na podprzestrzeń W .
217
Twierdzenie 11.9 Niech f będzie formą liniową na skończenie wymiarowejprzestrzeni euklidesowej {V, 〈 . , . 〉}. Wtedy istnieje dokładnie jeden taki wektorw ∈ V , że
f(v) = 〈w , v 〉 ,
dla każdego wektora v ∈ V .
Dowód: Wykażemy najpierw jednoznaczność wektora w. Niech w,w′ ∈ V będątakimi wektorami, że
f(v) = 〈w , v 〉 = 〈w′ , v 〉 ,
dla każdego wektora v ∈ V . Wtedy, dla każdego wektora v ∈ V
〈w − w′ , v 〉 = 0 .
Przyjmując v = w − w′ otrzymujemy ‖w − w′‖2 = 〈w − w′ , w − w′ 〉 = 0, skądw − w′ = Θ, a zatem w = w′.
Jeżeli f(v) = 0 dla każdego v ∈ V to wystarczy przyjąć w = Θ. Załóżmy więc, żeistnieje taki wektor u ∈ V , że f(u) 6= 0. Ponieważ f jest formą liniową, to ker f jestpodprzestrzenią przestrzeni V . Z założenia, przestrzeń V jest skończenie wymiarowazatem także podprzestrzeń ker f ma wymiar skończony i na mocy Tw.11.8. otrzymu-jemy jednoznaczny rozkład wektora u w postaci:
u = u1 + u2 , gdzie u1 ∈ ker f , u2 ∈ (ker f)⊥ .
Ponieważ f(u) = f(u2) 6= 0 to wektor u2 nie jest wektorem zerowym. Wprowadźmywektor u = 1
f(u2)u2. Wprost z definicji u mamy f(u) = 1 i dla każdego v ∈ V :
f(v − f(v)u) = f(v)− f(v)f(u) = 0 ,
skąd wynika, że v−f(v)u ∈ ker f . Wektor u jest więc ortogonalny do wektora v−f(v)u
〈 u , v 〉 = 〈 u , v − f(v)u 〉+ 〈 u , f(v) u〉 = f(v)〈 u , u 〉 = f(v)‖u‖2 .
Poszukiwanym wektorem, jest więc wektor
w =1
‖u‖2u =
f(u)
‖u2‖u2 ,
dla któregof(v) = 〈w , v 〉
dla wszystkich wektorów v ∈ V . •
218
11.3 Przekształcenia ortogonalne
Definicja 11.9 Niech {V, 〈 . , . 〉} będzie przestrzenią euklidesową. Przeksz-tałcenie liniowe A : V → V nazywamy przekształceniem ortogonalnym,jeśli zachowuje ono iloczyn skalarny, tzn. jeśli
〈Av , Aw 〉 = 〈 v , w 〉
dla dowolnych wektorów v, w ∈ V .
Uwagi:
1. Przekształcenie ortogonalne jest zawsze monomorfizmem. Rzeczywiście, jeśliv ∈ kerA, to 〈 v , v 〉 = 〈Av , Av 〉 = 〈Θ , Θ 〉 = 0, a zatem v = Θ. W przy-padku przestrzeni skończenie wymiarowej z Tw.8.6. wynika, że przekształcenieortogonalne jest automorfizmem.
2. Ponieważ przekształcenie ortogonalne zachowuje iloczyn skalarny i normę to za-chowuje również kąty pomiędzy wektorami.
Twierdzenie 11.10 Niech {V, 〈 . , . 〉} będzie n-wymiarową przestrzenią euk-lidesową, a A : V → V przekształceniem liniowym. Wtedy następujące warunkisą równoważne:
i. A jest przekształceniem ortogonalnym;
ii. ‖Av‖ = ‖v‖ dla każdego wektora v ∈ V ;
iii. jeżeli {ei}ni=1 jest bazą ortonormalną przestrzeni V to układ wektorów{Aei}ni=1 jest również bazą ortonormalną tej przestrzeni;
iv. dla dowolnego układu ortonormalnego {ei}ri=1 (r = 1, . . . , n) układ wek-torów {Aei}ri=1 jest również ortonormalny.
Dowód:
• i.⇒ ii.
Z definicji przekształcenia ortogonalnego mamy
‖Av‖2 = 〈Av , A v 〉 = 〈 v , v 〉 = ‖v‖2 .
219
• ii.⇒ iii.
Na mocy Tw.5.8.i. oraz Tw.11.5. wystarczy pokazać, że układ {Aei}ni=1 jestortogonalny i składa się z wektorów niezerowych. Ta druga własność wynikanatychmiast z ii. bowiem
‖ei‖ = ‖Aei‖ = 1 .
Pokażemy, że wektory {Aei}ni=1 są parami ortogonalne. Dla dowolnych ei, ej, i 6=j mamy
‖A(ei + ej)‖2 = 〈A(ei + ej) , A(ei + ej) 〉= ‖Aei‖2 + 2〈Aei , A ej 〉+ ‖Aej‖2 .
ale jednocześnie
‖A(ei + ej)‖2 = ‖ei + ej‖2 = 〈 ei + ej , ei + ej 〉= ‖ei‖2 + 2〈 ei , ej 〉+ ‖ej‖2
= ‖Aei‖2 + ‖Aej‖2 .
Porównując powyższe równania otrzymujemy
〈Aei , A ej 〉 = 0 .
• iii.⇒ iv.
Niech {ei}ri=1 będzie układem ortonormalnym i r 6 n. Wtedy na mocy Wniosku11.1. możemy rozszerzyć ten układ do bazy ortonormalnej {ei}ni=1. Na mocy iii.układ {Aei}ni=1, także jest bazą ortonormalną w V . W szczególności pierwszychr wektorów tej bazy tworzy układ ortonormalny {Aei}ri=1.
• iv.⇒ i.
Niech {ei}ni=1 będzie bazą ortonormalna w V . Wtedy z iv. wynika, że również{Aei}ni=1 jest bazą ortonormalną w V . Dla dowolnych wektorów v, u ∈ V mamywięc
v =n∑i=1
viei , u =n∑i=1
uiei ,
oraz
〈Av , Au 〉 = 〈n∑i=1
viAei ,n∑j=1
ujAej 〉
=n∑
i,j=1
viuj〈Aei , A ej 〉 =n∑i=1
viui
220
=n∑
i,j=1
viuj〈 ei , ej 〉 = 〈n∑i=1
viei ,
n∑i=1
uiei 〉
= 〈 v , u 〉 ,a zatem, zgodnie z definicja, A jest przekształceniem ortogonalnym.
•
Definicja 11.10 Niech {V, 〈 . , . 〉} będzie n-wymiarową przestrzenią euklides-ową. Macierz przekształcenia ortogonalnego A : V → V względem bazyortonormalnej przestrzeni V nazywamy macierzą ortogonalną stopnia n.Zbiór wszystkich macierzy ortogonalnych stopnia n oznaczamy symbolem O(n).
Twierdzenie 11.11 Niech A = [Aij] ∈ Mn×n(R). Następujące warunki sąrównoważne:
i. A jest macierzą ortogonalną;
ii. kolumny macierzy A, traktowane jako wektory standardowej przestrzenieuklidesowej En = {Rn, 〈 . , . 〉}, tworzą układ ortonormalny;
iii. ATA = 1l;
iv. macierz A jest odwracalna i A−1 = AT ;
v. AAT = 1l;
vi. wiersze macierzy A, traktowane jako wektory standardowej przestrzenieuklidesowej En = {Rn, 〈 . , . 〉}, tworzą układ ortonormalny.
Dowód:
• i. ⇒ ii. Niech {ei}ni=1 będzie bazą ortonormalną w V . Niech A = [Aij] będziemacierzą przekształcenia ortogonalnego A względem tej bazy:
Aei =n∑j=1
Ajiej , i = 1, . . . , n .
Na mocy Tw.11.10.iii. układ wektorów {Aei}ni=1 jest ortonormalny, a zatem
δij = 〈Aei , A ej 〉 = 〈n∑k=1
Aki ek ,n∑l=1
Aljel 〉
=n∑
k,l=1
AkiAlj〈 ek , el 〉 =
n∑k,l=1
AkiAljδkl =
n∑k
AkiAkj .
221
Otrzymaliśmy równośćn∑k
AkiAkj = δij , (50)
gdzie wyrażenie po lewej stronie jest standardowym iloczynem skalarnym w Rn
obliczonym dla wektorów: (A1i , . . . , A
ni ) i (A1
j , . . . , Anj ), czyli dla i-tej i j-tej
kolumny macierzy [Aij].
• ii.⇔ iii.
Równoważność tych warunków wynika natychmiast z równania (50).
• iii.⇒ iv., v.⇒ iv.
Jeżeli ATA = 1l to (detA)2 = 1 skąd detA = ±1 6= 0. Zatem macierz A jestodwracalna i A−1 = AT . Drugą implikację udowadniamy identycznie.
• iv.⇒ iii., iv.⇒ v.
Oczywiste.
• v.⇔ vi.
Równość AAT = 1l oznacza, że
δij = δij =n∑k=1
AikAjk , i, j = 1, . . . , n ,
gdzie prawa strona jest standardowym iloczynem skalarnym wektorów (Ai1, . . . , Ain)
i (Aj1, . . . , Ajn), czyli i-tego i j-tego wiersza macierzy [Aij].
• ii.⇒ i. Niech {ei}ni=1 będzie bazą ortonormalną w V . Zdefiniujemy przekształce-nie liniowe A : V → V wzorem
Aei =n∑j=1
Ajiej , i = 1, . . . , n .
Wtedy A = [AIj ] jest macierzą tego przekształcenia względem bazy {ei}ni=1.
Wykażemy, że A jest przekształceniem ortogonalnym. Na mocy Tw.11.10.iii.wystarczy pokazać, że układ wektorów {Aei}ni=1 jest ortonormalny. Korzystającz równości (50) mamy
〈Aei , A ej 〉 = 〈n∑k=1
Aki ek ,
n∑l=1
Aljel 〉
222
=n∑
k,l=1
AkiAlj〈 ek , el 〉 =
n∑k,l=1
AkiAljδkl
=n∑k
AkiAkj = δij .
Pokazaliśmy, że macierz [Aij] jest macierzą odwzorowania ortogonalnego wzglę-dem bazy ortonormalnej, a zatem zgodnie z Def.11.10 jest macierzą ortogonalną.
•
Twierdzenie 11.12 Zbiór macierzy ortogonalnych stopnia n z działaniemmnożenia macierzy jest grupą.
Dowód: Ponieważ macierze ortogonalne są nieosobliwy wystarczy pokazać, że tworząpodgrupę grupy GL(n,R). Dla dowolnych macierzy A,B ∈ O(n) mamy
(AB)T (AB) = BTATAB = BTB = 1l ,
oraz (A−1
)TA−1 =
(AT)TA−1 = AA−1 = 1l ,
a wiec iloczyn macierzy ortogonalnych i macierz odwrotna do macierzy ortogonalnejsą macierzami ortogonalnymi. •
Definicja 11.11 Grupę wszystkich macierzy ortogonalnych stopnia n z mnoże-niem macierzy jako działaniem grupowym nazywamy grupą ortogonalnąstopnia n i oznaczamy symbolem O(n). Podgrupę tej grupy składającą się zmacierzy, których wyznacznik jest równy 1, nazywamy specjalną grupą or-togonalną stopnia n i oznaczamy symbolem SO(n).
11.4 Struktura przekształceń ortogonalnych
Przykłady:
1. grupa O(1)
O(1) = {1,−1}, SO(1) = {1}
2. grupa O(2)
223
Zbadamy ogólną postać macierzy z grupy O(2). Niech
A =
[α βγ δ
]∈ O(2)
Wtedy
ATA = 1l ⇔ A−1 =
[α γβ δ
]Z drugiej strony
A−1 =1
detAAD = ±
[δ −β−γ α
]Rozważmy dwa przypadki:
(a) detA = 1
W tym przypadku otrzymujemy
A =
[α −ββ α
], α2 + β2 = 1
Ponieważ warunek α2 + β2 = 1 jest równaniem okręgu ogólne rozwiązaniemożna zapisać jako
A =
[cosϕ − sinϕsinϕ cosϕ
], ϕ ∈ [0, 2π)
Zauważmy, że dla przekształceń ortogonalnch związanych z macierzami tejpostaci nie istnieje baza, względem której ich macierz jest diagonalna. Is-totne równanie charakterystyczne
det(A− λ1l) = (cosϕ− λ)2 + sin2 ϕ = 0
ma pierwiastki rzeczywiste tylko dla ϕ = 0, π.Grupa SO(2) składa się z macierzy obrotów wokół początku układu współrzęd-nych:
SO(2) =
{[cosϕ − sinϕsinϕ cosϕ
], ϕ ∈ [0, 2π)
}(b) detA = −1
W tym przypadku otrzymujemy
A =
[α ββ −α
], α2 + β2 = 1
224
lub równoważnie
A =
[cosϕ sinϕsinϕ − cosϕ
], ϕ ∈ [0, 2π)
Inaczej niż w poprzednim przypadku równanie charakterystyczne
det(A− λ1l) = (cosϕ− λ)(− cosϕ− λ)− sin2 ϕ
= λ2 − 1 = 0
ma zawsze dwa pierwiastki rzeczywiste λ = ±1. To znaczy, że istniejąwektory własne:
Av+ = v+ , Av− = −v− .
Łatwo sprawdzić, że wektory własne
v+ =
[cos ϕ
2
sin ϕ2
], v− =
[sin ϕ
2
− cos ϕ2
]tworzą bazę w R2 ortonormalną względem standardowej metryki euklides-owej. Jeżeli potraktujemy A jako macierz przekształcenia liniowego wzglę-dem pewnej bazy ortonormalnej to przekształcenie to jest odbiciem wzglę-dem prostej wyznaczonej wektorem v+. W bazie wektorów własnych macierzodbicia jest diagonalna [
1 00 −1
]Grupa O(2) składa się z macierzy obrotów wokół początku układu współrzędnychi z macierzy odbić względem prostych przechodzących przez początek układu.
Analizę przekształceń ortogonalnych w przestrzeni n-wymiarowej rozpoczniemy odnastępującego twierdzenia.
Twierdzenie 11.13 Niech V będzie skończeniewymiarową, rzeczywistąprzestrzenią liniową. Dla każdego przekształcenia liniowego A : V → V ist-nieje jednowymiarowa lub dwuwymiarowa podprzestrzeń własna.
Dowód: Niech {e1, . . . , en} będzie bazą w przestrzeni V , a A = [Aij] macierzą przek-ształcenia liniowego A w tej bazie.
225
Szukamy niezerowego rozwiązania układu równań
A11v
1 + A12v
2 + . . .+ A1nv
n = λv1
A21v
1 + A22v
2 + . . .+ A2nv
n = λv2
...
An1v1 + An2v
2 + . . .+ Annvn = λvn
(51)
Warunkiem koniecznym istnienia niezerowego rozwiązania jest znikanie wyznacznika
det(A− λI) =
∣∣∣∣∣∣∣∣∣∣∣∣
A11 − λ A1
2 . . . A1n
A21 A2
2 − λ . . . A2n
......
.........
...
An1 An2 . . . Ann − λ
∣∣∣∣∣∣∣∣∣∣∣∣Jeżeli istnieje rozwiązanie rzeczywiste λ0 ∈ R równania
det(A− λI) = 0
to istnieje rozwiązanie rzeczywiste v1 , . . . , vn układu (51) i wektor
v =n∑i=1
viei
jest wektorem własnym przekształceniaA. Istnieje więc jednowymiarowa podprzestrzeńwłasna.
Jeżeli równanie charakterystyczne nie ma pierwiastków rzeczywistych to na pod-stawie zasadniczego twierdzenia algebry wiemy, że istnieje co najmniej jeden pier-wiastek zespolony ζ = α + iβ, α, β ∈ R. Wtedy układ równań (51) ma rozwiązaniezespolone
v1 = x1 + iy1 , v2 = x2 + iy2, . . . , vn = xn + iyn
gdzie x1, . . . , xn, y1, . . . , yn ∈ R. Rozdzielając część rzeczywistą i część urojoną wkażdym z równań otrzymujemy:
A11x
1 + A12x
2 + . . .+ A1nx
n = αx1 − βy1
A21x
1 + A22x
2 + . . .+ A2nx
n = αx2 − βy2
...
An1x1 + An2x
2 + . . .+ Annxn = αxn − βyn
226
A11y
1 + A12y
2 + . . .+ A1ny
n = αy1 + βx1
A21y
1 + A22y
2 + . . .+ A2ny
n = αy2 + βx2
...
An1y1 + An2y
2 + . . .+ Annyn = αyn + βxn
Wprowadzając
x =n∑i=1
xiei , y =n∑i=1
y1ei
możemy powyższe równania przepisać jako równania wektorowe
Ax = αx− βy , Ay = αy + βx .
Z równań tych wynika, że podprzestrzeń Span{x, y} jest dwuwymiarową podprzestrzeniąwłasną przekształcenia A. •
Twierdzenie 11.14 Niech {V, 〈 . , . 〉} będzie skończeniewymiarowąprzestrzenią euklidesową a A : V → V przekształceniem ortogonalnymtej przestrzeni. Jeżeli podprzestrzeń W ∈ V jest podprzestrzenią niezmi-enniczą przekształcenia A to jej ortogonalne dopełnienie W⊥ jest równieżpodprzestrzenią niezmienniczą A.
Dowód: Mamy wykazać, że imA|W⊥ ⊂ W⊥, tzn. obraz Av każdego wektora v ∈ W⊥
jest prostopadły do każdego wektora w ∈ W :
〈w,Av〉 = 0 .
Iloczyn skalarny obcięty do podprzestrzeni W definiuje w niej strukturę przestrzeni eu-klidesowej {W, 〈 . , . 〉|W}. Przekształcenie liniowe A obcięte do podprzestrzeni niezmi-enniczej W jest przekształceniem ortogonalnym i na mocy Uwagi 1 poniżej Def.11.9jest również automorfizmem tej przestrzeni, a więc w szczególności epimorfizmem. Za-tem dla każdego w ∈ W istnieje taki wektor w′ ∈ W , że w = Aw′. Dla dowolnychwektorów w ∈ W, v ∈ W⊥ mamy więc
〈w,Av〉 = 〈Aw′, Av〉 = 〈w′, v〉 = 0
co kończy dowód. •
227
Twierdzenie 11.15 Niech {V, 〈 . , . 〉} będzie skończeniewymiarowąprzestrzenią euklidesową a A : V → V przekształceniem ortogonalnymtej przestrzeni. Istnieje taka baza ortonormalna przestrzeni V względem której,macierz przekształcenia A ma postać kanoniczną
1. . .
1
−1. . .
−1
cosϕ1 − sinϕ1
sinϕ1 cosϕ1
. . .cosϕk − sinϕksinϕk cosϕk
(wszystkie pominięte elementy macierzowe są równe zeru).
Dowód: Zgodnie z Tw.11.13 w przestrzeni V istnieje jednowymiarowa lub dwuwymi-arowa podprzestrzeń własna. Jeżeli w V istnieje jednowymiarowa podprzestrzeń niezmi-ennicza W (1) to wybieramy wektor e ∈ W (1) o długości 1. Ponieważ A jest przeksz-tałceniem ortogonalnym to
Ae = ±e .
Jeżeli w V nie ma jednowymiarowych podprzestrzeni niezmienniczych to zgodnie zTw.11.13 istnieje dwuwymiarowa W (2) podprzestrzeń niezmiennicza. Wybieramy wniej bazę ortonormalną {e1, e2}. Zgodnie z naszymi rozważaniami w Przykładzie 2macierz przekształcenia A ma względem tej bazy postać[
cosϕ − sinϕsinϕ cosϕ
]Druga możliwość jest wykluczona bowiem gdyby macierz przekształcenia A miałapostać [
cosϕ sinϕsinϕ − cosϕ
]to W (2) byłaby sumą prostą dwóch jednowymiarowych podprzestrzeni niezmienniczychco byłoby w sprzeczności z założeniem, że takich podprzestrzeni nie ma.
228
Na mocy Tw.11.14 dopełnienie ortogonalne podprzestrzeni niezmienniczej jest pod-przestrzenią niezmienniczą. Ponieważ obcięcie przekształcenia ortogonalnego do pod-przestrzeni niezmienniczej jest przekształceniem ortogonalnym tej podprzestrzeni toprzedstawione wyżej rozumowanie możemy powtórzyć dla podprzestrzeni W (1)⊥ lubW (2)⊥. Po skończonej liczbie kroków otrzymamy układ ortonormalny wektorów, którypo odpowiednim uporządkowaniu tworzy poszukiwaną bazę. •
Definicja 11.12 Niech {V, 〈 . , . 〉} będzie n-wymiarową przestrzenią euklides-ową.Obrotem w przestrzeni V nazywamy przekształcenie ortogonalne, któregomacierz względem dowolnej bazy ortonormalnej ma wyznacznik równy 1.Obrotem zwykłym w przestrzeni V nazywamy przekształcenie ortogonalnetej przestrzeni, które jest obrotem w pewnej podprzestrzeni dwuwymiarowejW (2) i które pozostawia niezmienioną podprzestrzeń W (2)⊥.Odbiciem w przestrzeni V nazywamy przekształcenie ortogonalne, któregomacierz względem dowolnej bazy ortonormalnej ma wyznacznik równy -1.Odbiciem zwykłym w przestrzeni V nazywamy przekształcenie ortogonalnetej przestrzeni, które jest odbiciem pewnej podprzestrzeni jednowymiarowejW (1) i pozostawia niezmienioną podprzestrzeń W (1)⊥.
Wniosek 11.2 Każde przekształcenie ortogonalne skończeniewymiarowejprzestrzeni euklidesowej można przedstawić jako złożenie pewnej liczby obrotówzwykłych i odbić zwykłych.
Twierdzenie 11.16 Niech {V, 〈 . , . 〉} będzie n-wymiarową przestrzenią euk-lidesową i n > 2. Każdy obrót zwykły jest złożeniem dwóch odbić zwykłych.
Dowód: Twierdzenie wystarczy wykazać dla obrotów w przestrzeni 2-wymarowej (wtakiej przestrzeni każdy obrót jest obrotem zwykłym i każde odbicie jest odbiciemzwykłym). Na podstawie przykładu 2 wiemy, że macierzy odbicia względem bazyortonormalnej ma postać [
cosϕ sinϕsinϕ − cosϕ
]Dla złożenia dwóch dowolnych odbić mamy[
cosα sinαsinα − cosα
] [cos β sin βsin β − cos β
]=
=
[cosα cos β + sinα sin β cosα sin β − sinα cos βsinα cos β − cosα sin β sinα sin β + cosα cos β
]229
=
[cos(α− β) − sin(α− β)sin(α− β) cos(α− β)
]Żeby uzyskać obrót o kąt ϕ wystarczy więc złożyć odbicia z parametrami spełniającymirównanie
ϕ = α− β .
•Wniosek 11.3 Twierdzenie Cartana-Diedonne Każde przekształcenie or-togonalne n-wymiarowej przestrzeni euklidesowej jest tożsamością lub złoże-niem co najwyżej n odbić zwykłych.
Twierdzenie 11.17 Eulera Każdy obrót A w 3-wymiarowej przestrzeni euk-lidesowej jest obrotem dookoła pewnej osi tzn. istnieje niezerowy wektor v taki,że Av = v.
11.5 Przestrzeń Minkowskiego
Jednym z możliwych uogólnień pojęcia przestrzeni euklidesowej jest zastąpienie warunkudodatniej określoności symetrycznej formy dwuliniowej definiującej iloczyn skalarnysłabszym warunkiem.
Definicja 11.13 Niech V będzie n-wymiarową rzeczywista przestrzenią lin-iową, a F : V × V → R symetryczną formą dwuliniową. Mówimy, że formaF jest niezdegenerowana jeżeli z tego, że F (v, w) = 0 dla wszystkich v ∈ Vwynika, że w jest wektorem zerowym.
Uwagi:
1. Dla niezdegenerowanych form symetrycznych (i odpowiadających im form kwadra-towych) suma indeksu dodatniego i ujemnego jest równa wymiarowi przestrzeni.
2. Sygnatura formy symetrycznej została zdefiniowana wcześniej jako różnica międzyindeksem dodatnim i ujemnym. Dla form niezdegenerowanych używa się słowasygnatura na określenie pary liczb (p, q), z których pierwsza jest indeksem do-datnim, a druga indeksem ujemnym. Formy dodatnio określone w przestrzenin-wymiarowej mają sygnaturę (n, 0). Jeżeli wymiar przestrzeni nie jest zbytduży zamiast liczb wypisuje się często odpowiednią ilość plusów i minusów. Npsymbole (1, 3) i (+,−,−,−) oznaczają tą samą sygnaturę.
230
3. Zwykle nazwę iloczyn skalarny (metryka) rezerwujemy dla dodatnio określonychform symetrycznych. Jeżeli forma nie jest dodatnio określona, ale jest niezde-generowana to nazywamy ją pseudoiloczynem skalarnym (pseudometryką).
Nie będziemy rozwijać teorii przestrzeni z pseudometryką o dowolnej sygnaturze(p, q). Ograniczymy się tylko do podania jednego, fundamentalnego dla zastosowańfizycznych przykładu.
Definicja 11.14 Niech V będzie 4-wymiarową rzeczywistą przestrzenią lin-iową. Symetryczną formę dwuliniową
〈 . , . 〉M : V × V → R
o sygnaturze (1, 3) nazywamy pseudometryką Minkowskiego, a zespół{V, 〈 . , . 〉M} - przestrzenią Minkowskiego.Zespół {R4, 〈 . , . 〉M}, gdzie 〈 . , . 〉M jest standardową pseudometrykąMinkowskiego na R4 zadaną wzorem
〈 v , w 〉M = v1w1 − v2w2 − v3w3 − v4w4
nazywamy standardową przestrzenią Minkowskiego i oznaczamy sym-bolem M4.
Definicja 11.15 Niech {V, 〈 . , . 〉M} będzie przestrzenią Minkowskiego. Przek-ształcenie liniowe A : V → V nazywamy transformacją Lorentza, jeśli za-chowuje ono pseudometrykę Minkowskiego, tzn. jeśli
〈Av , Aw 〉M = 〈 v , w 〉M
dla dowolnych wektorów v, w ∈ V .
Przykłady:
1. Każdy obrót w trójwymiarowej podprzestrzeni
R3 = Spam{(0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)} ⊂M4
pozostawiający niezmienioną podprzestrzeń Spam{(1, 0, 0, 0)} jest transformacjąLorentza.
2.
231
Twierdzenie 11.18 Niech {V, 〈 . , . 〉M} będzie przestrzenią Minkowskiego.Zbiór wszystkich transformacji Lorentza przestrzeni V jest grupą ze względuna składanie przekształceń.
Definicja 11.16 Grupę o której mowa w Tw.11.18 nazywamy grupąLorentza
Uwaga: Każda transformacja Lorentza standardowej przestrzeni Minkowskiego M4
jest jednoznacznie zadana przez swoją macierz względem standardowej bazy w R4.Łatwo pokazać, że wyznacznik takiej macierzy jest równy±1. Grupę macierzy odpowiada-jących transformacjom Lorentza oznaczamy symbolem O(1, 3), a jej podgrupę składa-jącą się z macierzy o wyznaczniku 1 - symbolem SO(1, 3). Grupy te nazywamyodpowiednio, grupą Lorentza i specjalną grupą Lorentza przestrzeni M4.
12 Zespolone przestrzenie liniowe z iloczynem skalarnym
12.1 Hermitowskie formy dwuliniowe
W przestrzeniach rzeczywistych dodatnio określone formy kwadratowe pozwalały nawprowadzenie pojęcia długości wektora. Symetryczne formy dwuliniowe w przestrzeni-ach zespolonych i odpowiadające im formy kwadratowe mają na ogół wartości ze-spolone i z tego powodu nie można ich użyć do wprowadzenia pojęcia długości wek-tora w takich przestrzeniach. Z tego punktu widzenia właściwym odpowiednikiemsymetrycznych form dwuliniowych w przestrzeniach rzeczywistych są formy hermi-towskie w przestrzeniach zespolonych:
Definicja 12.1 Niech V będzie przestrzenią liniową nad ciałem liczb ze-spolonych C. Odwzorowanie
h : V × V → C
nazywamy formą hermitowską na przestrzeni V jeżeli dla dowolnychv, u, w ∈ V oraz α, β ∈ C zachodzi
i. h(v, αu+ βw) = αh(v, u) + βh(v, w)
ii. h(αu+ βw, v) = αh(u, v) + βh(w, v)
Uwagi:
232
1. Pierwszy warunek w Def.12.1 oznacza, że forma hermitowska jest liniowa wdrugim argumencie. Jeżeli spełniony jest drugi warunek to mówimy, że formahermitowska jest antyliniowa w pierwszym argumencie.
2. W literaturze matematycznej zwyczajowo przyjmuje się definicję formy hermi-towskiej, w której żąda się liniowości w pierwszym argumencie, a antyliniowościw drugim. W fizyce, a w szczególności w mechanice kwantowej jest powszechniestosowana przeciwna konwencja i z tego powodu została ona przyjęta także wDef.12.1.
3. Warunek antyliniowości dla α, β ∈ R jest zwykłym warunkiem liniowości.
4. Tak jak w przypadku form dwuliniowych na przestrzeniach zespolonych o skońc-zonym wymiarze macierzą formy hermitowskiej h względem bazy {ei}ni=1 nazy-wamy macierz
[hij] = [h(ei, ej)] ∈Mn×n(C)
gdzie i jest indeksem wiersza, a j indeksem kolumny.
Definicja 12.2 Niech V będzie przestrzenią liniową nad ciałem liczb ze-spolonych C. Formę hermitowską h na V nazywamy symetryczną jeżeli dladowolnych v, u ∈ V zachodzi
h(v, u) = h(u, v) .
Definicja 12.3 Niech A będzie macierzą typu m × n nad ciałem liczb ze-spolonych C. Sprzężeniem hermitowskim macierzy A = [Aij] nazywamymacierz typu n×m
A† = AT , (A†)ij = Aji .
Macierz A nazywamy hermitowską jeżeli A† = A.
Twierdzenie 12.1 Forma hermitowska h na skończenie wymiarowejprzestrzeni zespolonej jest symetryczna wtedy i tylko wtedy gdy jej macierz wdowolnej bazie tej przestrzeni jest hermitowska.
233
Definicja 12.4 Niech V będzie przestrzenią liniową nad ciałem liczb ze-spolonych. Hermitowską formą kwadratową określoną na przestrzeni Vnazywamy funkcję f : V → C która ma następujące własności:
i. dla dowolnych α ∈ C, v ∈ V :
f(αv) = |α|2f(v) ;
ii. wyrażenie
b(v, w) ≡ 1
2(f(v + w)− f(v)− f(w)) (52)
+i
2(f(iv + w)− f(v)− f(w)) (53)
jest formą hermitowską na V .
Formę b nazywamy formą biegunową formy f .Hermitowską formę kwadratową nazywamy symetryczną jeżeli jej formabiegunowa jest symetryczna.
Uwagi:
1. W przeciwieństwie do formy biegunowej rzeczywistej formy kwadratowej formabiegunowa formy hermitowskiej nie musi być symetryczna (na ogół nie zachodziB(v, w) = B(w, v)).
2. Symetryczna hermitowska forma kwadratowa przyjmuje wyłącznie wartości rzeczy-wiste.
3. Dla każdej formy hermitowskiej h : V × V → C funkcja f : V → C określonawzorem
f(v) = h(v, v) (54)
jest hermitowską formą kwadratową.
Warunek pierwszy definicji jest spełniony. Sprawdzimy czy spełniony jest takżedrugi warunek. W tym celu obliczymy formę biegunową hermitowskiej formykwadratowej (54):
b(v, w) ≡ 1
2(h(v + w, v + w)− h(v, v)− h(w,w))
+i
2(h(iv + w, iv + w)− h(v, v)− h(w,w))
234
=1
2(h(v, w) + h(w, v))
+i
2(−ih(v, w) + ih(w, v))
= h(v, w)
Hermitowska forma kwadratowa jest zatem jednoznacznie wyznaczona przez odpowiada-jącą jej formę hermitowskią i na odwrót.
Zmiana liniowości w pierwszym argumencie formy dwuliniowej na antyliniowość niema wpływu na dowody twierdzeń 10.5, 10.6 i . Odpowiedniki tych twierdzeń są słusznetakże dla symetrycznych form hermitowskich.
Twierdzenie 12.2 Niech V będzie n-wymiarową zespoloną przestrzenią lin-iową. Każdą symetryczną hermitowską formę kwadratową f : V → C możnasprowadzić do postaci kanonicznej, tzn. istnieje baza {ei}ni=1 w przestrzeni V ,w której forma f ma postać normalną
f(v) =k∑i=1
∣∣vi∣∣2 − r∑i=k+1
∣∣vi∣∣2 ,
gdzie r = rankf .
235
Twierdzenie 12.3 Niech V -będzie n-wymiarową zespoloną przestrzenią lin-iową, a f : V → C symetryczna hermitowską formą kwadratową na V . Niechb = [bij] będzie macierzą formy biegunowej formy f w bazie {ei}ni=1:
f(v) =k∑
i,j=1
bij vivk .
Jeśli wszystkie minory główne macierzy [bij]
∆k =
∣∣∣∣∣∣∣∣∣b11 b12 . . . b1k
b21 b22 . . . b2k...
............
...bk1 bk2 . . . bkk
∣∣∣∣∣∣∣∣∣ , k = 1, 2, . . . , n,
są różne od zera, to istnieje baza {e′i}ni=1 przestrzeni V , w której forma kwadra-towa ma postać
f(v) =∆0
∆1
∣∣v′1∣∣2 +∆1
∆2
∣∣v′2∣∣2 + . . .+∆n−1
∆n
|v′n|2
gdzie ∆0 = 1 i v =n∑i=1
v′ie′i.
Dla symetrycznych hermitowskich form kwadratowych jest słuszny odpowiedniktwierdzenia 10.7 o bezwładności form kwadratowych. Również dowód tego twierdzeniapozostaje bez zmian.
Twierdzenie 12.4 prawo bezwładności Dla każdej symetrycznej hermi-towskiej formy kwadratowej określonej na n-wymiarowej zespolonej przestrzeniliniowej indeksy dodatni i ujemny są niezmiennikami tej formy, tzn. nie zależąod wyboru bazy, w której forma ta ma postać normalną.
236
12.2 Przestrzenie unitarne
Definicja 12.5 Niech V będzie przestrzenią liniową nad ciałem liczb ze-spolonych C. Iloczynem skalarnym na przestrzeni V nazywamysymetryczną formę hermitowską na V
〈 . , . 〉 : V × V 3 (u, v)→ 〈u , v 〉 ∈ C
taką, że odpowiadająca jej hermitowska forma kwadratowa jest dodatniookreślona, tzn. następujące warunki są spełnione:
i. 〈αu+βv , w 〉 = α〈u , w 〉+β〈 v , w 〉 dla dowolnych wektorów u, v, w ∈ Vi dowolnych skalarów α, β ∈ C;
ii. 〈u , v 〉 = 〈 v , u 〉 dla dowolnych wektorów u, v ∈ V ;
iii. 〈 v , v 〉 > 0 dla każdego wektora v ∈ V, v 6= Θ.
Definicja 12.6 Zespół {V, 〈 . , . 〉} gdzie V jest przestrzenią liniową nad ciałemliczb zespolonych C, a 〈 . , . 〉 iloczynem skalarnym na tej przestrzeni, nazywamyprzestrzenią unitarną.
Przykłady:
1. Każda podprzestrzeń wektorowa U przestrzeni unitarnej V , wraz z iloczynemskalarnym indukowanym na U (tzn. otrzymanym przez obcięcie iloczynu skalarnegow V na podprzestrzeń W ) jest przestrzenią unitarną.
2. Cn ze standardowym iloczynem skalarnym
〈v, w〉 =n∑i=1
viwi .
Taką przestrzeń będziemy nazywać standardową przestrzenią unitarną.
3. C([0, 1],C) - przestrzeń funkcji ciągłych na odcinku [0, 1] z iloczynem skalarnym
〈f, g〉 =
1∫0
dxf(x)g(x) .
237
4. l2 =
{{ai}∞i=1 ∈ C∞ :
∞∑i=0
|ai|2 <∞}
- przestrzeń ciągów sumowalnych z kwadratem,
o wyrazach zespolonych z iloczynem skalarnym
〈a, b〉 =∞∑i=0
aibi .
Uwagi:
1. Podobnie jak w przestrzeni euklidesowej definiujemy normę (długość) wektora
‖v‖ =√〈v, v〉
która spełnia nierówność Schwarza, nierówność trójkąta i tożsamość równoległoboku.
2. Pojęcia prostopadłości wektorów, dopełnienia ortogonalnego, bazy ortonormal-nej wprowadzamy tak jak w przestrzeni euklidesowej. Są również prawdziweodpowiedniki twierdzeń 11.5-9 a ich dowody przebiegają identycznie jak w przestrzenieuklidesowej.
12.3 Przekształcenia unitarne
Definicja 12.7 Niech {V, 〈 . , . 〉} będzie przestrzenią unitarną. Przekształce-nie liniowe A : V → V nazywamy przekształceniem unitarnym, jeśli za-chowuje ono iloczyn skalarny, tzn. jeśli
〈Av , Aw 〉 = 〈 v , w 〉
dla dowolnych wektorów v, w ∈ V .
Uwagi:
1. Przekształcenie unitarne jest zawsze monomorfizmem. Rzeczywiście, jeśli v ∈kerA, to 〈 v , v 〉 = 〈Av , Av 〉 = 〈Θ , Θ 〉 = 0, a zatem v = Θ. W przypadkuprzestrzeni skończenie wymiarowej z Tw.8.6. wynika, że przekształcenie unitarnejest automorfizmem.
238
Twierdzenie 12.5 Niech {V, 〈 . , . 〉} będzie n-wymiarową przestrzenią uni-tarną, a A : V → V przekształceniem liniowym. Wtedy następujące warunkisą równoważne:
i. A jest przekształceniem unitarnym;
ii. ‖Av‖ = ‖v‖ dla każdego wektora v ∈ V ;
iii. jeżeli {ei}ni=1 jest bazą ortonormalną przestrzeni V to układ wektorów{Aei}ni=1 jest również bazą ortonormalną tej przestrzeni;
iv. dla dowolnego układu ortonormalnego {ei}ri=1 (r = 1, . . . , n) układ wek-torów {Aei}ri=1 jest również ortonormalny.
Dowód: Przebiega identycznie jak w przestrzeni euklidesowej. •
Definicja 12.8 Niech {V, 〈 . , . 〉} będzie n-wymiarową przestrzenią unitarną.Macierz przekształcenia unitarnego A : V → V względem bazy ortonormalnejprzestrzeni V nazywamy macierzą unitarną stopnia n. Zbiór wszystkichmacierzy unitarnych stopnia n oznaczamy symbolem U(n).
Twierdzenie 12.6 Niech A = [Aij] ∈ Mn×n(C). Następujące warunki sąrównoważne:
i. A jest macierzą unitarną;
ii. kolumny macierzy A, traktowane jako wektory standardowej przestrzeniunitarnej {Cn, 〈 . , . 〉}, tworzą układ ortonormalny;
iii. A†A = 1l;
iv. macierz A jest odwracalna i A−1 = A†;
v. AA† = 1l;
vi. wiersze macierzy A, traktowane jako wektory standardowej przestrzeniunitarnej {Cn, 〈 . , . 〉}, tworzą układ ortonormalny.
Dowód: Przebiega identycznie jak w przestrzeni euklidesowej. •
Twierdzenie 12.7 Zbiór macierzy unitarnych stopnia n jest grupą ze względuna mnożenie macierzy.
239
Definicja 12.9 Grupę, o której mowa w Tw.12.7 nazywamy grupą unitarnąstopnia n i oznaczamy symbolem U(n). Podgrupę tej grupy składającą się zmacierzy unitarnych o wyznaczniku 1 nazywamy specjalną grupą unitarnąstopnia n i oznaczamy symbolem SU(n).
Twierdzenie 12.8 Niech {V, 〈., .〉} będzie przestrzenią unitarną o wymiarzeskończonym n. Dla każdego przekształcenia unitarnego U : V → V istnieje w Vbaza ortonormalna złożona z wektorów własnych przekształcenia U . Wartościwłasne λi przekształcenia U są liczbami zespolonymi o module 1.
Dowód: Dowód przeprowadzimy przez indukcję względem wymiaru przestrzeni. Dlan = 1 twierdzenie jest oczywiste. Załóżmy, że twierdzenie jest słuszne dla przestrzeni n-wymiarowej. Rozważmy przekształcenie unitarne U przestrzeni (n+1)-wymiarowej V .Zgodnie z Tw.9.8 przekształcenie U (jak każde przekształcenie liniowe w przestrzenizespolonej) ma co najmniej jedną jednowymiarową podprzestrzeń własną V1. W V1
wybieramy wektor jednostkowy e1. Tak jak w przypadku rzeczywistym można łatwowykazać, że ortogonalne dopełnienie V ⊥1 jest podprzestrzenią niezmienniczą UV ⊥1 ⊂V ⊥1 . Przekształcenie U obcięte do podprzestrzeni V ⊥1 jest przekształceniem unitarnymprzestrzeni n-wymiarowej i na mocy założenia kroku indukcyjnego istnieje w V ⊥1 bazaortonormalna {ei}n+1
i=2 złożona z wektorów własnych tego przekształcenia. Baza tarozszerzona o wektor e1 jest bazą ortonormalną w V złożoną z wektorów własnychprzekształcenia U . Druga część twierdzenia wynika natychmiast z unitarności przek-ształcenia U . Dla wektorów własnych mamy
〈Uv, Uv〉 = 〈λv, λv〉 = λλ〈v, v〉 ,
skąd |λ| = 1. •
12.4 Sprzężenie hermitowskie przekształcenia liniowego
Twierdzenie 12.9 (Riesza) Niech {V, 〈., .〉} będzie przestrzenią unitarną oskończonym wymiarze. Dla każdej formy liniowej f ∈ V ∗ istnieje dokładniejeden wektor w ∈ V taki, że
f(v) = 〈w, v〉
dla wszystkich v ∈ V .
Dowód: Dowód przebiega identycznie jak w przypadku rzeczywistym. •
240
Twierdzenie 12.10 Niech {V, 〈., .〉}, {W, 〈., .〉} będą przestrzeniami uni-tarnymi (euklidesowymi) o skończonych wymiarach. Jeżeli A : V → W jestprzekształceniem liniowym to istnieje dokładnie jedno odwzorowanie linioweA† : W → V takie, że
〈w,Av〉 = 〈A†w, v〉 (55)
dla wszystkich v ∈ V,w ∈ W .
Dowód: Pokażemy, że równanie (55) określa jednoznacznie odwzorowanie A† : W →V . Istotnie, dla dowolnego wektora w ∈ W odwzorowanie
fw : V 3 v → fw(v) ≡ 〈w,Av〉 ∈ C
jest formą liniową na V . Na podstawie Twierdzenia Riesza istnieje dokładnie jedenwektor v′ ∈ V taki, że
fw(v) = 〈v′, v〉.
Wektor v′ jest więc jednoznacznie określoną wartością A†v odwzorowania A† na wek-torze v.
Korzystając z równanie (55) otrzymujemy
〈A†(αu+ βw), v〉 = 〈αu+ βw,Av〉 = α〈u,Av〉+ β〈w,Av〉= α〈A†u+, A〉+ β〈A†w, v〉 = 〈αA†u+ βA†w, v〉
skąd wobec jednoznaczności określenia przekształcenie A† równaniem (55) wynika jegoliniowość. •
Definicja 12.10 Odwzorowanie A† : W → V , o którym mowa w Tw.12.10nazywamy hermitowskim sprzężeniem odwzorowania A : V → W lub odw-zorowaniem hermitowsko sprzężonym do A.
241
Twierdzenie 12.11 Sprzężenie hermitowskie przekształceń liniowych wskończeniewymiarowych przestrzeniach unitarnych ma następujące własności
i. (A+B)† = A† +B†;
ii. (αA)† = αA†;
iii. (A ◦B)† = B† ◦ A†;
iv. (idV )† = idV ;
v. (A−1)†
=(A†)−1;
vi.(A†)†
= A.
Twierdzenie 12.12 Niech {V, 〈., .〉}, {W, 〈., .〉} będą przestrzeniami uni-tarnymi, a {ei}mi=1, {fj}nj=1 - ortonormalnymi bazami w tych przestrzeniach.Macierz przekształcenia A† : W → V hermitowsko sprzężonego do przeksz-tałcenia A : V → W jest hermitowskim sprzężeniem macierzy przekształceniaA: (
A†)ij
= Aji .
Dowód: Ponieważ obie bazy są ortonormalne macierze przekształceń A i A′ w tychbazach wyrażają się wzorami
Aji = 〈fj, Aei〉 ,(A†)ij
= 〈ei, A†fj〉 .
Z definicji przekształcenia sprzężonego po hermitowsku mamy(A†)ij
= 〈ei, A†fj〉 = 〈A†fj, ei〉
= 〈fj, Aei〉 = Aji
•
242
12.5 Przekształcenia hermitowskie
Definicja 12.11 Niech {V, 〈., .〉} będzie przestrzenią unitarną (euklidesową) owymiarze skończonym. Przekształcenie liniowe A : V → V nazywamy hermi-towskim (symetrycznym) jeżeli
A† = A
i antyhermitowskim (antysymetrycznym) jeżeli
A† = −A.
Twierdzenie 12.13 Niech A : V → V będzie przekształceniem hermitowskim(symetrycznym) przestrzeni unitarnej (euklidesowej) {V, 〈 . , . 〉}. Wtedy
i. wszystkie wartości własne przekształcenia A są rzeczywiste;
ii. wektory własne przekształcenia A odpowiadające różnym wartościomwłasnym przekształcenia A są ortogonalne;
Dowód: Niech v ∈ V będzie wektorem własnym przekształcenia A z wartością własnąλ. Wtedy
〈v,Av〉 = 〈v, λv〉 = λ〈v, v〉
Z drugiej strony〈v,Av〉 = 〈Av, v〉 = 〈λv, v〉 = λ〈v, v〉 .
Ponieważ 〈v, v〉 6= 0, λ = λ, a więc λ ∈ R.Niech v, u ∈ V będą wektorami własnymi A z różnymi wartościami własnymi:
Av = λv , Au = λ′u , λ 6= λ′ .
Mamy wtedy
〈v, Au〉 = λ′〈v, u〉〈v, Au〉 = 〈Av, u〉 = λ〈v, u〉
gdzie skorzystaliśmy z tego, że wartości własne są rzeczywiste. Odejmując równaniastronami otrzymamy
(λ′ − λ)〈v, u〉 = 0.
Ponieważ λ′ − λ 6= 0, 〈v, u〉 = 0. •
243
Twierdzenie 12.14 Jeżeli A : V → V jest przekształceniem hermitowskim(symetrycznym) przestrzeni unitarnej (euklidesowej) {V, 〈., .〉} to istnieje conajmniej jeden wektor własny tego przekształcenia.
Dowód: W przypadku przestrzeni unitarnej twierdzenie wynika natychmiast z za-sadniczego twierdzenia algebry. Rozważymy przypadek przestrzeni euklidesowej. Zzasadniczego twierdzenia algebry wynika, że wielomian charakterystyczny det(A−λ1l)ma co najmniej jeden pierwiastek zespolony λ = α + iβ, α, β ∈ R. Dla tej wartościwłasnej istnieje zespolony wektor własny
Av = λv (56)
który zawsze można przedstawić jako kombinację liniową wektorów rzeczywistych
v = x+ iy .
Zespolone równanie (56) wektorowe jest równoważne dwóm rzeczywistym równaniomwektorowym
Ax = αx− βy , Ay = αy + βx
Korzystając z tych równań oraz z tego, że przekształcenie A jest symetryczne otrzy-mujemy
〈Ax, y〉 = 〈x,Ay〉α〈x, y〉 − β〈y, y〉 = α〈x, y〉+ β〈x, x〉
0 = β(‖x‖2 + ‖y‖2)
i ponieważ ‖x‖2 + ‖y‖2 6= 0 to β = 0, a zatem wartość własna λ = α jest rzeczywista.Wynika stąd że istnieje rzeczywisty wektor własny przekształcenia A. •
Twierdzenie 12.15 Niech {V, 〈 . , . 〉} będzie skończeniewymiarowąprzestrzenią unitarną (euklidesową) a A : V → V przekształceniem her-mitowskim (symetrycznym) tej przestrzeni. Jeżeli podprzestrzeń W ∈ V jestpodprzestrzenią niezmienniczą przekształcenia A to jej ortogonalne dopełnienieW⊥ jest również podprzestrzenią niezmienniczą A.
Dowód: Ponieważ W jest podprzestrzenią niezmienniczą to dla dowolnych wektoróww ∈ W i u ∈ W⊥, 〈Aw|u〉 = 0. Ponieważ A jest przekształceniem hermitowskim(symetrycznym) więc
0 = 〈Aw|u〉 = 〈w|Au〉,
a zatem Au ∈ W⊥ dla każdego u ∈ W⊥. •
244
Twierdzenie 12.16 Jeżeli A : V → V jest przekształceniem hermitowskim(symetrycznym) przestrzeni unitarnej (euklidesowej) {V, 〈., .〉} o wymiarzeskończonym to istnieje baza ortonormalna złożona z wektorów własnych tegoprzekształcenia.
Dowód: Z Tw.12.14 wynika, że istnieje wektor własny v1 przekształcenia A:
Av1 = λ1v1.
Jako pierwszy wektor bazy wybieramy e1 = v1||v1|| . Na mocy Tw.12.15 dopełnienie
ortogonalneV1 = span{e1}⊥
podprzestrzeni generowanej przez wektor v1 jest podprzestrzenią niezmienniczą przek-ształcenia A. Przekształcenie to obcięte do V1 jest przekształceniem hermitowskim(symetrycznym) i na mocy Tw.12.14 ma co najmniej jeden wektor własny v2 ∈ V1.Jako drugi wektor bazy wybieramy e2 = v2
||v2|| i powtarzamy rozumowanie dla ortog-onalnego dopełnienia podprzestrzeni span{e1, e2}. Ponieważ wymiar n = dimV jestskończony, po n krokach uzyskamy n unormowanych, parami ortogonalnych wektorówwłasnych przekształcenia A. •
Wniosek 12.1 Jeżeli A : V → V jest przekształceniem hermitowskim(symetrycznym) przestrzeni unitarnej (euklidesowej) {V, 〈., .〉} o wymiarzeskończonym to V jest sumą prostą wszystkich podprzestrzeni własnych Vλ przek-ształcenia A
V =⊕λ
Vλ
przy czym składniki sumy prostej są do siebie prostopadłe.
Definicja 12.12 Niech {V, 〈., .〉} będzie przestrzenią unitarną (euklidesową)o wymiarze skończonym, a A : V → V - przekształceniem hermitowskim(symetrycznym). Zbiór wszystkich wartości własnych przekształcenia Anazywamy spektrum tego przekształcenia i oznaczamy symbolem specA.Rodzinę {Πλ}λ∈specA rzutów ortogonalnych
Πλ : V → Vλ
na podprzestrzenie własne Vλ nazywamy rodziną spektralną przekształce-nia hermitowskiego (symetrycznego).
245
Twierdzenie 12.17 (spektralne) Jeżeli A : V → V jest przekształceniemhermitowskim (symetrycznym) przestrzeni unitarnej (euklidesowej) {V, 〈., .〉}o wymiarze skończonym to A ma następujący rozkład spektralny:
A =∑
λ∈specA
λΠλ .
Rozkład spektralny jest jednoznaczny.
Uwaga: Jeżeli P jest funkcją wielomianową na R:
P (x) =n∑k=0
akxk
to dla każdego przekształcenia liniowego A : V → V możemy zdefiniować przekształce-nie
P (A) =n∑k=0
akAk
gdzieAk = A ◦ . . . ◦ A︸ ︷︷ ︸
k
, A0 = idV .
W przypadku przekształcenia hermitowskiego (symetrycznego) przestrzeni unitarnej(euklidesowej) o skończonym wymiarze mamy
P (A) =n∑k=0
ak
( ∑λ∈specA
λΠλ
)k
=n∑k=0
ak∑
λ∈specA
λkΠλ
=∑
λ∈specA
P (λ)Πλ
W powyższych przekształceniach skorzystaliśmy z następujących własności rzutów or-togonalnych Πλ : V → Vλ:
i. dla dowolnej, dodatniej liczby całkowitej k, Πkλ = Πλ;
ii. jeżeli λ 6= λ′ to ΠλΠλ′ = Θ.
246
Definicja 12.13 Niech A : V → V będzie przekształceniem hermitowskim(symetrycznym) skończeniewymiarowej przestrzeni unitarnej (euklidesowej){V, 〈., .〉} o rozkładzie spektralnym
A =∑
λ∈specA
λΠλ ,
a f dowolną funkcją określoną na R o wartościach zespolonych (rzeczywistych).Funkcją f od przekształcenia A nazywamy przekształcenie:
f(A) =∑
λ∈specA
f(λ)Πλ
Wniosek 12.2 Niech U : V → V będzie przekształceniem unitarnym skończe-niewymiarowej przestrzeni unitarnej. Wtedy istnieje przekształcenie hermi-towskie A : V → V takie, że
U = exp(iA) = eiA
Dowód: Na podstawie Tw. 12.8 każde przekształcenie unitarne przestrzeni o skońc-zonym wymiarze ma rozkład spektralny w postaci
U =m∑k=1
eiαkΠk
gdzie αk ∈ R dla każdego k. Operator:
A =m∑k=1
αkΠk
jest hermitowski i spełnia równanie U = eiA. •
Twierdzenie 12.18 Niech A : V → V , B : V → V przekształceniami hermi-towskimi (symetrycznymi) w skończeniewymiarowej przestrzeni unitarnej (eu-klidesowej). Jeżeli przekształcenia A i B są przemiennne (komutują), tzn.A ◦B = B ◦ A to mają wspólny wektor własny.
Dowód: Niech Vα będzie podprzestrzenią własną przekształcenia A odpowiadającąwartości własnej α ∈ specA. Dla dowolnego v ∈ Vα mamy
A(Bv) = B(Av) = B(αv) = αBv
247
a zatem Bv ∈ Vα. Wykazaliśmy, że Vα jest podprzestrzenią niezmienniczą przeksz-tałcenia B. Przekształcenie B obcięte do podprzestrzeni Vα jest więc przekształce-niem hermitowskim (symetrycznym) podprzestrzeni unitarnej (euklidesowej), a więcna mocy Tw.12.14 istnieje co najmniej jeden wektor własny v ∈ Vα przekształcenia B
Bv = βv.
•Twierdzenie 12.19 Niech A : V → V , B : V → V przekształceniami her-mitowskimi w skończeniewymiarowej przestrzeni unitarnej. Przekształcenia Ai B są przemienne (komutują), tzn. A ◦ B = B ◦ A wtedy i tylko wtedy gdyistnieje baza składająca się ze wspólnych wektorów własnych tych przekształceń
Dowód:⇐= Jeżeli {vi}ni=1 jest bazą wspólnych wektorów własnych operatorów A i B to dlakażdego i zachodzi
A ◦B(vi) = A(βivi) = βiαivi = αiβivi = B ◦ A(vi)
a zatem A ◦Bv = B ◦ Av dla każdego v ∈ V .=⇒ Jeżeli A◦B = B ◦A to na podstawie Tw.12.18 istnieje wspólny wektor własny v1:
Av1 = α1v1 , Bv1 = β1v1.
Wybieramy v1 jako pierwszy wektor bazy. Na podstawie Tw.12.15 ortogonalne dopełnie-nie podprzestrzeni span{v1}:
V1 = span{v1}⊥
jest podprzestrzenią niezmienniczą przekształceń A i B. Obcięcia przekształceń A i Bdo podprzestrzeni V1 spełniają założenia Tw.12.18, a zatem istnieje wspólny dla tychobcięć wektor własny v2 ∈ V1, który jest także wektorem własnym przekształceń A i B.Powtarzamy rozumowanie dla ortogonalnego dopełnienia podprzestrzeni span{v1, v2}:
V2 = span{v1, v2}⊥
i otrzymujemy wektor v3. Po n = dimV krokach otrzymujemy n parami ortogonalnych,wspólnych wektorów własnych, które tworzą bazę w V . •
13 Tensory
13.1 Tensory - własności transformacyjne
W tym rozdziale przyjmujemy, że wszystkie przestrzenie liniowe mają wymiar skońc-zony. Przeanalizujemy znane nam obiekty na przestrzeni liniowej V z punktu widzeniaich współrzędnych względem bazy w V .
248
1. wektory
W poprzednich wykładach wektor został zdefiniowany jako element przestrzeniliniowej V nad ciałem K. Jako taki jest obiektem niezależnym od wyboru bazyw przestrzeni V . Jeżeli jednak wybierzemy bazę w {ei}di=1 w V to wektor majednoznaczny rozkład:
v =n∑i=1
viei ,
zatem współczynniki tego rozkładu czyli współrzędne wektora względem tej bazysą wyznaczone jednoznacznie. Jeżeli przejdziemy do nowej bazy {e′i′}di′=1 związanejze starą bazą macierzą przejścia S = [Sii′ ]:
e′i′ =n∑i=1
Sii′ei ≡ Sii′ei, (57)
to współrzędne wektora v względem nowej bazy wyrażają się poprzez współrzędnew starej bazie wzorem (Tw.8.12):
v′i′
=(S−1
)i′ivi , (58)
Każdy wektor v ∈ V wyznacza więc odwzorowanie, które każdej bazie w V przy-porządkowuje współrzędne wektora v względem tej bazy, przy czym współrzędnew różnych bazach powiązane są prawem transformacyjnym (58).
Odwrotnie, mając takie przyporządkowanie możemy jednoznacznie i niezależnieod bazy wyznaczyć element v przestrzeni V . Istotnie, dzięki prawu transforma-cyjnemu (58) dla dwóch dowolnych baz w przestrzeni V :
v = viei = v′i′e′i′ .
Wektor możemy więc zdefiniować jako przyporządkowanie każdej bazie współrzęd-nych wektora względem tej bazy w sposób zgodny z prawem transformacyjnym(58).
Zauważmy, że mając współrzędne wektora w jednej bazie i jego prawo transfor-macyjne możemy obliczyć jego współrzędne w każdej innej bazie. Obserwacjata prowadzi do definicji wektora, jako n-ki liczb transformujących się przy prze-jściu od bazy do bazy zgodnie ze wzorem (58). Wzór ten nazywany jest cza-sem prawem transformacyjnym ponieważ opisuje transformacje współrzęd-nych wektora przy przejściu od bazy do bazy. Zmiana współrzędnych charak-terystyczna dla wektorów nosi nazwę kontrawariatnej lub przeciwzmien-niczej. Mówimy też, że współrzędne wektora transformują się kontrawariantnie.
249
2. formy
Przypomnijmy, że formy liniowe zdefiniowaliśmy jako elementy przestrzeni dual-nej V ∗ do przestrzeni V . Jeżeli {ei}ni=1 jest bazą w V to rzuty ei na wektory tejbazy zadane jednoznacznie relacjami
ei(ej) = δij ,
tworzą bazę {ei}ni=1 przestrzeni dualnej V ∗ (Tw.10.1). Każda forma ma więcjednoznaczny rozkład
f =n∑i=1
fiei ,
gdzie fi = f(ei). W Tw.10.2 wykazaliśmy, że przy zmianie bazy (57) współrzędneformy transformują się kowariantnie (współzmienniczo):
f ′i′ = Sii′fi , (59)
Podobnie jak wektory, formy na przestrzeni V możemy zdefiniować jako n-kiliczb, które transformują się kowariantnie przy przejściu od bazy do bazy. Istotneprzy kowariantnym prawie transformacyjnym wyrażenie
f(v) = vifi = ei(v)fi
nie zależy od wyboru bazy.
3. formy dwuliniowe Współrzędne formy dwuliniowej Fij = F (ei, ej) względembazy {ei}ni=1 transformują się zgodnie ze wzorem (Tw.10.3):
F ′i′j′ = Sii′Sjj′fij . (60)
Formę dwuliniową na V możemy więc zdefiniować jako zespół n2 liczb Fij, któretransformują się przy zmianie bazy, zgodnie z prawem (60). Związek z poprzedniądefinicją jest dany przez równanie
F (v, u) = uivjFij = ei(u)ej(v)Fij.
4. przekształcenia liniowe Macierz [Aij] przekształcenia liniowego A : V → Vwzględem bazy {ei}ni=1 została zdefiniowana poprzez równanie:
(Aej) = Aijei .
Elementy macierzowe Aij macierzy przekształcenia A możemy traktować jakowspółrzędne tego obiektu w bazie. Przy zmianie bazy transformują się one zgod-nie z prawem:
A′i′
j′ =(S−1
)i′iSjj′A
ij . (61)
250
Związek z wyjściowym przekształceniem liniowym, które jest obiektem nieza-leżnym od wyboru bazy zadaje równanie:
Av = vjAijei = ej(v)Aijei .
Omówione wyżej przykłady sugerują następującą definicję
Definicja 13.1 Niech V będzie n-wymiarową przestrzenią liniową nad ciałemliczbowym K. Tensorem p-krotnie kontrawariantnym i q-krotniekowariantnym lub tensorem typu (p, q) na przestrzeni V nazywamy przy-porządkowanie T , które każdej bazie przestrzeni V przyporządkowuje układ np+q
elementów ciała K (zwanych składowymi tensora lub współrzędnymi ten-sora w tej bazie):
Ti1...ipj1...jq
, i1, . . . , ip, j1, . . . , jq = 1, . . . , n ,
w ten sposób, że składowe T i1...ipj1...jqtensora T w bazie {ei}ni=1 i składowe T ′
i′1...i′p
j′1...j′q
tensora T w bazie {e′i′}ni′=1 związane są prawem transformacyjnym
T ′i′1...i
′p
j′1...j′q
=(S−1
)i′1i1. . .(S−1
)i′pipSj1j′1
. . . Sjqj′qTi1...ipj1...jq
gdzie Sii′ jest macierzą przejścia od bazy {ei}ni=1 do bazy {e′i′}ni′=1
e′i′ = Sii′ei .
(Dla uproszczenia zapisu korzystamy z umowy sumacyjnej Einsteina.)Liczbę p+ q nazywamy rzędem lub stopniem tensora.
Uwagi:
1. Jeżeli znamy współrzędne tensora T ∈ T pq (V ) w pewnej bazie przestrzeni V toprawo transformacyjne właściwe dla tensorów p-krotnie kontrawariantnych i q-krotnie kowariantnych wyznacza jednoznacznie jego współrzędne w każdej innejbazie.
2. Wektory są tensorami kontrawariantnymi rzędu 1, formy liniowe - tensoramikowariantnymi rzędu 1, formy dwuliniowe - tensorami kowariantnymi rzędu 2,automorfizmy przestrzeni v - tensorami jednokrotnie kowariantnymi i jednokrot-nie kontrawariantnymi rzędu 2.
251
Twierdzenie 13.1 Niech V będzie n-wymiarową przestrzenią liniową nadciałem liczbowym K. Przestrzeń T pq (V ) wszystkich tensorów p-krotnie kon-trawariantnych i q-krotnie kowariantnych na przestrzeni V wraz z działaniamidodawania tensorów
(T + U)i1...ipj1...jq
= Ti1...ipj1...jq
+ Ui1...ipj1...jq
oraz mnożenia tensora przez liczbę
(αT )i1...ipj1...jq
= αTi1...ipj1...jq
jest przestrzenią liniową nad ciałem K.
Dowód: Sprawdzamy, że operacje dodawania tensorów i mnożenia przez skalar sądobrze zdefiniowane, tzn. nie zależą od wyboru bazy. Własności działań w przestrzeniliniowej wynikają łatwo z własności działań w ciele K. •
Definicja 13.2 Niech V będzie n-wymiarową przestrzenią liniową nad ciałemliczbowym K. Iloczynem tensorowym tensora T ∈ T pq (V ) i tensora U ∈T rs (V ) nazywamy tensor T ⊗ U ∈ T p+rq+s (V ), którego współrzędne w dowolnejbazie wyrażają się wzorami
(T ⊗ U)i1...ipk1...krj1...jql1...ls
= Ti1...ipj1...jq
Uk1...krl1...ls
PrzykładNiech {ei}ni=1 będzie bazą w przestrzeni V , a {ei}ni=1 bazą do niej dualną. Jak
wspomnieliśmy wcześniej wektory ei sa tensorami 1-krotnie kontrawariantnymi, a formyei są tensorami 1-krotnie kowariantnymi. Ich współrzędna mają w bazie {ei}ni=1 szczegól-nie prostą postać:
(ei)j = δji , (ei)j = δij .
W tej bazie mamy więc w szczególności:
(ek ⊗ el)i1i2 = δi1k δi2l , (ek ⊗ el)j1j2 = δkj1δ
lj2
, (ek ⊗ el)i1j1 = δi1k δlj1
252
Twierdzenie 13.2 Iloczyn tensorowy tensorów ma następujące własności
i. (αT )⊗ U = T ⊗ (αU) = α(T ⊗ U);
ii. (T1 + T2)⊗ U = T1 ⊗ U + T2 ⊗ U ;
iii. T ⊗ (U1 + U2) = T ⊗ U1 + T ⊗ U2;
iv. T ⊗ (U ⊗W ) = (T ⊗ U)⊗W .
Twierdzenie 13.3 Niech V będzie n-wymiarową przestrzenią liniową nadciałem liczbowym K, {ei}ni=1 - bazą w V , a {ei}ni=1 - bazą dualną w V ∗ Tensory
ei1 ⊗ . . .⊗ eip ⊗ ej1 ⊗ . . .⊗ ejq
gdzie wszystkie indeksy przebiegają niezależnie zbiór {1, . . . , n}, tworzą bazę wprzestrzeni T pq (V ) wszystkich tensorów p-krotnie kontrawariantnych i q-krotniekowariantnych na przestrzeni V .
Dowód: Wystarczy zauważyć, że w bazie {ei}ni=1 współrzędne tensorów, o którychmowa w twierdzeniu mają szczególnie prostą postać:(
ei1 ⊗ . . .⊗ eip ⊗ ej1 ⊗ . . .⊗ ejq)k1,...,kpl1,...,lp
= δk1i1 . . . δkpipδl1j1 . . . δ
lqjq.
Rzeczywiście wszystkie współrzędne są równe zeru z wyjątkiem jednej o indeksachgórnych i1, . . . ip i indeksach dolnych j1, . . . , jq. Z definicji sumy tensorów wynika naty-chmiast, że tensory te są liniowo niezależne i że rozpinają przestrzeń wszystkich ten-sorów typu (p, q). •
Wniosek 13.1 Niech V będzie n-wymiarową przestrzenią liniową nad ciałemliczbowym K. Przestrzeń Fpk (V ) jest np+q wymiarowa.
Definicja 13.3 Niech V będzie n-wymiarową przestrzenią liniową nad ciałemliczbowym K, a T ∈ T pq (V ) tensorem p-krotnie kontrawariantnym i q-krotniekowariantnych stopnia k, przy czym p, q 6= 0. Tensor p− 1 krotnie kontrawari-antny i q− 1 krotnie konwariantny zdefiniowane w dowolnej bazie {ei}ni=1 wzo-rami
Ti1,...,is−1,is+1,...,ipj1,...,jr−1,jr+1,...,jq
=n∑k=1
Ti1,...,is−1,k,is+1,...,ipj1,...,jr−1,k,jr+1,...,jq
nazywamy kontrakcją tensora T względem s-tego wskaźnika kontrawariant-nego i względem r-tego wskaźnika kowariantnego.
253
Uwagi:
1. Łatwo sprawdzić, że kontrakcja jest dobrze określoną operacją na tensorach T ∈T pq (V ) , tzn. nie zależy od wyboru bazy w V .
2. Kontrakcja tensora A typu (1,1) jest skalarem zwanym śladem tensora A. Śladoznaczamy symbolem TrA.
3. Kontrakcja jest przekształceniem liniowym z przestrzeni T ∈ T pq (V ) w przestrzeńT ∈ T p−1
q−1 (V )
13.2 Formy wieloliniowe
Definicja 13.4 Niech V1, . . . , Vk będzie dowolnym ciągiem skończonymskończenie-wymiarowych przestrzeni liniowych nad ciałem liczbowym K.Funkcję
F : V1 × . . .× Vk → K
nazywamy formą k-liniową jeżeli jest ona liniowa ze względu na każdą zmiennąz osobna.Współrzędnymi formy k-liniowej względem baz {e1
i }n1i=1, . . . , {eki }
nki=1 w
przestrzeniach V1, . . . , Vk nazywamy układ n1 · . . . · nk elementów ciałaK:
Fi1...ik = F (e1i1, . . . , ekik) .
Twierdzenie 13.4 Niech V będzie n-wymiarową przestrzenią liniową nadciałem liczbowym K. Przestrzeń wszystkich form p+q-liniowych na przestrzeniV p×(V ∗)q jest izomorficzna z przestrzenią T pq (V ) wszystkich tensorów p-krotniekontrawariantnych i q-krotnie kowariantnych stopnia p+ q.
Uwagi:
1. Zgodnie z Tw.13.4 tensory można zdefiniować jako formy wieloliniowe. W szczegól-ności, automorfizmy przestrzeni V , które są tensorami typu (1, 1) możemy trak-tować jako formy dwuliniowe na przestrzeni V × V ∗:
A : V × V ∗ 3 (v, f)→ f(Av) ∈ K .
2. Takie operacje na tensorach jak iloczyn tensorowy i kontrakcja można zdefiniowaćw języku form wieloliniowych.
254
13.3 Tensory symetryczne i antysymetryczne
Dla form 2-liniowych wprowadziliśmy pojęcie formy symetrycznej i antysymetrycznej.W przypadku tensorów pojęcia te można rozszerzyć na dowolną grupę wskaźnikówtego samego typu, tzn. kowariantnych bądź kontrawariantnych. Zamiana miejscamiwskaźników różnego typu na ogół nie ma sensu ponieważ tak otrzymany obiekt nie jesttensorem. Dla uproszczenia zapisu ograniczymy się do całkowicie symetrycznych, lubcałkowicie antysymetrycznych tensorów typu (p, 0) i (0, q).
Definicja 13.5 Niech T ∈ T p0 (V ), (T ∈ T 0p (V )).
Tensor T jest całkowicie symetryczny jeżeli, dla każdej permutacji σ ∈ Spi dla każdego ciągu wskaźników i1, . . . , ip:
T i1...ip = T iσ(1)...iσ(p) ,(Ti1...ip = Tiσ(1)...iσ(p)
)Podprzestrzeń tensorów symetrycznych oznaczamy symbolem T p+(V ), (T +
p (V )).Tensor T jest całkowicie antysymetryczny jeżeli, dla każdej permutacjiσ ∈ Sp i dla każdego ciągu wskaźników i1, . . . , ip:
T i1...ip = sign(σ)T iσ(1)...iσ(p) ,(Ti1...ip = sign(σ)Tiσ(1)...iσ(p)
)Podprzestrzeń tensorów antysymetrycznych oznaczamy symbolem T p−(V ),(T −p (V )).
255
Definicja 13.6 Symetryzacją tensora T ∈ T 0p (V ) nazywamy operację
T 0p (V ) 3 T → Sym(T ) ∈ T +
p (V )
zadaną w dowolnej bazie wzorem
Sym(T )i1...ip =1
p!
∑σ∈Sp
Tiσ(1)...iσ(p)
)Antsymetryzacją tensora T ∈ T 0
p (V ) nazywamy operację
T 0p (V ) 3 T → Alt(T ) ∈ T −p (V )
zadaną w dowolnej bazie wzorem
Alt(T )i1...ip =1
p!
∑σ∈Sp
sign(σ)Tiσ(1)...iσ(p)
Uwagi:
1. Łatwo sprawdzić, że podane wyżej definicje nie zależą od wyboru bazy.
2. Symetryzacja Sym : T 0p → T +
p i antysymetryzacja Alt : T 0p → T −p mają własności
podobne do operatorów rzutowania:
Sym2 = Sym , Alt2 = Alt .
Jednak tylko dla p = 2 są rzutnikami na składniki sumy prostej
T 02 = T +
2 ⊕ T −2 .
3. Operacje symetryzacji i antysymetryzacji definiujemy identycznie dla tensorówkontrawariantnych.
256
13.4 Algebra zewnętrzna
Definicja 13.7 Niech K będzie ciałem, A - niepustym zbiorem, a +, ?, · funkc-jami:
+ : A× A 3 (u, v) −→ u+ v ∈ A? : A× A 3 (u, v) −→ u ? v ∈ A· : K× A 3 (α, v) −→ αv ∈ A
zespół (A,K,+, ?, ·) nazywamy algebrą nad ciałem K jeżeli spełnione sąnastępujące warunki
i. zespół (A,K,+, ·) jest przestrzenią liniową nad ciałem K;
ii. działanie ? jest obustronnie rozdzielne względem działania +, tzn.∀u, v, w ∈ A :
u ? (v + w) = u ? v + u ? w
(v + w) ? u = v ? u+ w ? u
iii. ∀u, v ∈ A , α ∈ K : α(u ? v) = (αu) ? v = u ? (αv) .
Działanie + nazywamy dodawaniem, a działanie ? - mnożeniem w algebrzeA.Jeżeli mnożenie w algebrze jest łączne, istnieje względem niego element neu-tralny, jest przemienne to mówimy, że algebra jest, odpowiednio, łączna, zjedynką, abelowa.
Uwaga: Warunki ii i iii oznaczają, że mnożenie w algebrze jest odwzorowaniem 2-liniowym.
Przykłady:
1. Przestrzeń macierzy kwadratowych Mn×n(K) o wyrazach z ciała K wraz z do-dawaniem i mnożeniem macierzy, oraz mnożeniem macierzy przez element z ciałajest algebrą łączną, z jedynką nad K.
2. Przestrzeń wielomianów nad ciałem K wraz z dodawaniem i mnożeniem wielomi-anów, oraz mnożeniem wielomianów przez element z ciała jest algebrą abelową,łączną, z jedynką nad K.
3. Przestrzeń funkcji ciągłych na odcinku [a, b] o wartościach zespolonych wraz z do-dawaniem i mnożeniem funkcji, oraz mnożeniem funkcji przez liczbę jest algebrą
257
abelową, łączną, z jedynką nad C.
W zastosowaniach w fizyce występuje często specjalny typ algebry zwany algebrąLiego:
Definicja 13.8 Algebrę (A,K,+, ?, ·) nazywamy algebrą Liego jeżeli mnoże-nie w tej algebrze spełnia następujące warunki
i. ∀u ∈ A : u ? u = Θ.
ii. ∀u, v, w ∈ A : u ? (v ? w) + w ? (u ? v) + v ? (w ? u) = Θ .
Uwagi:
1. Drugi warunek w tej definicji nosi nazwę tożsamości Jacobiego.
2. Niech (A,K,+, ?, ·) będzie algebrą łączną. Działanie w A określone wzorem
[ , ] : A× A 3 (u, v)→ [u, v] ≡ u ? v − v ? u ∈ A
nosi nazwę komutowania, a jego wynik [u, v] nazywamy komutatorem ele-mentów u i v. Można wykazać, że tak zdefiniowane mnożenie nadaje przestrzeniwektorowej (A,K,+, ·) strukturę algebry Liego. Ze względu na tę klasę przykładówmnożenie w dowolnej algebrze Liego oznacza się zwykle symbolem komutatora.
Definicja 13.9 Niech V będzie n-wymiarową przestrzenią wektorową nadciałem K.Zupełnie antysymetryczne tensory kontrawariantne rzędu k na przestrzeni Vnazywamy k-wektorami na przestrzeni V . Przestrzeń wszystkich k-wektorówoznaczamy symbolem Λk(V ). Przyjmujemy Λ0(V ) = K. Przestrzeń wielowek-torów różnych rzędów definiujemy jako sumę prostą
Λ(V ) =n⊕k=0
Λk(V ) .
Zupełnie antysymetryczne tensory kowariantne rzędu k na przestrzeni V nazy-wamy k-formami zewnętrznymi na przestrzeni V . Przestrzeń wszystkichk-form zewnętrznych oznaczamy symbolem Λk(V ∗). Przyjmujemy Λ0(V ) = K.Przestrzeń form zewnętrznych różnych rzędów definiujemy jako sumę prostą
Λ(V ∗) =n⊕k=0
Λk(V ∗) .
258
Uwagi:
1. Zgodnie z poprzednio wprowadzonymi oznaczeniami:
Λk(V ) = T k− (V ) , Λk(V ∗) = T −k (V ) .
2. Dla k > n, Λk(V ) = {Θ}, Λk(V ∗) = {Θ}.
3. Pojęcie sumy prostej wprowadziliśmy dla podprzestrzeni przestrzeni liniowej.Łatwo je jednak rozszerzyć do sumy prostej dowolnych przestrzeni liniowych U, Vnad tym samym ciałem przy pomocy następującej konstrukcji. Niech U × Vbędzie iloczynem kartezjańskim przestrzeni liniowych. Zbiór ten wraz z działa-niami
(u, v) + (u′, v′) = (u+ u′, v + v, )
α(u, v) = (αu, αv)
tworzy strukturę przestrzeni liniowej nad K, którą nazywamy sumą prostą U⊕Vprzestrzeni U i V . Łatwo sprawdzić, że podzbiory
U ′ = {(u,Θ), u ∈ U} , V ′ = {(Θ, v), v ∈ V }
są podprzestrzeniami zdefiniowanej wyżej U ⊕ V i że
U ⊕ V = U ′ ⊕ V ′
w sensie starej definicji.
Dalsze rozważania przebiegają identycznie dla k-wektorów i k-form zewnętrznych.Dla przejrzystości wykładu i z powodu znacznie szerszego, w porównaniu z wielowek-torami, zastosowania form zewnętrznych skupimy się na tym drugim przypadku.
259
Definicja 13.10 Niech V będzie n-wymiarową przestrzenią wektorową nadciałem K., a V ∗ przestrzenią do niej dualną.Iloczyn zewnętrzny w przestrzeni Λ(V ∗) definiujemy następująco.Jeżeli Q ∈ Λi(V ∗) i P ∈ Λk(V ∗) to przyjmujemy
Q ∧ P = Alt(Q⊗ P ) ∈ Λi+k(V ∗).
Definicję tę rozszerzamy przez liniowość na dowolne formy zewnętrzne. Jeżeli
Q =n∑k=0
Qk , P =n∑k=0
Pk , Qk, Pk ∈ Λk(V ∗)
to
Q ∧ P =n∑
i,j=1
Qi ∧ Pj =n∑k=0
∑i+j=k
Qi ∧ Pj.
Uwagi:
1. Iloczyn zewnętrzny jest odwzorowaniem dwuliniowym definiuje więc w Λ(V ∗)strukturę algebry.
2. 1 ∈ K ⊂ Λ(V ∗) jest elementem neutralnym względem iloczynu zewnetrznego.
3. Stosuje się także inną definicję iloczynu zewnętrznego, w której dla Q ∈ Λi(V ∗)i P ∈ Λk(V ∗) przyjmujemy
Q ∧ P =(i+ j)!
i!j!Alt(Q⊗ P ) ∈ Λi+k(V ∗).
Własności algebraiczne takiego iloczynu są takie same jak iloczynu z Def.13.10.Inny jest związek z iloczynem tensorowym.
Definicja 13.11 Niech V będzie n-wymiarową przestrzenią wektorową nadciałem K., a V ∗ przestrzenią do niej dualną.Przestrzeń form zewnętrznych Λ(V ∗) wraz z iloczynem zewnętrznym nazywamyalgebrą zewnętrzną albo algebrą Grassmanna nad przestrzenią V ∗.
Twierdzenie 13.5 Dla dowolnych tensorów Q ∈ T 0q (V ) i P ∈ T 0
p (V ) za-chodzą równości
Alt(Alt(Q)⊗ P ) = Alt(Q⊗ Alt(P )) = Alt(Q⊗ P ) .
260
Dowód: Z definicji
Alt(Q)i1...iq =1
q!
∑τ∈Sq
sign(τ)Qiτ(1)...iτ(q)
oraz
Alt(Alt(Q)⊗ P )i1...iqiq+1...iq+p
=1
(q + p)!
∑σ∈Sq+p
sign(σ)Alt(Q)iσ(1)...iσ(q)Piσ(q+1)...iσ(q+p)
=1
q!
∑τ∈Sq
1
(q + p)!
∑σ∈Sq+p
sign(σ)sign(τ)Qiσ(τ(1))...iσ(τ(q))Piσ(q+1)...iσ(q+p)
Każde τ ∈ Sq możemy rozszerzyć do permutacji τ ∈ Sq+p przyjmując
τ(i) = i dla q < i ≤ q + p .
Dla każdego τ ∈ Sq mamy zatem
1
(q + p)!
∑σ∈Sq+p
sign(σ)sign(τ)Qiσ(τ(1))...iσ(τ(q))Piσ(q+1)...iσ(q+p)
=1
(q + p)!
∑σ∈Sq+p
sign(σ ◦ τ)Qiσ◦τ(1)...iσ◦τ(q)Piσ◦τ(q+1)...iσ◦τ(q+p)
=1
(q + p)!
∑σ∈Sq+p
sign(σ)Qiσ(1)...iσ(q)Piσ(q+1)...iσ(q+p) .
a stąd
Alt(Alt(Q)⊗ P )i1...iqiq+1...iq+p = Alt(Q⊗ P )i1...iqiq+1...iq+p .
W podobny sposób wykazujemy, że
Alt(Q⊗ Alt(P ))i1...iqiq+1...iq+p = Alt(Q⊗ P )i1...iqiq+1...iq+p .
•
Twierdzenie 13.6 Niech V będzie n-wymiarową przestrzenią wektorową nadciałem K., a V ∗ przestrzenią do niej dualną.Algebra zewnętrzna Λ(V ∗) jest łączna.
261
Dowód: Mamy wykazać, że dla dowolnych form zewnętrznych
(Q ∧ P ) ∧R = Q ∧ (P ∧R) .
Wobec dwuliniowości iloczynu zewnętrznego wystarczy to wykazać dla form zewnętrznychokreślonego rzędu. Niech Q ∈ Λq(V ∗), P ∈ Λp(V ∗) i R ∈ Λr(V ∗). Z definicji iloczynuzewnętrznego mamy
(Q ∧ P ) ∧R = Alt(Alt(Q⊗ P )⊗R) .
Z poprzedniego twierdzenia
Alt(Alt(Q⊗ P )⊗R) = Alt((Q⊗ P )⊗R) .
Korzystając z łączności iloczynu tensorowego i raz jeszcze z poprzedniego twierdzeniaotrzymujemy
Alt((Q⊗ P )⊗R) = Alt(Q⊗ (P ⊗R)) = Alt(Q⊗ Alt(P ⊗R)) = Q ∧ (P ∧R) .
•
Wniosek 13.2 Niech V będzie n-wymiarową przestrzenią wektorową nadciałem K, a V ∗ przestrzenią do niej dualną. Dla dowolnych 1-form f 1, . . . , fk ∈V ∗
f 1 ∧ f 2 ∧ . . . ∧ fk = Alt(f 1 ⊗ f 2 ⊗ . . .⊗ fk) .
Twierdzenie 13.7 Niech {ei}ni=1 będzie bazą w przestrzeni dualnej V ∗ doprzestrzeni liniowej V . k-formy
ei1 ∧ ei2 ∧ . . . ∧ eik , 1 ≤ i1 < i2 < . . . < ik ≤ n ,
tworzą bazę w przestrzeni k-form Λk(V ∗).
Dowód: Na mocy Tw.13.3 dowolny tensor Q ∈ Λk(V ∗) można przedstawić w postaci
Q =n∑
i1,...,ik=1
Qi1...ikei1 ⊗ . . .⊗ eik .
Ponieważ dla Q ∈ Λk(V ∗) to Q = Alt(Q) i korzystając z Wniosku 13.2 mamy
Q = Alt(Q) =n∑
i1,...,ik=1
Qi1...ikAlt(ei1 ⊗ . . .⊗ eik) =n∑
i1,...,ik=1
Qi1...ikei1 ∧ . . . ∧ eik .
262
Z Wniosku 13.2. wynika, że iloczyn zewnętrzny elementów bazy {ei}ni=1
ei1 ∧ . . . ∧ eik
jest zerem jeśli dowolny wskaźnik się powtarza co najmniej dwukrotnie (ik = il dlapewnych k 6= l). Jeżeli zaś wszystkie wskaźniki są różne to iloczyn taki różni siętylko znakiem od iloczynu, w którym wskaźniki uporządkowane są rosnąco. Wykazal-iśmy więc, że iloczyny ze wskaźnikami uporządkowanymi rosnąco rozpinają przestrzeńΛk(V ∗).
Wykażemy, że jest to układ liniowo niezależny. Załóżmy, że∑i1<...<ik
αi1...ikei1 ∧ . . . ∧ eik = Θ .
Wtedy na mocy Wniosku 13.2∑i1<...<ik
αi1...ikAlt(ei1 ⊗ . . .⊗ eik) = Θ
i zgodnie z definicją antysymetryzacji∑i1<...<ik
αi1...ik1
k!
∑σ∈Sk
eiσ(1) ⊗ . . .⊗ eiσ(k) = Θ
W sumie po permutacjach tylko jeden wyraz, odpowiadający σ = id ma indeksyuporządkowane rosnąco. Sumę po lewej stronie możemy więc zapisać w postaci∑
i1<...<ik
αi1...ik1
k!ei1 ⊗ . . .⊗ eik + . . . = Θ (62)
gdzie kropki oznaczają kombinację liniową tensorów ei1 ⊗ . . . ⊗ eik z indeksami nieuporządkowanymi rosnąco. Ponieważ na mocy Tw.13.3 iloczyny
ei1 ⊗ . . .⊗ eik
tworzą bazę w przestrzeni T 0k (V ) wszystkie współczynniki kombinacji (62) muszą
znikać, w szczególności1
k!αi1...ik = 0
dla dowolnego ciągu wskaźników 1 ≤ i1 < . . . < ik ≤. •
Wniosek 13.3 Niech V będzie n-wymiarową przestrzenią wektorową nadciałem K, a V ∗ przestrzenią do niej dualną. Wtedy
dim Λq(V ∗) =
(nq
)=
n!
(n− q)!q!, dim Λ(V ∗) = 2n .
263
Twierdzenie 13.8 Niech V będzie n-wymiarową przestrzenią wektorową nadciałem K, a V ∗ przestrzenią do niej dualną. Wtedy
dim Λq(V ∗) =
(nq
)=
n!
(n− q)!q!, dim Λ(V ∗) = 2n .
Twierdzenie 13.9 Niech V będzie n-wymiarową przestrzenią wektorową nadciałem K., a V ∗ przestrzenią do niej dualną. Jeżeli Q ∈ Λq(V ∗) i P ∈ Λp(V ∗)to
Q ∧ P = (−1)qpP ∧Q .
Dowód: Dzięki dwuliniowości iloczynu zewnętrznego wystarczy udowodnić twierdze-nie dla dowolnych elementów baz w Λp(V ∗) i Λq(V ∗)
ei1 ∧ . . . ∧ eiq , ej1 ∧ . . . ∧ ejp .
Zauważmy, że
ei ∧ ej = Alt(ei ⊗ ej) =1
2(ei ⊗ ej − ej ⊗ ei) = −ej ∧ ei .
Stosując ten związek q-krotnie otrzymujemy
ei1 ∧ . . . ∧ eiq ∧ ej1 = (−1)qej1 ∧ ei1 ∧ . . . ∧ eiq ,
a zatem
ei1 ∧ . . . ∧ eiq ∧ ej1 ∧ . . . ∧ ejp = (−1)qpej1 ∧ . . . ∧ ejp ∧ ei1 ∧ . . . ∧ eiq .
•
Twierdzenie 13.10 Niech {ei}ni=1 będzie bazą w przestrzeni dualnej V ∗ doprzestrzeni liniowej V . Dla dowolnego układu {f i}ni=1 1-form
f i = f ijej
mamyf 1 ∧ f 2 ∧ . . . ∧ fn = det[f ij ] e
1 ∧ e2 ∧ . . . ∧ en.
Dowód: Z łączności i dwuliniowości iloczynu zewnętrznego mamy
f 1 ∧ f 2 ∧ . . . ∧ fk = f 1i1. . . fnine
i1 ∧ . . . ∧ ein .
264
w sumie tej znikają wszystkie wyrazy zawierające iloczyny ei1 ∧ . . .∧ ein , w których conajmniej dwa wskaźniki się powtarzają. Możemy zatem zapisać tę sumę jako sumę popermutacjach:
f 1 ∧ f 2 ∧ . . . ∧ fk =∑σ∈Sn
f 1σ(1) . . . f
nσ(n)e
σ(1) ∧ . . . ∧ eσ(n) .
Z drugiej strony, korzystając z Tw.13.10 można wykazać, że
eσ(1) ∧ . . . ∧ eσ(n) = sign(σ)e1 ∧ . . . ∧ en ,
a zatem
f 1 ∧ f 2 ∧ . . . ∧ fk =∑σ∈Sn
sign(σ)f 1σ(1) . . . f
nσ(n)e
1 ∧ . . . ∧ en
= det[f ij ] e1 ∧ . . . ∧ en .
•
265
14 Przestrzenie afiniczne
14.1 Definicja
Definicja 14.1 Niech A będzie zbiorem, V - przestrzenią liniową nad ciałemR(C), a → - odwzorowaniem
→ : A× A 3 (A,B)→ −−→AB ∈ V.
Zespół (A, V, →) nazywamy rzeczywistą (zespoloną) przestrzeniąafiniczną jeżeli odwzorowanie → ma następujące własności:
i. dla każdego A ∈ A i każdego v ∈ V istnieje dokładnie jeden elementB ∈ A taki, że −−→
AB = v ;
ii. dla dowolnych elementów A,B,C ∈ A zachodzi:
−−→AB +
−−→BC =
−−→AC .
Elementy zbioru A nazywamy punktami przestrzeni afinicznej, przestrzeńliniową V - przestrzenią stowarzyszoną z przestrzenią afiniczną lubprzestrzenią styczną do przestrzeni afinicznej, a jej elementy - wek-torami swobodnymi na przestrzeni afinicznej lub wektorami stycznymi doprzestrzeni afinicznej. Wymiarem przestrzeni afinicznej nazywamy wymiarjej przestrzeni stowarzyszonej.
Uwagi:
1. Podobnie jak w przypadku przestrzeni liniowej na oznaczenie przestrzeni afinicznejużywamy często tylko symbolu zbioru punktów A zamiast pełnego oznaczenia(A, V, →).
2. Każdą przestrzeń liniową V można traktować jako przestrzeń afiniczną (V, V, →)z odwzorowaniem
→ : V × V 3 (v, w)→ −−→vw = w − v ∈ V.
266
Twierdzenie 14.1 Niech (A, V, →) będzie przestrzenią afiniczną. Dla dowol-nych punktów A,B ∈ A zachodzi
i.−−→AA = Θ ;
ii.−−→AB = −−−→BA .
Definicja 14.2 Niech (A, V, →) będzie przestrzenią afiniczną, a v dowolnymwektorem w przestrzeni stowarzyszonej V .Odwzorowanie
Tv : A 3 A→ A+ v ∈ A ,
którego wartość A + v w punkcie A jest wyznaczona jednoznacznie przezwarunek −−−−−→
A(A+ v) = v
nazywamy przesunięciem równoległym lub translacją o wektor v.
Uwagi:
1. To, że warunek podany w definicji wyznacza translację Tv jednoznacznie wynikanatychmiast z warunku i Def.14.1.
2. W Def.14.2 użyty został symbol A+v na oznaczenie wyniku translacji punktu Ao wektor v. Użycie symbolu dodawania ma swoje uzasadnienie we własnościachtranslacji, o których mówią kolejne twierdzenia.
Twierdzenie 14.2 Niech (A, V, →) będzie przestrzenią afiniczną. Dla kazdegov ∈ V translacja o wektor v jest bijekcja zbioru A na siebie.
Dowód: Injektywność translacji wynika natychmiast z warunku i Def.14.1. Wykażemy,że translacja jest odwzorowaniem surjektywnym. Niech A ∈ A będzie dowolnym punk-tem. Z warunku i Def.14.1. wynika, że istnieje dokładnie jeden punkt B taki, że
−−→AB = −v ,
i dokładnie jeden punkt C taki,że−−→BC = v .
Z warunku ii Def.14.1. mamy więc−−→AB +
−−→BC = −v + v = Θ =
−−→AA ,
267
skąd A = C. Ponieważ z definicji translacji C = B + v, zatem A = B + v. •
Twierdzenie 14.3 Niech (A, V, →) będzie przestrzenią afiniczną. Dla dowol-nych punktów A,B ∈ A i wektorów v, w ∈ V zachodzi
i. A+−−→AB = B ;
ii. (A+ v) + w = A+ (v + w) ;
iii.−−−−−−−→A(B + v) =
−−→AB + v =
−−−−−−−→(A− v)B .
Dowód:i. Ta część twierdzenia wynika natychmiast z definicji translacji.ii. Z definicji translacji v =
−−→AB , gdzie B = A + v oraz w =
−−→BC , gdzie C = B + w.
Mamy zatem
(A+ v) + w = B + w = C = A+−−→AC = A+ (
−−→AB +
−−→BC ) = A+ (v + w) ,
gdzie skorzystaliśmy z poprzedniego punktu i własności ii. Def.14.1.iii. Z definicji translacji v =
−−→BC , gdzie C = B+ v oraz −v =
−−→AD , gdzie D = A− v.
Mamy zatem
−−−−−−−→A(B + v) =
−−→AC =
−−→AB +
−−→BC =
−−→AB + v
=−−→AB −−−→AD =
−−→DB =
−−−−−−−→(A− v)B .
•
Wniosek 14.1 Translacje w przestrzeni afinicznej (A, V, →) wraz zeskładaniem tworzą grupę abelową izomorficzną z grupą (V,+).
Definicja 14.3 Układem odniesienia (układem współrzednych) wprzestrzeni afinicznej (A, V, →) o skończonym wymiarze nazywamy zespół(O, e1, . . . , en) złożony z punktu O ∈ A zwanego punktem odniesienia i bazy{ei}ni=1 w przestrzeni stowarzyszonej V .Współrzędnymi punktu A ∈ A względem układu (O, e1, . . . , en) nazywamywspółrzędne wektora
−−→OA względem bazy {ei}ni=1. Punkt A o współrzędnych
(a1, . . . .an) oznaczamy symbolem A(a1, . . . , an).
268
Twierdzenie 14.4 Niech (O, e1, . . . , en) będzie układem odniesienia wprzestrzeni afinicznej (A, V, →). Dla dowolnych punktów A(a1, . . . , an) i
B(b1, . . . , bn) i dowolnego wektora v =n∑i=1
viei zachodzi
i.−−→AB =
n∑i=1
(bi − ai)ei ,
ii.−−−−−−−→O(A+ v) =
n∑i=1
(ai + vi)ei .
Twierdzenie 14.5 Niech (O, e1, . . . , en) i (O′, e′1, . . . , e′n)będą układami
odniesienia w przestrzeni afinicznej (A, V, →). Niech (x1, . . . , xn) będąwspółrzędnymi punktu względem układu (O, e1, . . . , en), a S macierzą przejściaod bazy {ei}ni=1 do bazy {e′i}ni=1:
e′j =n∑i=1
Sijei .
Współrzędne punktu A względem układów (O, e1, . . . , en) i (O′, e′1, . . . , e′n)
A = A(a1, . . . , an) = A(a′1, . . . , a′
n)
są powiązane związkiem
a′i
=n∑j=1
(S−1
)ij(aj − xj)
269
14.2 Podprzestrzenie afiniczne
Definicja 14.4 Niech (A, V, →) będzie przestrzenią afiniczną o skończonymwymiarze, A - ustalonym punktem w A, a U - podprzestrzenią liniowąprzestrzeni V . Podprzestrzeń U nazywamy podprzestrzenią kierunkowąpodprzestrzeni afinicznej P. Zbiór
P = A+ U ≡ {A+ u : u ∈ U}.
nazywamy podprzestrzenią afiniczną w kierunku podprzestrzeni U prze-chodzącą przez punkt A.Gdy dimU = 1 to podprzestrzeń P nazywamy prostą, a gdy dimU = dimV −1- hiperpłaszczyzną.
Twierdzenie 14.6 Jeżeli P = A+U jest podprzestrzenią afiniczną przestrzeniafinicznej (A, V, →) to zespół (P, U, →|P×P) jest przestrzenią afiniczną.
Twierdzenie 14.7 Niepusty podzbiór P przestrzeni afinicznej (A, V, →) jestpodprzestrzenią afiniczną wtedy i tylko wtedy gdy wraz z dowolnymi dwomapunktami zawiera prosta przechodzącą przez te punkty.
Dowód: ⇐ Załóżmy, że zbiór P ma wymieniona własność. Niech P będzie dowolnympunktem w P. Wystarczy pokazać, że podzbiór
U = {−−→PQ : Q ∈ P}
jest podprzestrzenią liniową w V . Jeżeli u1, u2 ∈ U to istnieją punkty Q1, Q2 ∈ P takie,że
u1 =−−−→PQ1 , u2 =
−−−→PQ2 .
Zgodnie z założeniem do P należy także prosta przechodząca przez te punkty:
{Q1 + λ−−−−→Q1Q2 : λ ∈ K},
czyli każdy punkt postaci
Q1 + λ−−−−→Q1Q2 = P +
−−→PQ1 + λ
−−−−→Q1Q2 = P +
−−→PQ1 + λ(−−−−→PQ1 +
−−−→PQ2 ) .
Pokazaliśmy więc, że jeżeli u1, u2 ∈ U to także
u1 + λ(u2 − u1) ∈ U
270
dla dowolnego λinK. Dla u1 = Θ otrzymujemy implikację
u2 ∈ U ⇒ λu2 ∈ U ,
a dla λ = 12
ciąg implikacji
u1, u2 ∈ U ⇒1
2(u1 + u2) ∈ U ⇒ 2
1
2(u1 + u2) = u1 + u2 ∈ U .
•
Wniosek 14.2 Jeżeli P,P′ są podprzestrzeniami afinicznymi przestrzeniafinicznej (A, V, →) to ich przekrój P ∩ P′ jest albo zbiorem pustym, albo pod-przestrzenią afiniczną. W tym drugim przypadku jeśli U,U ′ są podprzestrzeni-ami kierunkowymi dla, odpowiednio, P,P′, to U ∩ U ′ jest podprzestrzeniąkierunkową dla P ∩ P′.
Definicja 14.5 Mówimy, że punkty A0, A1, . . . , Am przestrzeni afinicznej(A, V, →) są w położeniu ogólnym lub są afinicznie niezależne jeżeli nieleżą w żadnej m− 1-wymiarowej podprzestrzeni afinicznej.
Twierdzenie 14.8 Jeżeli punkty A0, A1, . . . , Am przestrzeni afinicznej(A, V, →) są w położeniu ogólnym to istnieje dokładnie jedna m-wymiarowapodprzestrzeń afiniczna przechodząca przez te punkty.
Definicja 14.6 Mówimy, że podprzestrzenie afiniczne P = P+U i P′ = P ′+U ′
przestrzeni afinicznej (A, V, →) są równoległe jeżeli U ⊂ U ′ lub U ′ ⊂ U .Podprzestrzenie afiniczne rozłączne i nierównoległe nazywamy skośnymi.
Twierdzenie 14.9 Dla każdego punktu A i dla każdej m-wymiarowej pod-przestrzeni afinicznej P przestrzeni afinicznej (A, V, →) istnieje dokładniejedna m-wymiarowa podprzestrzeń afiniczna P′ przechodząca przez punkt A irównoległa do P. Jeżeli A ∈ P to P = P′. Jeżeli A /∈ P to podprzestrzenie P,P′są rozłączne.
271
14.3 Przekształcenia afiniczne
Definicja 14.7 Niech (A, V, →), (B,W, →) będą przestrzeniami afinicznymi,przy czym przestrzenie U,W są nad tym samym ciałem KOdwzorowanie f : A → B nazywamy przekształceniem afinicznym jeżeliistnieje przekształcenie liniowe F : V → W takie, że dla dowolnego punktuA ∈ A i dowolnego wektora v ∈ V
f(A+ v) = f(A) + Fv .
Przekształcenie liniowe F nazywa się częścią liniową (różniczką) przek-ształcenia f i oznaczamy symbolem Df . Izomorfizmem przestrzeniafinicznych nazywamy przekształcenie afiniczne, które jest bijekcją.
Uwagi:
1. Warunek występujący w Def.14.6 można sformułować w sposób równoważnynastepująco:
istnieje przekształcenie liniowe F : V → W takie, że dla dowolnych punktówA,B ∈ A : −−−−−−−→
f(A)f(B) = Df−→AB .
2. Translacje Tv są przekształceniami afinicznymi, przy czymDTv = idV .
3. Przekształcenie afiniczne f : A → B jest całkowicie wyznaczone przez wartośćf(A0) w jednym, dowolnie wybranym punkcie A0 ∈ A i przez swoją część liniowąDf . Dla każdego A ∈ A mamy bowiem
f(A) = f(A0 +−−−→A0A ) = f(A0) +Df
−−−→A0A .
Twierdzenie 14.10 Przekształcenie afiniczne f : A → B jest bijekcją wtedyi tylko wtedy gdy jego różniczka Df : V → W jest izomorfizmem przestrzeniliniowych.
Dowód: Jeżeli f jest przekształceniem afinicznym to dla dowolnych A,B ∈ A
f(A) = f(B) +Df−−→AB ,
więcf(A) = f(B) ⇔ Df
−−→AB = Θ .
272
Jeżeli f : A→ B jest bijekcją to f(A) = f(B)⇒ A = B, zatem, dla dowolnego v ∈ V
Dfv = Θ ⇒ f(A) = f(A+ v) ⇒ A = A+ v ⇒ v = Θ.
Jeżeli Df : V → W jest bijekcją to Dfv = 0 ⇒ v = Θ, zatem
f(A) = f(B) ⇒ Df−−→AB = Θ ⇒ −−→
AB = Θ ⇒ A = B.
•
Twierdzenie 14.11 Przestrzenie afiniczne nad tym samym ciałem i o tymsamym, skończonym wymiarze są izomorficzne.
Dowód: Niech (A, V, →), (B,W, →) będą przestrzeniami afinicznymi o tym samymwymiarze, tzn. dimV = dimW . Na mocy Tw.8.5 przestrzenie V i W są izomorficzne.Izomorfizm F : V → W można skonstruować tak jak w dowodzie Tw.8.5. wybierającdowolne bazy {ei}ni=1, {fi}ni=1 w przestrzeniach, odpowiednio, V i W i przyjmując
Fv = F
(n∑i=1
viei
)=
n∑i=1
vifi .
Przekształcenie afiniczne f : A → B konstruujemy korzystając z uwagi 3 po Def.14.6.Wybieramy dowolne dwa punkty A0 ∈ A i B0 ∈ B i przyjmujemy dla dowolnego A ∈ A:
f(A) = B0 + F−−−→A0A .
Łatwo sprawdzić, że tak zdefiniowane przekształcenie jest afiniczne. Na mocy poprzed-niego twierdzenia jest bijekcją. •
Twierdzenie 14.12 Niech (A, V, →) będzie n-wymiarową przestrzeniąafiniczną nad ciałem K. Zbiór Aff(A) wszystkich automorfizmów afinicznychprzestrzeni A jest grupą ze względu na składanie odwzorowań.
Dowód:Złożenie automorfizmów afinicznych jest automorfizmem afinicznym:
f ◦ g(A+ v) = f(g(A+ v)) = f(g(A) +Dg(v))
= f(g(A)) +Df(Dg(v)) = f ◦ g(A) +Df ◦Dg(v).
składanie odwzorowań jest więc działaniem łącznym w Aff(A). Odwzorowanie tożsamoś-ciowe jest przekształceniem afinicznym z częścią liniową DidA = idV istnieje więc wAff(A) element neutralny.
273
Pozostaje wykazać, że odwzorowanie f−1 odwrotne do automorfizmu afinicznego fjest automorfizmem afinicznym. Ustalmy A0 ∈ A. Odwzorowanie zadane dla dowol-nego A ∈ A wzorem
g(A) = f−1(A0) + (Df)−1−−−→A0A
jest bijekcją i odwzorowaniem afinicznym. Jest także odwrotne do f . Istotnie
f ◦ g(A) = f(f−1(A0) + (Df)−1−−−→A0A )
= f ◦ f−1(A0) +Df ◦ (Df)−1)
= A0 +−−−→A0A = A.
•
Uwagi:
1. OdwzorowanieD : Aff(A) 3 f → Df ∈ GL(V )
jest homomorfizmem grup. w szczególności (jak widzieliśmy w dowodzie poprzed-niego twierdzenia) Df−1 = (Df)−1.
2. Grupę Aff(A) nazywamy grupą afiniczną przestrzeni afinicznej A. Grupyafiniczne przestrzeni izomorficznych są izomorficzne. Dla przestrzeni afinicznejo skończonym wymiarze struktura grupy Aff(A) zależy więc wyłącznie od ciała,nad którym jest przestrzeń i od wymiaru tej przestrzeni.
3. Zbiór Aff(A)B automorfizmów przestrzeni afinicznej (A, V, →), dla których B jestpunktem stałym (f(B) = B) jest podgrupą grupy afinicznej Aff(A) izomorficznąz grupą GL(V ). Rzeczywiście, każde przekształcenie f ∈ Aff(A)B jest zadanejednoznacznie przez swoje odwzorowanie styczne
f(A) = B +Df−−→BA .
Odwzorowanie Aff(A)B 3 f → Df ∈ GL(V ) jest izomorfizmem grup.
Wniosek 14.3 Niech A0 będzie ustalonym punktem n-wymiarowej przestrzeniafinicznej (A, V, →). Każde przekształcenie afiniczne f : A→ A można przed-stawić w postaci f = Tv ◦ g, gdzie v =
−−−−−−→A0f(A0) , a g jest przekształceniem
afinicznym z punktem stałym A0 (g(A0) = A0).
274
Twierdzenie 14.13 Niech (A, V, →) będzie n-wymiarową przestrzeniąafiniczną nad ciałem K. Niech i : T → Aff(A) będzie zanurzeniem grupyT wszystkich translacji w przestrzeni A w grupie afinicznej Aff(A), a D -odwzorowaniem przyporządkowującym każdemu przekształceniu afinicznemu fjego część liniową Df . Wtedy ciąg homomorfizmów grup
{tΘ} −→ T i−→ Aff(A)D−→ GL(V ) −→ {idV }
jest dokładny tzn. obraz każdego homomorfizmu (z wyjątkiem ostatniego) jestjądrem homomorfizmu bezpośrednio po nim następującego.
Dowód: Zanurzenie i : T → Aff(A) jest monomorfizmem więc Ker i = {TΘ}. Za-uważyliśmy już wcześniej, że część liniowa translacji to przekształcenie tożsamościoweprzestrzeni stycznej, zatem Im i ⊂ KerD.
Pokażemy, że KerD ⊂ Im i. Niech f ∈ Aff(A) i Df = idV . Dla dowolnych A ∈ A iv ∈ V mamy więc
f(A+ v) = f(A) + v .
Niech A0 będzie ustalonym punktem. Wtedy
f(A0) = A0 + u gdzie u =−−−−−−→A0f(A0) .
Dla dowolnego punktu A ∈ A:
f(A) = f(A0 +−−−→A0A ) = f(A0) +
−−−→A0A = A0 + u+
−−−→A0A = A+ u
co oznacza, że f jest translacją o wektor u.Pozostaje wykazać, że ImD = GL(V ). Niech F ∈ GL(V ) będzie dowolnym au-
tomorfizmem liniowym, B dowolnym, ustalonym punktem. Odwzorowanie f zdefin-iowane wzorem
f(A) = B + F−→BA
jest automorfizmem afinicznym takim, że Df = F . •
Twierdzenie 14.14 Niech (A, V, →) będzie n-wymiarową przestrzeniąafiniczną nad ciałem K. Przekształcenie f : A → A jest automorfizmemafinicznym wtedy i tylko wtedy gdy obrazem każdej prostej jest prosta.
275
14.4 Afiniczne przestrzenie euklidesowe
Definicja 14.8 Afiniczną przestrzenią euklidesową nazywamy rzeczy-wistą przestrzeń afiniczną (E, V, →), której przestrzeń styczna jest przestrzeniąeuklidesową tzn. w V określony jest iloczyn skalarny.Odległością w afinicznej przestrzeni euklidesowej nazywamy funkcję
ρ : E× E→ R+
zadaną wzorem
ρ(A,B) =‖ −−→AB ‖=√⟨−−→
AB ,−−→AB
⟩Uwagi:
1. Zwykle zamiast terminu afiniczna przestrzeń euklidesowa używa się terminu przestrzeńeuklidesowa. To czy mamy do czynienia z przestrzenią liniową wyposażoną wiloczyn skalarny, czy z przestrzenią afiniczną, której przestrzeń styczna ma iloczynskalarny wynika zwykle z kontekstu i używanie tej samej nazwy na te (różne)obiekty nie prowadzi na ogół do nieporozumień.
2. Odległość w afinicznej przestrzeni euklidesowej ma te same własności co metrykaw przestrzeniach metrycznych, tzn.
i. ρ(A,B) = ρ(B,A),
ii. ρ(A,B) = 0⇔ A = B,
iii. ρ(A,B) + ρ(B,C) 6 ρ(A,C).
Definicja 14.9 Układ współrzędnych (O, e1, . . . , en) w przestrzeni euklides-owej (E, V, →) nazywamy prostokątnym jeżeli {ei}ni=1 jest bazą ortonormalnąw V , tzn. 〈ei, ej〉 = δij, i, j = 1, . . . , n.
Uwaga: W prostokątnym układzie współrzędnych w przestrzeni euklidesowej odległośćmiędzy punktami A(a1, . . . , an) i B(b1, . . . , bn) wyraża się wzorem
ρ(A,B) =√
(a1 − b1)2 + . . .+ (an − bn)2 .
W dowolnym układzie współrzędnych (O, f1, . . . , fn)
ρ(A,B) =
√√√√ n∑i,j=0
(ai − bi)gij(aj − bj) ,
276
gdzie gij = 〈fi, fj〉.
Definicja 14.10 Afiniczne przestrzenie euklidesowe E,E′ są izomorficznejeżeli istnieje izomorfizm przestrzeni afinicznych f : E → E′ zachowującyodległość, tzn. dla dowolnych A,B ∈ E:
ρ(A,B) = ρ(f(A), f(B)) .
Twierdzenie 14.15 Afiniczne przestrzenie euklidesowe E,E′ są izomor-ficzne wtedy i tylko wtedy gdy dim E = dim E′.
Definicja 14.11 Niech (A, V, →) będzie n-wymiarową rzeczywistą przestrzeniąafiniczną. Odcinkiem łączącym punkty A i B nazywamy zbiór
AB = {A+ α−−→AB : 0 6 α 6 1} .
Jeżeli przestrzeń jest euklidesowa to długość |AB| odcinka AB definiujemyjako odległość między punktami A i B:
|AB| = ρ(A,B) .
Definicja 14.12 Niech (E, V, →) będzie afiniczną przestrzenią euklidesową.Mówimy, że podprzestrzenie afiniczne P = P + U , P′ = P ′ + U ′ są prostopadłei piszemy P ⊥ P′ jeżeli U ⊥ U ′.
Definicja 14.13 Niech (E, V, →) będzie n-wymiarową, afiniczną przestrzeniąeuklidesową , a P = P +U podprzestrzenią afiniczna o wymiarze m < n. JeżeliA /∈ P to istnieje taki punkt Q ∈ P, że prosta PAB przechodząca przez punkty A iQ jest prostopadła do P. Odcinek AQ nazywamy prostopadłą opuszczoną zpunktu A na podprzestrzeń P, a długość tego odcinka - odległością punktuA od podprzestrzeni P (piszemy AB ⊥ P). Jeżeli A ∈ P to przyjmujemy,że odległość A od P jest równa zeru.
277
Twierdzenie 14.16 Niech (E, V, →) będzie n-wymiarową, afinicznąprzestrzenią euklidesową, a P = P + U podprzestrzenią afiniczną o wymiarzem < n. Jeżeli ` jest odległością punktu A ∈ A od ppodprzestrzeni P to
` 6 ρ(A,Q) ,
dla każdego Q ∈ P.
278