Appunti di Algebra e Geometria

Ettore Forigo

Chapter 1
Insiemi

1.1 Operatori e Quantificatori Logici

P Q: P e Q
P Q: P o Q
v D.P(v): Per ogni v in D vale P(v)
v D : P(v): Esiste almeno un v in D tale che P(v)
!v D : P(v): Esiste un unico v in D tale che P(v)

1.2 Definizione di Insieme

Un insieme (set) è una collezione di oggetti non ordinata e senza molteplicità (senza ripetizioni).

Dato un insieme X, per ogni oggetto o:

o X
o è un elemento di X,
o appartiene ad X,
X contiene o,
o è contenuto in X


o∕∈X
o non è un elemento di X,
o non appartiene ad X,
X non contiene o,
o non è contenuto in X

1.2.1 Modalità di Definizione di un Insieme

Un insieme può essere definito:

- per elencazione: scrivendo gli elementi tra parentesi graffe, separati da virgole.

e.g.

{a,b,c}

- per proprietà caratteristica o per comprensione (set comprehension / set-builder notation): indicando una proprietà P che caratterizza gli elementi dell’insieme X

o Y.o X Y ⇐⇒ P(o)

con le scritture:

X = {o Y |P(o)}

X = {o Y : P(o)}

X = {o|o Y P(o)}

X = {o : o Y P(o)}

X = {o|o Y,P(o)}

X = {o : o Y,P(o)}

1.3 Insiemi Famosi

= Numeri Naturali = {0,1,2,3,...}
= Numeri Interi
= Numeri Razionali
= Numeri Reali
= Numeri Complessi ∼=× = 2
0 = {0}
x = = {0}
x = = {0}
x = = {0}

1.4 Cardinalità di Insiemi Finiti

La cardinalità (cardinality) |A | = n di un insieme A è il numero di elementi in A.

1.5 Definizione di Sottoinsieme

Un insieme X si dice sottoinsieme (subset) di un insieme Y, scritto X Y , se ogni elemento di X è anche un elemento di Y .

X Y ⇐⇒e X.e Y

1.6 Definizione di Sottoinsieme Proprio

Un insieme X si dice sottoinsieme proprio (proper subset) di un insieme Y, scritto X Y , se X è diverso da Y e ogni elemento di X è anche un elemento di Y .

X Y ⇐⇒ XY ∧∀e X.e Y

1.7 Unione di Insiemi

L’unione (union) A B di due insiemi A e B è l’insieme contenente sia gli elementi di A che di B.

A B = {e : e A e B}.

1.8 Intersezione di Insiemi

L’intersezione (intersection) A B di due insiemi A e B è l’insieme contentente gli elementi che sono sia elementi di A che elementi di B.

A B = {e : e A e B}.

1.9 Differenza di Insiemi

La differenza (difference) A B o A B di due insiemi A e B è l’insieme contentente solo gli elementi di A che non sono elementi di B.

A B = A B = {e : e A e∕∈B}.

1.10 Multiinsiemi o Sistemi

Un multiinsieme (multiset) o sistema è una collezione non ordinata di elementi con molteplicità (ovvero un insieme con ripetizioni).

e.g.

[a,b,c]

1.11 Definizione di Sequenza

Una sequenza (o ennupla / n-upla) è una collezione ordinata di elementi.

(a,b,c)

Diciture per numeri di elementi:

2 - Paio (pair), coppia (couple) o tupla (tuple)
3 - Terna (triplet) o tripla (triple)
4 - Quaterna (quatern) o quadrupla (quadruple)

(a,b) : = {{a },{a,b}}
(a,a) = {{a} ,{a,a}} = {{a} ,{a}} = {{a}}
(a,b,...,y,z) = (a,(...,(y,z))) oppure (((a,b),...),z)

Alternativamente:
Sequenza di k elementi di A: Ak = A × (A × (... × A))
k volte

Alternativamente:
In = i : 0 < i n
Sequenza di n elementi di A = a : In A (funzione di accesso)

1.12 Prodotto Cartesiano

Il prodotto cartesiano (cartesian product) A × B di due insiemi A e B è l’insieme contenente tutte le coppie di due elementi dove il primo elemento appartiene ad A ed il secondo elemento appartiene a B.

A × B = {(a,b) : a A,b B}.

Chapter 2
Relazioni

2.1 Definizione di Relazione

Si dice che R A × B è una relazione (binaria, anche detta corrispondenza) ((binary) relation) tra due insiemi A e B.

Se:
C : = { (a1,b1),(a2,b2)}

Si scrive:
b1 = C(a1)
b2 = C(a2)

O anche:
a1Cb1 a2Cb2

2.1.1 Proprietà delle Relazioni

Totalità a Sinistra

Una relazione R tra A e B si dice ovunque definita (o totale a sinistra, duale della totalità a destra (suriettività)) se associa ad ogni elemento di A almeno un elemento di B.

In simboli:

x A.y B : (x,y) R

Funzionalità

Una relazione R tra A e B si dice funzionale (o univalente / unica a destra, duale dell’iniettività) se ogni elemento di A in R è associato ad un solo elemento di B.

In simboli:

x A,y,z B.xRy xRz = ⇒ y = z

Oppure:

x A.(y B : (x,y) R =⇒!y B : (x,y) R)

Chapter 3
Funzioni

3.1 Definizione di Funzione

Una relazione f si dice funzione se è funzionale e ovunque definita.

“Funzione” si riferisce alla terna: associazione di elementi, dominio e codominio, non solo all’associazione di elementi. Specificare solo un’associazione non definisce una funzione: occorre specificare anche dominio e codominio. Infatti, due funzioni che hanno una “stessa” associazione di elementi ma diverso dominio e/o diverso codominio sono funzioni diverse.

Si scrive:
f : A B
dove A è il dominio di f e B è il codominio di f.

3.2 Proprietà delle Funzioni

3.2.1 Iniettività

Una funzione f si dice iniettiva (injective) (unica a sinistra, duale della funzionalità) se associa a due qualsiasi elementi distinti del dominio elementi distinti del codominio.

In simboli:

x,x′∈ dom(f).f(x) = f(x) = ⇒ x = x

3.2.2 Suriettività

Una funzione f si dice suriettiva (surjective) (o totale a destra, duale della totalità a sinistra) se per ogni elemento del codominio associa almeno un elemento del dominio ad esso.

In simboli:

y codom(f).x dom(f) : y = f(x)

(equivalentemente: im(f) = codom(f))

3.2.3 Biiettività

Una funzione f si dice biiettiva (bijective) (o biiezione, o anche corrispondenza 1 a 1 o biunivoca) se è sia iniettiva che suriettiva, cioè ad ogni elemento del dominio corrisponde uno ed un solo elemento del codominio.

In simboli:

x,x′∈ dom(f).xx=⇒ f(x)f(x)
y codom(f).x dom(f) : y = f(x)

Osservazione:

f : A B è biiettiva =⇒|A| = |B|

A e B possono essere infiniti.

|X | < |Y | ⇐⇒una funzione iniettiva X Y una biiezione X Y .

3.3 Definizione di Immagine

L’insieme di tutti i valori di f : A B valutata in ogni elemento di S A si dice l’immagine di S tramite f:

f[S] = f(S) : = {f(s) ∈ B : s ∈ S ⊆ A }B

Imf = im(f) = f[A]

L’immagine del dominio di una funzione f tramite f si dice immagine di f.

im(f) codom(f)

Il valore di f : A B valutata in x A si dice immagine di x tramite f.

3.4 Definizione di Controimmagine

L’insieme degli elementi del dominio di una funzione f : A B che f associa a tutti gli elementi di S B si dice controimmagine, preimmagine o immagine inversa di S tramite f:

f1[S] = f1(S) : = {x ∈ A : f (x ) ∈ S ⊆ B }A

La controimmagine di un singolo elemento e S tramite f è definita come f1[e].

3.5 Definizione di Restrizione

Detta anche restrizione del dominio o restrizione a sinistra.

f : A B,X A

Si dice restrizione di f ad X la funzione:

fX : X B
fX(x) : = f(x) x X

O equivalentemente:

fX : X B : = {(a,b) ∈ f : a ∈ X }

O ancora:

fX : X B : = f i

Dove i : X A è l’inclusione di X in A data da i(a) : = a.

Una notazione equivalente è:

f|X = fX

3.6 Definizione di Troncatura

Detta anche corestrizione, restrizione del codominio o restrizione a destra.

f : A B, Im(f) Y

Si dice troncatura di f ad Y la funzione:

fY : A Y : = {(a,y) ∈ A × Y : y = f(a)}

Osservazione:
Il codominio viene ristretto.

Una notazione equivalente è:

f|Y = fY

In generale prima si restringe e poi si tronca una funzione.

3.7 Composizione

f : A B, g : B C
L’elemento b che compone in (g f) è unico a A.

3.8 Definizione di Funzione Inversa Destra

f : A B ammette inversa destra g : B A | (f g) : B B, x B.(f g)(x) = x ⇐⇒ f è suriettiva.

3.9 Definizione di Funzione Inversa Sinistra

f : A B ammette inversa sinistra g : B A | (g f) : A A, x A.(g f)(x) = x ⇐⇒ f è iniettiva.

3.10 Definizione di Funzione Inversa

f : A B ammette inversa destra e sinistra = ⇒ f ammette inversa f1 che coincide con l’inversa destra e sinistra.

f ammette inversa ⇐⇒ f è biettiva.

3.11 Definizione di Successione

Una funzione f si dice successione se:

f : A

Chapter 4
Strutture Algebriche

4.1 Definizione di Operazione Binaria

Si dice operazione binaria (binary operation) una funzione o : A × B C

4.1.1 Definizione di Operazione Binaria Interna

Si dice operazione binaria interna (o chiusa) (internal/closed binary operation) su di un insieme U una funzione o : U × U U

4.1.2 Definizione di Operazione Binaria Esterna

Si dice operazione binaria esterna (external binary operation) una operazione binaria o : B × A A

4.2 Definizione di Struttura Algebrica

Una struttura algebrica (algebraic structure) consiste in un insieme, una collezione (non vuota) di operazioni su di esso e un insieme finito di identità o proprietà, dette assiomi, che le operazioni devono soddisfare.

Si rappresenta con una ennupla contenente l’insieme e le operazioni:

(U,o)

4.3 Definizione di Magma

Un magma o gruppoide (grupoid) (struttura algebrica) (A,) è un insieme dotato di un’operazione binaria interna.

: A × A A
(a,b) = a b

4.4 Definizione di Elemento Neutro

Se (A,) è un magma, si dice che e A è un elemento neutro (identity element) per se è sia elemento neutro destro che elemento neutro sinistro per , ovvero se operando e sia a destra che a sinistra con qualsiasi elemento di A si ottiene di nuovo il medesimo elemento.

In simboli:

a A.e a = a e = a

4.4.1 Elemento Neutro Destro e Sinistro

Elemento Neutro Destro

Se è una operazione binaria A × B A, si dice che e B è un elemento neutro destro per se:

a A.a e = a

Elemento Neutro Sinistro

Se è una operazione binaria esterna B × A A, si dice che e B è un elemento neutro sinistro per se:

a A.e a = a

4.5 Definizione di Magma Unitario

Un magma (A,) è un magma unitario (unital magma) (struttura algebrica) se ammette elemento neutro.

4.6 Definizione di Associatività

Se (A,) è un magma si dice che è associativa se, quando l’operazione è usata in notazione infissa, spostando le parentesi (cambiando l’ordine di svolgimento delle operazioni, n.b. non l’ordine degli operandi) il risultato non cambia. Questo significa che le parentesi si possono aggiungere, rimuovere o spostare senza cambiare il significato dell’espressione e senza ambiguità.

In simboli:

a,b,c A.a (b c) = (a b) c

4.7 Definizione di Semigruppo

Un magma (A,) è detto semigruppo (semigroup) (struttura algebrica) se è associativa.

4.8 Definizione di Monoide

Un semigruppo (A,) è detto monoide (monoid) (struttura algebrica) se ammette elemento neutro.

4.9 Definizione di Elemento Inverso

Sia (A,) un magma unitario con elemento neutro e.
Si dice che a A:

aè inverso destro di a se x′∈ A : a a= e
a′′è inverso sinistro di a se x′′A : a′′a = e
a′′′è inverso di a se a′′′è inverso destro di a a′′′è inverso sinistro a.

4.10 Definizione di Gruppo

Un monoide (A,) è detto gruppo (group) (struttura algebrica) se ogni elemento di A ammette inverso (destro e sinistro, necessariamente unico, solitamente indicato con a1).

4.10.1 Sottogruppo

Un sottoinsieme di un gruppo è un sottogruppo se è a sua volta un gruppo con la stessa operazione.

In generale un sottoinsieme di un insieme con una struttura algebrica è sua sottostruttura se anch’esso ha la medesima struttura algebrica.

4.10.2 Esempi notevoli

GLn(𝕂) : = {M  ∈ 𝕂m,n : det(M ) ⁄= 0}, chiamato gruppo lineare generale (general linear group) (o gruppo di matrici), è un gruppo rispetto al prodotto di matrici (righe per colonne). L’insieme può essere definito equivalentemente come l’insieme delle matrici invertibili. Più in generale è il gruppo formato dall’insieme degli automorfismi (sia isomorfismi che endomorfismi, endomorfismi invertibili o isomorfismi da un oggetto a se stesso) di un oggetto matematico.

Esiste anche un suo sottogruppo, SLn(𝕂), detto gruppo lineare speciale (special linear group), formato dalle matrici con determinante uguale a 1.

4.11 Definizione di Sottrazione

La sottrazione è definita come somma con l’opposto di un elemento in (,+).

a b : = a + (b) = a + b1

4.12 Definizione di Gruppo Simmetrico

S(Ω) = {f : Ω → Ω | f `e biiettiva}è chiamato gruppo simmetrico (symmetric group) (struttura algebrica) dell’insieme Ω.

È un gruppo rispetto alla composizione di funzioni.
Contiene tutte le possibili permutazioni degli elementi di Ω.
Tutti i gruppi simmetrici di insiemi aventi la stessa cardinalità sono isomorfi (isomorphic).
L’elemento neutro è la funzione identità id (id(x) : = x).

4.12.1 Gruppi Simmetrici Finiti (Finite Symmetric Group)

Se Ω è finito, il suo gruppo simmetrico si denota con Sn.
In genere in questi casi si preferisce considerare il gruppo delle permutazioni degli interi 1...n dato che è isomorfo.

4.13 Definizione di Commutatività

Se (A,) è un magma si dice che è commutativa se scambiando l’ordine degli operandi il risultato non cambia.

In simboli:

a,b A.a b = b a.

4.14 Definizione di Gruppo Abeliano

Un gruppo (A,) è detto abeliano (abelian) (struttura algebrica) o commutativo (commutative) se è commutativa.

4.15 Definizione di Distributività

Se (A,) e (A,+) sono magmi, si dice che è distributiva rispetto a + se è distributiva a destra e a sinistra rispetto a +.

Se è commutativa, distributività, distributività a destra e distributività a sinistra sono equivalenti.

4.15.1 Distributività a Destra

Una operazione binaria esterna : A × B B si dice distributiva a destra rispetto all’operazione + : B × B B di un magma (A,+) se:

a A,b,c B.a (b + c) = (a b) + (a c)

4.15.2 Distributività a Sinistra

Una operazione binaria : A × C A si dice distributiva a sinistra rispetto all’operazione + : A × A A di un magma (A, +) se:

a,b A,c C.(a + b) c = (a c) + (b c)

4.16 Definizione di Anello

Un insieme A dotato di due operazioni binarie interne ˜+ e ˜⋅è un anello (rng/non-unital ring) (struttura algebrica) (A,˜
+,˜⋅ ) se:

(A,˜+) è un gruppo abeliano.
(A,˜⋅ ) è un semigruppo.
˜⋅è distributiva rispetto a +˜.

4.16.1 Definizione di Anello Unitario

Un anello (A,˜
+,˜⋅ ) è un anello unitario (ring) (o con unità) (struttura algebrica) se (A,˜⋅ ) è anche un monoide (˜⋅ ammette elemento neutro).

4.16.2 Definizione di Anello Commutativo

Se ˜⋅è commutativa l’anello si dice commutativo (commutative) (struttura algebrica).

4.17 Definizione di Corpo

Se (A,+˜,˜⋅ ) è un anello e (A,˜⋅ ) è un gruppo, dove A: = A{0} e 0 è l’elemento neutro di +˜, allora (A,+˜,˜⋅ ) è anche un corpo (division ring) (struttura algebrica).

4.18 Definizione di Campo

Un campo (field) (o corpo commutativo) (𝕂,+,) è un anello unitario commutativo, con 0 elemento neutro di + e 1 elemento neutro di , in cui 01 e (𝕂,) è un gruppo abeliano, dove 𝕂 : = 𝕂 {0} (aggiunge il requisito di invertibilità di ogni elemento 0 per la moltiplicazione).

Alternativamente:

(𝕂,+) è un gruppo abeliano con elemento neutro 0
𝕂: = 𝕂 {0}
(𝕂,) è un gruppo abeliano con elemento neutro 1
è distributiva rispetto a +.

4.18.1 Esempi notevoli

(𝔽,∨˙,), 𝔽 : = {0,1},∨˙: = XOR, : = AND
(,+,)
(,+,)
(,+,)

Chapter 5
Spazi Vettoriali

5.1 Definizione di Spazio Vettoriale

(V,,) è detto spazio vettoriale (vector space) (struttura algebrica) su di un campo (𝕂,+,) se:

(V,) è un gruppo abeliano (è detta somma (di vettori) o legge di composizione interna)

V è dotato di una operazione binaria esterna : 𝕂 ×V V (detta prodotto per scalare (gli elementi di 𝕂 sono detti scalari) o legge di composizione esterna)

è pseudo-associativa (o compatibile con la moltiplicazione nel campo):
a,b 𝕂,v V.(a b) v = a (b v )

ammette elemento neutro sinistro 𝕂 (unitarietà)

è distributiva a destra rispetto a

è pseudo-distributiva a sinistra rispetto a + (o compatibile con l’addizione nel campo, insieme alla precedente pseudo-distributività):
a,b 𝕂,v V.(a + b) v = (a v ) (b v )

Curiosità:
Le ultime quattro proprietà (assiomi) dicono che il prodotto per scalare definisce un omomorfismo (trasformazione che preserva la struttura algebrica) (homomorphism, structure preserving map) tra l’anello del campo 𝕂 ((𝕂,+,)) e l’anello degli endomorfismi (endomorphism ring) (morfismi da un oggetto a se stesso) del gruppo (V,).

Notazione:
V (𝕂)
L’elemento neutro della somma di vettori, il vettore nullo, è scritto 0.

Un campo (𝕂,+,) è spazio vettoriale su se stesso con:
: =
: = +

𝕂n è dotato di struttura di spazio vettoriale su 𝕂 rispetto a e definiti componente per componente. (𝕂n,) è gruppo abeliano.

Tutti gli spazi vettoriali di dimensione uguale sono isomorfi.

5.1.1 Interpretazione Geometrica

Gli elementi di V sono vettori geometrici, cioè freccie orientate.
La somma di vettori è definita con la regola del parallelogramma.
Ogni vettore ammette inverso.
Il prodotto per scalare è un vettore con la stessa direzione di quello originale ma con lunghezza moltiplicata per lo scalare e verso in base al segno.

5.2 Definizione di Combinazione Lineare

V (𝕂) spazio vettoriale, v 1...v n V

Si dice cominazione lineare dei vettori v 1...v n (necessariamente in numero finito) mediante gli scalari α1...αn il vettore:

v = α1v 1 + α2v 2 + ... + αnv n = inαiv i

5.3 Definizione di Sottospazio Vettoriale

S V è sottospazio vettoriale (linear subspace) (struttura algebrica) di V (𝕂) se:

S è dotato dell’operazione binaria interna di somma di (V,+) ristretta ad S ×S e troncata ad S (Im(+S×S) S)

S è dotato dell’operazione binaria interna di prodotto per scalare di V (𝕂) ristretta a 𝕂 × S e troncata ad S (Im(𝕂×S) S)

(S,+|S×SS,∗|𝕂×SS) è uno spazio vettoriale su 𝕂

Se S V gli assiomi degli spazi vettoriali sono già verificati (devono valere per tutti gli elementi in V).
Dunque ciò a cui va fatta attenzione sono la presenza del vettore nullo (0) in S e le proprietà di chiusura della somma di vettori e del prodotto per scalare.

Notazione:
S V (𝕂) si legge come S è sottospazio vettoriale di V (𝕂)

5.3.1 Albero decisionale

Se V (𝕂) è spazio vettoriale con operazioni + e , per determinare se S V è sottospazio vettoriale di V si può usare il seguente albero decisionale:

Le operazioni + e di S sono diverse da quelle di V ? Non è sottospazio

0 (vettore nullo) ⁄∈ S? Non è sottospazio

¬(α 𝕂,v S.α v S) Non è sottospazio

¬(u ,v S.u + v S) Non è sottospazio

È sottospazio

5.3.2 Teorema

S è sottospazio vettoriale di V (𝕂) ⇐⇒ S è chiuso rispetto alle combinazioni lineari

Ovvero:

α,β 𝕂,v ,w S.αv + βw S

5.4 Definizione di Insieme di Generatori

Se V (𝕂) è uno spazio vettoriale, e X V (𝕂) un insieme/sequenza/sistema di vettori di V (𝕂), si dice che V (𝕂) è generato da X se ogni vettore di V (𝕂) si può scrivere come combinazione lineare di un numero finito di elementi di X. X si dice insieme di generatori per V (𝕂).

Alternativamente:
X è insieme di generatori per V (𝕂) ⇐⇒(X) = V .

Uno spazio vettoriale è insieme di generatori per se stesso.
Aggiungere vettori ad un insieme di generatori fornisce ancora un insieme di generatori.

5.5 Definizione di Spazio Vettoriale Finitamente Generato

V (𝕂) è detto finitamente generato se X V (𝕂) con |X | < e X insieme di generatori per V (𝕂).

5.6 Definizione di Copertura Lineare

Siano V (𝕂) uno spazio vettoriale e X V (𝕂).

(X), detta copertura lineare (linear span) (o chiusura lineare) di X, è l’insieme di tutte le combinazioni lineari dei vettori in X.

In simboli:

V (𝕂)(X) = (X) = ⟨X ⟩: = {n∑∈ℕ  -          -     }
     αixi : αi ∈ 𝕂, xi ∈ X
   i

() : = {0}

(X) è sempre un sottospazio vettoriale di V (𝕂).
Inoltre, è il più piccolo sottospazio vettoriale di V (𝕂) che contiene X.

A B = ⇒(A) ⊆ℒ(B)
A = (A) ⇐⇒ A è sottospazio vettoriale.
((A)) = (A)

5.7 Definizione di Sequenza Libera e Legata

Siano V (𝕂) uno spazio vettoriale ed S = (v 1,...,v n) una sequenza di suoi vettori.

S è detta libera se l’unica combinazione lineare dei suoi elementi che da 0 è quella a coefficienti tutti nulli. I vettori di S si dicono linearmente indipendenti (linearly independent).

S è detta legata se esiste almeno una combinazione lineare dei suoi elementi a coefficienti non tutti nulli che da 0. I vettori di S si dicono linearmente dipendenti (linearly dependent).

S è legata = S non è libera.
0 S = ⇒ S è legata.
v1 S ∧∃α0 : v 2 = αv 1 S =⇒ S è legata (quindi anche se ci sono due vettori uguali, con α = 1).
X è libera Y X =⇒ Y è libera.
X è legata X Y = ⇒ Y è legata.
v 0 S =⇒X S : X è libera

5.7.1 Teorema

S è legata ⇐⇒ almeno uno dei suoi vettori si può scrivere come combinazione lineare dei rimanenti.

5.8 Metodo degli Scarti Successivi

5.9 Definizione di Base di uno Spazio Vettoriale

Si dice base (ordinata) (ordered basis) di uno spazio vettoriale ogni sua sequenza di generatori libera.

Osservazione:

V (𝕂){0} =⇒ V (𝕂) ammette basi

(Non esistono in V (𝕂) vettori linearmente indipendenti =⇒ V (𝕂) è uno spazio vettoriale banale.
Ogni spazio vettoriale finitamente generato non banale ammette base)

5.9.1 Teorema

B = (b 1,...,b n) è una base ordinata per V (𝕂) ⇐⇒ ogni vettore di V (𝕂) si scrive in modo unico come combinazione lineare degli elementi di B.

Dimostrazione

5.10 Definizione di Componenti di un Vettore

Si dicono componenti (components) di un vettore v V n(𝕂) rispetto ad una base B di V n(𝕂) gli elementi della ennupla dei coefficienti che danno la combinazione lineare dei vettori di B che fornisce v .

5.11 Definizione di Base Canonica

La base di uno spazio vettoriale composta da vettori i cui componenti sono tutti 0 eccetto uno, che è 1, è detta base canonica (standard/canonical basis).

5.12 Lemma di Steinitz

Il Lemma di Steinitz formalizza la nozione che la lunghezza di una sequenza di generatori la lunghezza di una sequenza libera in uno spazio vettoriale.

Conseguenze:

Ogni base di V (𝕂) ha il medesimo numero di elementi.

Ogni sequenza di vettori in V (𝕂) con numero di elementi maggiore di quello di una base di V (𝕂) è legata.

Ogni sequenza di generatori di V (𝕂) con lo stesso numero di elementi di una base di V (𝕂) è libera, e dunque base.

Ogni sequenza libera di V (𝕂) con lo stesso numero di elementi di una base di V (𝕂) genera lo spazio, e dunque è base.

Nessuna sequenza con meno vettori di una base di V (𝕂) genera lo spazio.

5.12.1 Dimostrazione

5.12.2 Dimostrazione Conseguenze

5.13 Definizione di Dimensione di Spazio Vettoriale

Per il lemma di Steinitz ogni base di uno spazio vettoriale V (𝕂) ha il medesimo numero di elementi.
Questo numero è detto dimensione (dimension) di V (𝕂).

5.14 Metodo di Completamento a Base

5.15 Definizione di Trasformazione Lineare

Una funzione f : V (𝕂) W(𝕂) è detta trasformazione/applicazione/mappa lineare (o omomorfismo di spazi vettoriali) (linear transformation/map o vector space homomorphism) se associa combinazioni lineari in uno spazio vettoriale V (𝕂) a combinazioni lineari in un altro spazio vettoriale W(𝕂). In altre parole conserva le operazioni di somma di vettori e prodotto per scalare.

In simboli:

v ,u V,α,β 𝕂.f(αv + βu ) = αf(v ) + βf(u )

Una trasformazione lineare è un morfismo (categorico) (trasformazione che preserva la struttura algebrica, generalizzazione di omomorfismo) (morphism (CT)) (structure preserving map).

5.16 Definizione di Isomorfismo

Una trasformazione lineare è detta isomorfismo (lineare) ((linear) isomorphism) ⇐⇒ è invertibile.

La funzione che associa ad ogni vettore di uno spazio vettoriale la ennupla dei suoi componenti rispetto ad una base B è un isomorfismo.

In simboli:

fB : V (𝕂) 𝕂n
fB(v = α1e 1 + ... + αne n) = (α1,...,αn)

V (𝕂)∼
=𝕂n

Uno spazio vettoriale è quindi univocamente descritto dal campo 𝕂 su cui è definito e da un numero n pari alla sua dimensione (uguale al numero di elementi di tutte le sue basi, vedi definizione di dimensione), dato che è isomorfo a 𝕂n.

Tutti gli spazi vettoriali di uguale dimensione sul medesimo campo sono isomorfi (cioè esiste un isomorfismo tra di loro (e viceversa se esiste un isomorfismo hanno la stessa dimensione)).

5.17 Definizione di Endomorfismo

Si dice endomorfismo di V n(𝕂) una trasformazione lineare f : V n(𝕂) V n(𝕂)

Sono rappresentati da matrici quadrate (e viceversa).

In generale si può considerare f g e g f dato che hanno lo stesso dominio e codominio.

Se f è rappresentato dalla matrice A e g è rappresentato dalla matrice B, f g è rappresentato dalla matrice AB

5.18 Definizione di Nucleo di una Trasformazione Lineare

Si dice nucleo (kernel) di una trasformazione lineare la controimmagine del vettore nullo tramite f.

In simboli:

kerf = {v ∈ V : f(v) = 0}

Osservazioni:

kerf V (𝕂)

f è iniettiva ⇐⇒ kerf = {0}

5.18.1 Dimostrazioni

5.19 Teorema

Una trasformazione lineare manda sequenze libere in sequenze libere ⇐⇒ il suo nucleo è banale ({0}) (cioè è iniettiva).

5.19.1 Dimostrazione

5.20 Nullità di una Trasformazione Lineare

(nullity)

Null(f) : = dim(ker(f))

5.21 Intersezione di Spazi Vettoriali

U(𝕂),W(𝕂) V (𝕂)

U W è un sottospazio vettoriale di V (𝕂)

Osservazione:

U,W V (𝕂) =⇒0 U W
Due sottospazi di V (𝕂) non possono mai essere disgiunti! (cioè U W0).

5.22 Dimensione dell’Intersezione di Spazi Vettoriali

W V =⇒ dim(W) dim(V )
dim(W) = dim(V ) ⇐⇒ W = V

0 dim(U W) min(dim(U),dim(W))

5.22.1 Dimostrazione Prima

Si dimostrano le proprietà di chiusura.

5.22.2 Dimostrazione Seconda e Terza

5.23 Teorema

0 i n.W V n(𝕂) : dim(W) = i

5.23.1 Dimostrazione

5.24 Teorema

U(𝕂),W(𝕂) V (𝕂)

U W V (𝕂) ⇐⇒ U W W U

5.24.1 Dimostrazione

5.25 Somma di Spazi Vettoriali

U(𝕂),W(𝕂) V (𝕂)

U W in generale non è un sottospazio di V (𝕂).
Per questo motivo viene introdotta la nozione di somma di spazi vettoriali.

U + W =  -   -- -     --
{u + w :u ∈ U,w ∈ W }

5.25.1 Teorema

U + W = (U W)

Cioè U + W è il più piccolo sottospazio di V (𝕂) che contiene U e W.

Dimostrazione

5.26 Dimensione della Somma di Spazi Vettoriali

U,W U + W V n(𝕂)

max(dim(U),dim(W)) dim(U + W) V n(𝕂)

5.27 Definizione di Somma Diretta di Spazi Vettoriali

U(𝕂),W(𝕂) V (𝕂)

La somma U + W si dice diretta (direct sum) e si scrive U W se ogni elemento di U + W si scrive in modo unico come somma di un elemento di U ed un elemento di W.

In simboli:

x U + W.!u U,w W : x = u + w

5.27.1 Teorema

U W ⇐⇒ U W = {0}

Conseguenze:

BU una base di U e BW una base di W.
BU BW è una base di U W

dim(U W) = dim(U) + dim(W)

Dimostrazione

Dimostrazione Conseguenze

5.28 Formula di Grassman

dim(U + W) = dim(U) + dim(W) dim(U W)

Analogia con la formula per la cardinalità dell’unione di due insiemi, che usa anch’essa il principio di inclusione ed esclusione:

Siano X,Y insiemi.

|X  ∪Y | = |X | + |Y ||X ∩ Y |

5.28.1 Dimostrazione

Chapter 6
Matrici

6.1 Matrici

Matrice (matrix) m × n (righe × colonne) a coefficienti in 𝕂:
Matm,n(𝕂) = 𝕂m,n = 𝕂m,n

Elementi (entries) ai,j

mn matrice rettangolare
m = n matrice quadrata

A Matm,n(𝕂)

= diagonale principale
= diagonale secondaria

6.2 Matrici quadrate particolari

6.2.1 Triangolare superiore

ai,j = 0 i > j

(        )
 a   b  c
(0  d   e)
 0  0  f

6.2.2 Triangolare inferiore

ai,j = 0 j > i

(a  0  0 )
(        )
  b  c 0
 d  e  f

6.2.3 Diagonale

ai,j = 0 i > j

(       )
 a  0  0
(0   b 0)
 0  0  c

6.2.4 Scalare (Diagonale)

con ai,i = k 𝕂

(a  0  0 )
(        )
 0  a  0
 0  0  a

6.2.5 Identica (o Identità) di ordine n (Scalare con k = 1)

ai,i = 1

In

I3 = ( 1  0  0)
( 0  1  0)

  0  0  1

6.2.6 Nulla 0

ai,j = 0 i,j

(    )
 0  0
 0  0

6.3 Matrice Trasposta

A Matm,n(𝕂)

Matrice trasposta di A:
AT

Righe e colonne scambiate.
ai,j = aj,i

A = (AT )T

A = AT =⇒ A è simmetrica, A è quadrata

6.4 Somma tra matrici

Somma elemento per elemento (per matrici di dimensioni uguali)

(Matm,n(𝕂),+) è un gruppo abeliano.

6.5 Prodotto per scalare

6.5.1 Proprietà

Distributivo rispetto all’addizione

6.6 Prodotto righe per colonne

6.6.1 Proprietà

Non commutativo
Associativo
Distributivo rispetto alla somma

A B = 0=⁄⇒ A = 0 B = 0

(A B)T = BT AT

Se:

A X = B

dato che la divisione tra matrici non è definita, non si scrive:

X = B∕A
X = B-
A

ma:

X = A1 B

6.7 Calcolo del determinante

Solo per matrici quadrate.

|A |

det(A)

6.7.1 2 × 2

Differenza prodotto diagonali

6.7.2 3 × 3 (Sarrus)

Differenza (somme prodotti diagonali e prodotti sovradiagonali).

Se A è triangolare superiore il determinante è il prodotto della diagonale

6.7.3 Regola di Laplace

A Matn(𝕂), n 2

|A | = j=1n(1)i+jai,j |Ai,j|

Dove Ai,j è la matrice ottenuta da A togliendo ad A la i-esima riga e la j-esima colonna.

Il valore (1)i+j|Ai,j|è detto complemento algebrico di ai,j.

Osservazione:
Il termine (1)i+j indica che se la somma degli indici di riga e colonna è dispari, il segno nella somma va cambiato, altrimenti va mantenuto.

Osservazione:
Si può applicare Laplace per righe / colonne qualsiasi, ma per snellire i conti conviene scegliere righe / colonne con il maggior n° di 0.

6.7.4 Proprietà dei Determinanti

|In| = 1

|A | = i=1nai,i

Quando A è triangolare / diagonale (anche rispetto alla diagonale secondaria, anche se in quel caso non si chiama triangolare / diagonale)

|A | = ||AT ||

|A ⋅B | = |A ||B|

Osservazione:
In generale non vale per la somma.

Se in A c’è una riga / colonna nulla, allora |A | = 0

Scambiando righe e colonne il determinante cambia di segno.

Se una riga / colonna è combinazione lineare di altre righe / colonne, allora |A | = 0 e viceversa.

6.7.5 Definizione di Combinazione Lineare

Quando una riga / colonna si può scrivere utilizzando le altre righe / colonne combinate solo con operazioni di somma / prodotto e/o prodotto per scalare.

Osservazione:
Se una riga / colonna è multipla di un’altra riga / colonna allora è una sua combinazione lineare.

Sommando a una riga / colonna una combinazione lineare delle altre righe / colonne il determinante non cambia.

6.8 Definizione di Matrice Singolare

Una matrice quadrata si dice non singolare se il suo deteminante è 0. Altrimenti si dice singolare (singular / degenerate).

6.9 Definizione di Matrice Inversa

Si dice inversa di A, se , la matrice A1 tale che:

A A1 = A1 A = In

(Ovvero A1 è inversa destra e sinistra di A)

Osservazione:
Sia A Matn(𝕂), A1 ⇐⇒|A |0

Cioè A ammette inversa se e solo se A è non singolare.

In altre parole A ammette inversa ⇐⇒ det(A) ammette inverso moltiplicativo, dato che det(A) det(A1) = 1

6.9.1 Calcolo della Matrice Inversa (Metodo del Complemento Algebrico)

Data A = (ai,j) Matn(𝕂) si dice matrice dei complementi algebrici o matrice dei cofattori (cofactor matrix) di A la matrice cof A Matn(𝕂) ottenuta sostituendo in A ogni elemento col suo complemento algebrico o cofattore (cofactor) (c).

cof i,j(A) = ci,j = (1)i+j|Ai,j|

La trasposta della matrice dei cofattori di A è detta matrice aggiunta adjA o Aa o Aa (adjugate matrix / classical adjoint of a square matrix / adjunct matrix / “adjoint”)

adjA = (cof A)T

|A |0 =⇒ A1 = 1
|A|- adjA

6.10 Rango

6.10.1 Definizione di Minore di Ordine p

Data una matrice A Matm,n(𝕂) si dice minore di ordine p una matrice quadrata di ordine p ottenuta da A sopprimendo n p colonne e m p righe.

6.10.2 Definizione di Rango

Data una matrice A Matm,n(𝕂) dire che il rango (rank) di A è p:

rg(A) = p
r(A) = p
ρ(A) = p

con p min(m,n)

significa dire che A ha un minore non singolare di ordine p, e che ogni eventuale minore di ordine p + 1 è singolare.

r(A) = 0 ⇐⇒ A = 0

Se A Matn(𝕂) allora r(A) = n ⇐⇒|A |0

A ha rango massimo = A Matn(𝕂), r(A) = n

1 rg(A) min(m,n), A Matm,n(𝕂), A0

6.10.3 Teorema degli Orlati (Teorema di Kronecker)

A Matm,n(𝕂).
Il rango di A è p ⇐⇒in A un minore di ordine p (Mp) non singolare ogni minore di ordine p + 1 che contiene completamente Mp è singolare.

6.10.4 Definizione di Contiene Completamente

Che ha al suo interno.

6.11 Corrispondenza tra Trasformazioni Lineari e Matrici

Siano V n(𝕂) e Wm(𝕂) due spazi vettoriali e:

B = (e 1,...,e n) base di V n(𝕂)
B= (e 1,...,e m) base di Wm(𝕂)

Osservazione:
I valori di una trasformazione lineare f : V (𝕂) W(𝕂) dipendono solamente dai valori di f sui vettori di una base di V (𝕂), perché:

v V n(𝕂).v = α1e 1 + ... + αne n

v V n(𝕂).f(v ) = f(α1e 1 + ... + αne n) = α1f(e 1) + ... + αnf(e n)

Quindi f è definita dai valori:

f(e 1) = w 1
..
.
f(e n) = w n

con w 1...w n W.

w1...w n sono tutti combinazione lineare di vettori della base Bdi W

In simboli:

j ,1 j n.w j = i=1maije i

con aij 𝕂

(              )
| a1.1  ...  a1.n|
(  ..   ...   .. )
 am1   ... amn

Quindi f : V n(𝕂) Wm(𝕂) è descritta interamente da una matrice m×n degli scalari aij e dalle basi del dominio e del codominio scelte.

Inoltre, rappresentando le ennuple dei componenti dei vettori di V (𝕂) rispetto alla base B come matrici (vettori colonna), ad esempio:

e 1 = (   )
| b1|
(  ...)
  bn

e moltiplicando la matrice corrispondente ad una trasformazione lineare per la matrice corrispondente ad un vettore, si ottiene il valore della trasformazione lineare applicata al vettore come vettore colonna di componenti rispetto alla base Bdi W(𝕂) , ad esempio:

(              )
| a1.1  ...  a1.n|
(  ..   ...   .. )
  am1  ...  amn(   )
| b.1|
( .. )
  bn = (   )
| c1.|
(  ..)
  cm


Le matrici rappresentano funzioni tra spazi vettoriali, e sono a loro volta uno spazio vettoriale.

Il prodotto di matrici corrisponde alla composizione di funzioni (lineari).

6.12 Rango di una Trasformazione Lineare

Rk(f) : = dim(Im(f))

Osservazione:

Se f : 𝕂n 𝕂m allora Im(f) è generata dalle colonne della matrice che rappresenta f

rk(f) = dimensione dello spazio vettoriale generato dalle colonne di f

6.13 Teorema di Nullità del Rango

(rank-nullity theorem)

f : 𝕂n 𝕂m lineare

Null(f) + Rk(f) = n

(dimensione nucleo + dimensione immagine = dimensione dominio)

6.13.1 Dimostrazione

6.14 Determinante

6.14.1 Motivazione

È utile poter determinare se una trasformazione lineare è un isomorfismo, cioè è biiettiva.

Affinché una trasformazione lineare sia un isomorfismo deve essere invertibile.

Dunque deve esistere la matrice inversa di una qualsiasi matrice associata alla trasformazione lineare, cioè quest’ultima deve essere invertibile.

Determinare se una matrice quadarata è invertibile equivale a determinare se le sue colonne sono linearmente indipendenti, e questo porta alla definizione di determinante.

Il determinante della matrice associata caratterizza anche il fattore per cui le aree / i volumi sono scalati dalla trasformazione lineare. Da questo punto di vista quando il determinante è nullo lo spazio viene ridotto ad una dimensione inferiore, e quindi le aree diventano 0. Essendoci perdita di informazione la trasformazione lineare non può essere un isomorfismo.

6.14.2 Definizione

Serve una funzione:

det : 𝕂n,n 𝕂

tale che det(A) = 0 ⇐⇒ le colonne di A sono linearmente indipendenti

e che sia facile da calcolare.

det(In) : = 1

det(c1...cn) : = 0 se ci sono due colonne uguali.

Imponiamo infine il determinante lineare in ogni singola colonna.