Lezioni di Geometria
Lucian B˘adescu, Ettore Carletti, Giacomo Monti Bragadin
Introduzione
Mηδǫ´ις αγǫωµǫτρητoς ǫισ´´ ιτω
Lo scopo di queste note `e offrire un testo scritto per il Corso di Geometria Analitica per gli studenti del secondo semestre del primo anno del Corso di Studi in Matematica. Volendo essere autosufficienti abbiamo inserito nella prima parte le nozioni e i risultati principali di algebra lineare che sono asso- lutamente necessari per la seconda parte, bench`e facciano parte del programma del Corso di Algebra Lineare inserito nel primo semestre del primo anno. Questo permette al Lettore di avere a disposizione tutti i prerequisiti di Algebra Lineare in modo diretto e comodo. Abbiamo altres`ı voluto fornire una panoramica leggermente pi `u ampia di quella prevista nel programma ufficiale.
Pur essendo disponibili ottimi manuali di Geometria (ad esempio [12]), ci `e sembrato utile per gli studenti avere un testo il pi `u vicino possibile a quello che si insegna nei corsi del primo anno. In particolare lo studio delle coniche e delle quadriche `e, in queste note, pi `u approfondito e dettagliato di quanto usualmente si trova negli altri testi. Inoltre `e peculiare l’utilizzo delle coordinate baricentriche in Geometria Affine (si veda il capitolo 4).
Queste note provengono, con gli adattamenti necessari, in gran parte da [2].
Genova, 20 Febbraio 2004 L. B˘adescu, E. Carletti, G. Monti Bragadin
Abbreviazioni:i.e. (dal latino id est) sta per “cio`e”; e.g. (dal latino exempli gratiae) sta per “per esempio”.
Capitolo 1
Preliminari
Utilizzeremo, in questo libro, le seguenti notazioni:
-Nl’insieme dei numeri naturali{1,2, . . . ,}, -Zl’insieme dei numeri interi,
-Ql’insieme dei numeri razionali, -Rl’insieme dei numeri reali -Cl’insieme dei numeri complessi.
SiaXun insieme non vuoto. Denoteremo conP(X) l’insieme di tutti i sottoinsiemi diX(incluso il sottoinsieme vuoto∅).
Definizione 1.1 (Relazioni di equivalenza, insiemi quozienti). SianoXun insieme non vuoto e Run sottinsieme non vuoto del prodotto cartesiano X×X di X per se stesso. Il sottinsieme R si chiama relazione binariasuX. Sex,y∈X, scriveremoxRy, e diremo chex `ein relazione R con y, se (x,y)∈R. Per esempioR:={(x,x)|x∈X}(la diagonale diX) rappresenta la relazione (binaria) di uguaglianza suX.
Diremo che una relazione binariaRsuX`e unarelazione d’equivalenzase i seguenti tre assiomi sono soddisfatti:
i) Per ognix∈Xsi haxRx. (Riflessivit`a)
ii) Per ognix,y∈Xtali chexRysi hayRx. (Simmetria)
iii) Per ognix,y,z∈Xtali chexRyeyRz, si haxRz. (Transitivit`a) Esempi 1.2.
1. SiaX=Ze sian≥2 un numero naturale fissato. Sia
Rn={(x,y)∈Z×Z|x−y∈nZ},
dovenZdenota l’insieme dei multipli din. Si verifica facilmente cheRn`e una relazione d’equivalenza suZ(chiamata la congruenza modulon).
2. Sia X = Q eR = {(x,y) ∈ Q×Q|x−y ∈ Z}. Si verifica facilmente che ancheR `e una relazione d’equivalenza.
Definizione 1.3. Sia data una relazione di equivalenzaRsu un insieme non vuotoX. Per comodit`a, se x,y∈X, scriveremox∼y(e leggeremo “x`e equivalente ay”) invece dixRy. Sex∈Xdenoteremo con ˆx il sottinsieme{y∈X|x∼y}diXche chiameremo laclasse di equivalenzadix. Abbiamo ovviamente:
i) Per ognix∈X,x∈x.ˆ ii) X= S
x∈X
ˆ x.
iii) Per ognix,y∈X, ˆx∩yˆ,∅se e solo se ˆx=y, se e solo seˆ x∼y.
3
Solo la propriet`a iii) ha bisogno di dimostrazione. Si ha ˆx∩yˆ,∅se e solo se esistez∈Xtale chez∼x ez∼y, o ancora, tenendo conto degli assiomi di simmetria e transitivit`a,x∼y. Ne segue che l’insieme delle classi di equivalenza costituiscono una partizione diX(Si dice che una famiglia di sottinsiemi di un insieme non vuotoXforma una partizione diXseX `e unione di questa famiglia e due sottinsiemi della famiglia o coincidono o sono disgiunti).
Chiameremo l’insieme
X/R:={xˆ|x∈X}
(i cui elementi sono sottinsiemi diX) l’insieme quoziente di X modulo R.
SianoXeRcome sopra. Chiameremosistema completo di rappresentanti di X modulo Runa famiglia {xi}i∈Idi elementi diXche godono delle seguenti propriet`a:
i) Per ogni (i,j)∈I×I,xiRxj(o semplicementexi∼xj) se e solo sei=j.
ii) X=S
i∈I
ˆ xi.
In altre parole, dare un sistema completo di rappresentanti diXmoduloRequivale a scegliere inogni classe di equivalenza un unico elemento. Per esempio l’insieme{0,1, ...,n−1}(rispettivamente l’insieme [0,1)∩Q) `e un sistema completo di rappresentanti per la congruenza modulonsuZ(rispettivamente per la relazione di equivalenza suQdel secondo Esempio 1.2).
Definizione 1.4(Azione di un gruppo su un insieme). SiaGun gruppo (non necessariamente commuta- tivo) la cui operazione `e denotata moltiplicativamente, e siaXun insieme non vuoto. Si dice cheG agisce (a sinistra) sull’insiemeXse `e data un’applicazione f:G×X→Xcon le seguenti propriet`a:
i) Per ognig,g′∈Ge ognix∈Xsi ha f(g′g,x)= f(g′,f(g,x)).
ii) Per ognix∈Xsi haf(e,x)=x, dovee`e l’elemento neutro del gruppoG.
Se denotiamog·x := f(g,x),∀g ∈ Ge∀x ∈ X, allora le propriet`a i) e ii) si riscrivono nella forma (g′g)·x=g′·(g·x) ee·x=x.
Se un gruppoGagisce su un insiemeX, per ognix∈Xdenotiamo Orb(x) (e chiamiamo l’orbitadix) il sottinsieme Orb(x) :={g·x|g∈G}. Per ognix∈X, consideriamo il sottinsiemeO(x) :={g∈G|g·x=x}. Si verifica facilmente che O(x) `e un sottogruppo diG che chiameremo lostabilizzatore di x (rispetto all’azione di Gsu X). Fissato un elemento x ∈ X, definiamo l’applicazione fx:G → Orb(x) mediante fx(g)= g·x. L’applicazione fx `e ovviamente surgettiva. Inoltre, per ogni due elementi g,h ∈Gavremo fx(g) = fx(h) se e solo se g·x = h·x, quindi se e solo seh−1·(g·x) = x, o ancora, (h−1g)·x = x, i.e.
h−1g ∈O(x). Ne segue che l’applicazione fx induce una bigezione naturalegx:G/O(x)→Orb(x) (dove G/O(x) `e l’insieme delle classi laterali sinistre diGmoduloO(x)) mediantegx( ˆg) :=gx, dove ˆg:=gO(x).
Ogni azione diGsuXinduce una relazione d’equivalenza suX. Infatti per ognix,y ∈Xdiciamo chex∼ysey ∈Orb(x), i.e. se esisteg∈Gtale chey=g·x. `E immediato verificare che in questo modo otteniamo una relazione d’equivalenza suXtale che l’insieme di tutte le orbite coincide con l’insieme quozienteX/∼. In particolare, ogni due orbite o coincidono o sono disgiunte, e l’insieme di tutte le orbite forma una partizione diX.
Definizione 1.5(Caratteristica di un campo). Ricordiamo che un anello unitarioK=(K,+,·) si chiama corpose ogni elemento λ ∈ K,λ , 0, `e invertibile, i.e. esiste µ ∈ K tale che λ·µ = µ·λ = 1, dove 1=1K,0=0K`e l’elemento unit`a (o l’identit`a) dell’anelloK. Un corpoKsi dicecommutativo(ocampo) se la sua moltiplicazione `e un’operazione commutativa. Esempi di campi: il campoQdei numeri razionali, il campoRdei numeri reali, il campoCdei numeri complessi, il campoZp:=Z/pZdelle classi di resto modulo un numero primop≥2 fissato.
Sia Kun campo. Consideriamo l’omomorfismo canonico di anelli unitari ϕ: Z → K (dove Z `e l’anello degli interi) definito medianteϕ(n)=n·1K, dove
n·1K:=
1K+· · ·+1K
| {z }
nvolte
sen>0
0K sen=0
(−1K)+· · ·+(−1K)
| {z }
−nvolte
sen<0.
5 Allora Ker(ϕ) :={n∈Z|ϕ(n)=0}`e un ideale diZ. Una conseguenza del teorema di divisione con resto inZfa vedere che ogni ideale diZ`e della formapZ={pn|n∈Z}conp≥0 (cio`e `eprincipale). Ci sono due possibilit`a da analizzare:
p=0: i.e.ϕ `e un omomorfismo iniettivo. In questo caso si dice cheK `e uncampo di caratteristica zero.
L’iniettivit`a diϕ implica che ogni numero intero n , 0 ha immagine , 0K in K, quindi `e un elemento invertibile inK. Ne segue che l’omomorfismo ϕ : Z → K si prolunga in modo unico a un omomorfismo di campi ˜ϕ: Q → K definito sul campo Q dei numeri razionali mediante ϕ(m/n)˜ =ϕ(m)/ϕ(n), conm,n∈Z,n,0. Poich`e ˜ϕ`e automaticamente iniettivo ne segue che ogni campoKdi caratteristica zero contiene un sottocampo isomorfo al campoQdei numeri razionali (e in particolare, ogni campo di caratteristica zero `e infinito). Questo sottocampo, dettosottocampo primodiK, coincide con l’intersezione di tutti i sottocampi diK.
p>0: dalla definizione dipne segue chep`e il pi `u piccolo intero positivo con la propriet`a chep·1K=0K. In questo caso si dice cheK `e uncampo di caratteristica p > 0 ep si chiama lacaratteristicadiK.
Osserviamo chep `e necessariamente un numero primo. Infatti,p , 1 poich`e 1K , 0K. D’altra parte, sep =mn, conm,n> 1 (quindim,n <p) allora l’uguaglianza (m·1K)(n·1K)=p·1K =0K
implicherebbe m·1K = 0K o n·1K = 0K (poich`e un campo non ha divisori di zero , 0K), ci `o che contraddice la definizione dip. Quindi p ≥ 2 `e un numero primo. Allora per il I◦ teorema di isomorfismo di anelli commutativi si ha cheKcontiene il sottocampo Im(ϕ) :={n·1K| n∈Z} isomorfo al campoZp=Z/pZdelle classi di resto modulop. Di nuovo questo sottocampo coincide con l’intersezione di tutti i sottocampi diK. Quindi, sep≥2 `e un numero primo, ogni campo di caratteristicap`e caratterizzato dal fatto che esiste un suo sottocampo isomorfo al campoZp.
Capitolo 2
Spazi vettoriali
SianoKun campo eVun insieme non vuoto.
Definizione 2.1. Siaϕ:K×V →Vun’applicazione arbitraria. Si dice cheϕ `e unalegge di composizione esterna, oppure unaoperazione algebrica esterna di K su V. Seϕ`e una tale legge di composizione esterna di KsuVallora per ogniλ∈Ked ogniv∈Vdenoteremo
λ·v:=ϕ(λ,v)∈V.
Definizione 2.2. Si dice che l’insieme non-vuotoVdotato di una legge di composizione interna+:V× V→V, ed anche di una legge di composizione esterna·:K×V→VsuK, `euno spazio vettoriale sul campo K, se (V,+) `e gruppo abeliano, e, inoltre, sono soddisfatti i seguenti assiomi:
i) λ·(v1+v2)=λ·v1+λ·v2, per ogniλ∈Ke per ogniv1,v2∈V(in entrambi i membri l’operazione
“+” si riferisce alla legge di composizione interna+:V×V→V).
ii) (λ+µ)·v=λ·v+µ·v, per ogniλ, µ∈Ke per ogniv∈V(l’operazione “+” del primo membro si riferisce alla addizione del campoK, mentre l’operazione “+” del secondo membro alla operazione interna+:V×V→V).
iii) λ·(µ·v)=(λµ)·vper ogniλ, µ∈Ke per ogniv∈V.
iv) 1·v=v, per ogniv∈V, dove 1 `e l’elemento unit`a del campoK.
Quando non c’`e nessun pericolo di confusione scriveremo semplicementeλvinvece diλ·v(con λ∈Kev∈V). Diremo anche cheV `e uno spazio vettoriale sul campoK, senza precisare esplicitamente le operazioni+:V×V→Ve·:K×V→V. In tale caso gli elementi diKvengono chiamatiscalarie gli elementi diV vettori.
Dalla Definizione 2.2 ne segue subito che per ogni scalareλ∈Ke per ogni vettorev∈Vvalgono le uguaglianze seguenti 0K·v=0V,λ·0V=0Ve (−λ)·v=λ·(−v)=−λ·v, dove 0K(risp. 0V) `e l’elemento zero del campoK(risp. l’elemento zero del gruppo abeliano (V,+)). Inoltre, se si haλ·v=0V, conλ∈K ev∈V, allora ne segueλ=0Koppurev=0V. Infatti, seλ,0, alloraλ `e invertibile inK(perch´eK`e un campo). Quindi 0V=λ−1·0V=λ−1·(λ·v)=(λ−1λ)·v=1·v=v.
Esempi 2.3.
1. Per ogni campoKe per ogni interon≥1, consideriamo l’insiemeV:=Knsu cui definiamo la legge di composizione interna+:V×V→Vmediante
(a1, ...,an)+(b1, ...bn) :=(a1+b1, ...,an+bn), ∀(a1, ...,an),(b1, ...,bn)∈V. 7
`E facile verificare che in questo modo (V,+) diventa un gruppo abeliano. Definiamo inoltre la legge composizione esterna·:K×V→Vponendo:
λ·(a1, ...,an) :=(λa1, ..., λan), ∀λ∈K, ∀(a1, ...,an)∈V,
Si verifica facilmente che il gruppo abeliano (V,+) diventa uno spazio vettoriale suKrispetto alla legge di composizione esterna cos`ı definita. Questo spazio vettoriale si chiamalo spazio vettoriale standard di dimensione n sul campo K.
2. Consideriamo l’anello dei polinomiK[X1, ...,Xn] inn≥1 indeterminateX1, ...,Xna coefficienti nel campoK. Rispetto all’addizione dei polinomi e alla moltiplicazione degli elementi diK(considerati come polinomi costanti) con polinomi,V:=K[X1, ...,Xn] diventa uno spazio vettoriale suK.
Per ognim≥1 denotiamo conVml’insieme dei polinomi omogenei diVdi grado totalem, e conWm il sottoinsieme dei polinomi diVdi grado totale≤m(in entrambi i casi il polinomio 0 appartiene per convenzione sia aVm che aWm). Perch´e la somma di ogni due polinomi diVm (risp. diWm) appartiene aVm(risp. aWm),VmeWmsono spazi vettoriali suK.
3. SiaKun campo e siaAun anello unitario tale cheAcontieneKcome sottocampo. Supponiamo in- oltre che tutti gli elementi diKcommutino con tutti gli elementi diA(condizione automaticamente soddisfatta seA`e commutativo). AlloraA`e spazio vettoriale suK, dove l’operazione di addizione dei vettori coincide con l’addizione nell’anelloA, e seλ∈Kev∈A, alloraλ·v `e il prodotto inA diλ, considerato come elemento diA, conv. In particolare,R`e uno spazio vettoriale suQ,C`e uno spazio vettoriale sia suQche suR.
4. SiaK=Ril campo dei numeri reali. Consideriamo l’insiemeVdi tutte le funzioni continue definite sull’intervallo [a,b] (a<b) a valori reali. Rispetto all’addizione usuale delle funzioni
(f +g)(x)= f(x)+g(x), ∀ f,g∈V, x∈[a,b],
l’insiemeVdiventa un gruppo abeliano. Se inoltre definiamo la legge di composizione esterna R×V→V, (λ,f)→λf (conλf funzione continua su [a,b] definita mediante la formula
(λf)(x)=λf(x), ∀f ∈V, ∀λ∈R), alloraVdiventa spazio vettoriale suR.
Definizione 2.4. SianoV1eV2 due spazi vettoriali suK. Denotiamo conV:=V1×V2. Sull’insiemeV definiamo la legge di composizione interna mediante la formula:
(v1,v2)+(w1,w2) :=(v1+w1,v2+w2), ∀v1,w1∈V1, ∀v2,w2∈V2.
`E facile verificare che, rispetto a questa legge,Vdiventa un gruppo abeliano, il cui elemento unit`a (zero)
`e 0V :=(0V1,0V2), e l’elemento opposto di (v1,v2) `e (−v1,−v2). Definiamo ora la legge di composizione esterna·:K×V→Vmediante la formula:
λ·(v1,v2) :=(λv1, λv2), ∀λ∈K, ∀v1∈V1, ∀v2∈V2.
Si verifica facilmente che il gruppo abeliano (V,+) sopra definito insieme a questa legge di composizione esterna soddisfa gli assiomi della Definizione 2.2. In altre parole, V = V1 ×V2 diventa uno spazio vettoriale suKrispetto a queste due operazioni. Questo spazio vettoriale suKsi chiamaspazio vettoriale prodotto direttodiV1conV2suK. D’ora innanzi denoteremo questo spazio vettoriale suKsemplicemente conV1×V2.
Definizione 2.5. SiaVuno spazio vettoriale suK. Un sottinsieme non vuotoWdiVsi chiamasottospazio vettorialedello spazio vettorialeVsuKse sono soddisfatti i seguenti assiomi:
i) Sev1,v2∈Wallorav1+v2∈W.
ii) Sev∈Weλ∈Kalloraλv∈W.
9 Dalla Definizione 2.5 ne segue che, per ogni sottospazio vettorialeWdello spazio vettorialeVsu K,W`e sottogruppo del gruppo abeliano (V,+). In particolare, 0V∈W. Inoltre,Wdiventa esso stesso uno spazio vettoriale suKpoich`e l’assioma ii) della Definizione 2.5 fa vedere che la legge di composizione esterna diKsuVne induce una suW. SeV `e uno spazio vettoriale suKalloraW=VeW′={0V}sono esempi di sottospazi vettoriali diV.
Proposizione 2.6. Sia V uno spazio vettoriale su K e sia{Wi}i∈Iuna famiglia non vuota di sottospazi vettoriali di V. AlloraT
i∈I
Wi`e un sottospazio vettoriale di V.
Dimostrazione.La dimostrazione segue facilmente dalla Definizione 2.5.
Definizione 2.7. SiaS un sottinsieme non vuoto di uno spazio vettorialeVsu K. Denotiamo conhSi l’intersezione di tutti i sottospazi vettoriali di V che contengonoS (l’insieme dei sottospazi diV che contengonoS `e non vuoto perch`eV `e un tale sottospazio). Dalla Proposizione 2.6 derivano le seguenti propriet`a:
i) hSi`e un sottospazio vettoriale diVtale cheS⊆ hSi.
ii) SeW `e un sottospazio vettoriale arbitrario diVche contieneSallorahSi ⊆W.
In altre parole,hSi`e il pi `u piccolo sottospazio vettoriale diVche contieneS. Questo sottospazio vettoriale hSi si chiama il sottospazio vettoriale di V generato da S ⊆ V. Si dice che S genera lo spazio vettorialeVsuK(o cheS`e unsistema di generatoridiVsuK) sehSi=V. SeS`e un sistema di generatori diVe seS′`e un sottinsieme diVche contieneS, alloraS′ `e ancora un sistema di generatori diV.
Definizione 2.8. SianoW1eW2due sottospazi di uno spazio vettorialeVsuK. Poniamo per definizione W1+W2:=hW1∪W2i.
Il sottospazio vettoriale cos`ı definito si chiama lasommadei sottospaziW1eW2. Quindi,W1+W2 `e il pi `u piccolo sottospazio vettoriale diVche contiene entrambi i sottospaziW1eW2.
Proposizione 2.9. Nelle ipotesi dellaDefinizione 2.8si ha
W1+W2={v1+v2|v1∈W1, v2∈W2}.
Dimostrazione.Denotiamo conW′il membro destro dell’uguaglianza da dimostrare. `E facile verificare cheW′`e sottospazio vettoriale diV. Poich`e ogni vettorev1 ∈W1 si pu `o scriverev1 =v1+0V, ne segue che W1 ⊆W′; analogamente,W2 ⊆ W′, da cuiW1+W2 ⊆ W′. Poich`e l’inclusione opposta `e ovvia, la
proposizione `e cos`ı dimostrata.
Proposizione 2.10. Sia S={v1,v2, ...,vn} ⊆V un insieme non vuoto finito di vettori dello spazio vettoriale V sul campo K. Allora si ha
hSi={a1v1+a2v2+· · ·+anvn|(a1,a2, ...,an)∈Kn}.
Dimostrazione.Denotiamo conWil membro destro dell’uguaglianza da dimostrare. L’inclusioneW⊆ hSi segue subito dalle definizioni. D’altra parte, `e chiaro cheS ⊆W. Per dimostrare l’inclusionehSi ⊆ W, sar`a sufficiente provare cheW`e sottospazio vettoriale diV. Quest’ ultimo fatto segue direttamente dalle
definizioni.
Per la Proposizione 2.10 ogni vettorev∈ hSiha una rappresentazione (non necessariamente unica) della formav =a1v1+· · ·+anvn, con (a1, ...,an)∈Kn. Una tale rappresentazione si chiamacombinazione lineare a coefficienti in K degli elementi di S={v1, ...,vn}. Pertanto la Proposizione 2.10 si pu `o riformulare dicendo chehSicoincide con l’insieme delle combinazioni lineari a coefficienti inKdi elementi diS.
Corollario 2.11. Un sottinsieme S={v1,v2, ...,vn}dello spazio vettoriale V su K `e un sistema di generatori di V se e solo se per ogni vettore v∈V esistono a1,a2, ...,an∈K (che dipendono da v) tali che v=a1v1+a2v2+· · ·+anvn.
Uno spazio vettorialeVsuKche possiede un sistema finito di generatori si chiamaspazio vettoriale finitamente generato su K. D’ora innanzi considereremo solo spazi vettoriali finitamente generati.
Definizione 2.12. SiaV uno spazio vettoriale su K, e sia S = {v1,v2, ...,vn} un sottinsieme finito non vuoto diV. Si dice cheS `e unsottinsieme linearmente indipendente su K(o cheS `e unsistema linearmente indipendente su K) se per ognia1,a2, ...an∈Ktali chea1v1+a2v2+· · ·+anvn=0V, risultaa1=a2=...=an=0.
Ogni sistema linearmente indipendente contiene solo vettori non nulli (infatti, se per esempio v1 =0V, allora avremmo 1·v1+0·v2+· · ·+0·vn=0V). SeS={v1,v2, ...,vn}`e un sistema linearmente indipendente (suK) alloravi ,vjsei, j(infatti, se per esempiov1=v2, allora avremmo 1·v1+(−1)· v2+0·v3+· · ·+0·vn=0V). Inoltre, ogni sottinsieme di un sistema linearmente indipendente `e ancora un sistema linearmente indipendente.
Proposizione 2.13. Sia S un sottinsieme finito dello spazio vettoriale V su K. Allora S `e un sistema linearmente indipendente su K se e solo se v<hS\ {v}i,∀v∈S.
Dimostrazione.SiaS={v1, ...,vn}. Supponiamo cheSsia linearmente indipendente suK. Se (per esempio) v1∈ h{v2, ...,vn}i, per la Proposizione 2.10 esistonoa2, ...,an∈Ktali chev1=a2v2+· · ·+anvn. Quest’ultima uguaglianza si pu `o ancora scrivere (−1)v1+a2v2+· · ·+anvn = 0, ci `o che contraddice il fatto che S `e linearmente indipendente.
Viceversa, supponiamo chev<hS\ {v}i,∀v∈S. SeSnon fosse un sistema linearmente indipendente su K, esisterebbe (a1, ...,an) ∈ Kn \ {(0, ...,0)}tale che a1v1+· · ·+anvn = 0. Supponiamo per esempio a1 , 0. Poich`e K `e campo, a1 `e invertibile in K. Allora questa uguaglianza si pu `o ancora scrivere a−11 (a1v1)=a−11 ((−a2)v2+· · ·+(−an)vn). Per la definizione di spazio vettoriale avremo chev1=(−a−11 a2)v2+
· · ·+(−a−11 an)vn, da cui, applicando sempre la Proposizione 2.10, otteniamo v1 ∈ hS\ {v1}i, che `e un
assurdo.
Definizione 2.14. SiaVuno spazio vettoriale suK. Si dice che un sottinsiemeS={v1, ...,vn}diV`e una base di V su KseS `e sia un sistema di generatori diVsuK, che un sistema linearmente indipendente su K.
Teorema 2.15. Sia V uno spazio vettoriale sul campo K. Allora ogni sistema finito di generatori di V su K contiene una base di V su K. In particolare, ogni spazio vettoriale finitamente generato su K possiede almeno una base su K.
Dimostrazione. Se V = {0V} allora conveniamo che V ammetta come base il sottinsieme vuoto di V.
Supponiamo quindi V , {0V}, e sia S un sistema finito di generatori di V. Se esiste v ∈ S tale che v∈ hS\ {v}i, allora l’insiemeS\ {v}`e ancora un sistema di generatori diV.
Infatti, se S = {v1 = v,v2, ...,vn}, per ipotesi esistono a2, ...,an ∈ K tali che v1 = a2v2+· · ·+anvn (Proposizione 2.10). Sew∈V`e un qualsiasi vettore, poich`eSgeneraV, ne segue che esistonob1, ...,bn∈K tali che w = b1v1+· · ·+bnvn. Sostituendo l’uguaglianza precedente nell’ultima relazione otteniamo w=(b2+b1a2)v2+· · ·+(bn+b1an)vn, quindi, per la Proposizione 2.10,S\ {v}`e un sistema di generatori diV(sev∈ hS\ {v}i).
Questo discorso ci fa vedere che, togliendo aSun numero finito di elementi, possiamo supporre cheSsia un sistema di generatori diVcon la propriet`a che per ogni v∈ S,v < hS\ {v}i. Allora per la Proposizione 2.13 si deduce cheS`e un sistema linearmente indipendente (quindi una base) perV.
Teorema 2.16. Sia V spazio vettoriale su K. Sia S = {v1, ...,vn}, n ≥ 1, un sistema linearmente indipendente e S′ = {w1, ...,wm}un sistema di generatori di V su K. Allora n ≤m e, modulo una permutazione dell’insieme {w1, ...,wm}, l’insieme{v1, ...,vn,wn+1, ...,wm}`e un sistema di generatori di V su K.
Dimostrazione.Poich`eS′ `e un sistema di generatori diV, per il Corollario 2.11 esistonoa1, ...,am ∈Ktali chev1=a1w1+· · ·+amwm. Poich`ev1 ,0 (S `e un sistema linearmente indipendente), almeno uno degli scalariai `e diverso da zero. Riordinando eventualmente i vettori diS′, possiamo supporre chea1 ,0.
Poich`eK`e campo,a1 `e invertibile inK, quindi dall’ uguaglianza di sopra deduciamo w1 =a−11 v1−(a−11 a2)w2− · · · −(a−11 am)wm.
Ora dimostreremo:
11 Affermazione 1.L’insieme{v1,w2, ...,wm}`e un sistema di generatori diV.
Per dimostrare l’Affermazione 1, siav∈Vun vettore arbitrario. Poich`eS′generaV, esistonob1, ...,bm∈K tali chev = b1w1+· · ·+bmwm, da cui, tenendo conto della relazione di sopra, si ottienev = b1(a−11 v1− (a−11 a2)w2− · · · −(a−11 am)wm)+b2w2+· · ·+bmwm=(b1a−11 )v1+(b2−b1a−11 a2)w2+· · ·+(bm−b1a−11 am)wm, ci `o che dimostra l’Affermazione 1 (usando sempre il Corollario 2.11).
Supponiamo ora, per induzione, che{v1, ...,vi,wi+1, ...,wm}sia un sistema di generatori diV, per un itale che 1≤i≤n−1 (in particolare,i≤m). Allora esistonoc1, ...,cm∈Ktali chevi+1=c1v1+· · ·+civi+ ci+1wi+1+· · ·+cmwm. Seci+1=· · ·=cm=0, o sei=m, risulterebbe che{v1, ...,vi,vi+1}non `e linearmente indipendente, ci `o che contraddice l’ipotesi che S `e linearmente indipendente. Ne segue chei < me che esiste almeno un j ∈ {i+1, ...,m}tale checj ,0. Riordinando, se necessario, i vettori{wi+1, ...,wm}, possiamo quindi supporreci+1,0. Poich`eK`e campo,ci+1 `e invertibile inK. Allora la relazione di sopra implica
wi+1=(−c−1i+1c1)v1+· · ·+(−c−1i+1ci)vi+c−1i+1vi+1+ +(−c−1i+1ci+2)wi+2+· · ·+(−c−1i+1cm)wm.
Per dimostrare il teorema `e sufficiente provare il seguente passo d’induzione:
Affermazione 2.Nelle ipotesi di sopra,{v1, ...,vi,vi+1,wi+2, ...,wm}`e un sistema di generatori di V.
Procedendo come sopra, sempre usando il Corollario 2.11, dimostrare l’Affermazione 2 equivale a far vedere che per ogniv∈Vesistonoλ1, ..., λm∈Ktali chev=λ1v1+· · ·+λivi+λi+1vi+1+λi+2wi+2+· · ·+λmwm. Ma, per l’ipotesi induttiva,{v1, ...,vi,wi+1, ...,wm}`e un sistema di generatori diV, quindi esistonod1, ...,dm∈ Ktali chev=d1v1+· · ·+divi+di+1wi+1+· · ·+dmwm. Tenendo conto della relazione di sopra otteniamo
v=(d1−di+1c−1i+1c1)v1+· · ·+(di−di+1c−1i+1ci)vi+
+di+1c−1i+1vi+1+(di+2−di+1c−1i+1ci+2)wi+2+· · ·+(dm−di+1c−1i+1cm)wm,
ci `o che dimostra l’Affermazione 2 (e quindi anche il teorema).
Corollario 2.17. Sia V uno spazio vettoriale finitamente generato su K, e sia S⊆V un sottinsieme finito. Allora ogni sistema linearmente indipendente di V `e finito. Inoltre, le seguenti affermazioni sono equivalenti:
(i) S `e una base di V su K.
(ii) S `e un sistema di generatori di V su K minimale.
(iii) S `e un sistema linearmente indipendente di V su K massimale.
Dimostrazione.Osserviamo innanzitutto che se{v1, ...,vn}(conn≥1) `e un sistema linearmente indipen- dente, e sevn+1`e un vettore arbitrario diV, allora{v1, ...,vn,vn+1}`e un sistema linearmente indipendente se e solo sevn+1<h{v1, ...,vn}i. La necessit`a dell’ultima condizione segue dalla Proposizione 2.13. Vicev- ersa, supponiamo chevn+1 <hv1, ...,vni, e sianoa1, ...,an,an+1∈Ktali chea1v1+· · ·+anvn+an+1vn+1 =0.
Se an+1 = 0, allora necessariamente a1 = · · · = an = 0 (poich`e{v1, ...,vn} `e un sistema linearmente in- dipendente). Se invece an+1 , 0, allora an+1 `e invertibile in K, da cui si deduce l’uguaglianza vn+1 = (−a−1n+1a1)v1+· · ·+(−a−1n+1an)vn, che, per il Lemma 2.11 contraddice la nostra ipotesi. Pertanto la nostra affermazione `e dimostrata.
L’equivalenza tra (i) e (ii) segue dal Teorema 2.15. Invece l’equivalenza tra (i) e (iii) si deduce nel modo seguente. L’implicazione (i) =⇒(iii) si ottiene immediatamente dall’osservazione di sopra.
Viceversa, siaSun sistema linearmente indipendente massimale. SeSnon fosse un sistema di generatori diVesisterebbe un vettorev∈Vtale chev<hSi. Allora dall’osservazione di sopra risulta cheS∪ {v}`e un sistema linearmente indipendente, ci `o che contraddice la massimalit`a diS.
Corollario 2.18. Sia V uno spazio vettoriale finitamente generato su K. Allora:
(i) Ogni sistema linearmente indipendente di V su K pu`o essere completato a una base di V su K.
(ii) Da ogni sistema di generatori di V su K si pu`o estrarre una base di V su K.
Dimostrazione.Conseguenza immediata del corollario precedente.
Corollario 2.19. Sia V uno spazio vettoriale finitamente generato su K. Allora V possiede una base finita su K e ogni due basi di V su K hanno lo stesso numero di elementi.
Dimostrazione.L’esistenza di una base finita diVsuKsegue dal Teorema 2.15. Siano alloraSeS′due basi diVsuK. ConsiderandoScome sistema linearmente indipendente eS′come sistema di generatori e applicando il Teorema 2.16 otteniamo che la cardinalit`a diS`e≤cardinalit`a diS′. Scambiando i ruoli si
ottiene la diseguaglianza opposta.
Corollario 2.20. Sia S={v1, ...,vn}una base dello spazio vettoriale V su K. Allora per ogni vettore v∈V esiste un’ unica n-upla(a1, ...,an)∈Kntale che v=a1v1+· · ·+anvn.
Dimostrazione.L’esistenza di una tale rappresentazione segue dal fatto cheS`e un sistema di generatori di VsuKvia la Proposizione 2.10. Sia orav=b1v1+· · ·+bnvn, con (b1, ...,bn)∈Kn, un’altra rappresentazione divcome combinazione lineare div1, ...,vn. Ne segue che (a1−b1)v1+· · ·+(an−bn)vn=0, da cuiai−bi=0
∀i=1, ...,n, poich`eS`e un sistema linearmente indipendente.
Definizione 2.21. Nelle ipotesi del Corollario 2.20, gli scalaria1, ...,ansi chiamano lecoordinate del vettore v rispetto alla base{v1, ...,vn}.
Definizione 2.22. SiaVuno spazio vettoriale finitamente generato suK. SeV,0V, si chiamadimensione di V su K, e si denota dimK(V), il numero degli elementi di una base diV(suK). SeV=0V(in tal caso si dice cheV`e lo spazio nullo) allora poniamo per definizione dimK(V)=0 (in altre parole, lo spazio nullo ha come base l’insieme vuoto).
Il Corollario 2.19 fa vedere la Definizione 2.22 dipende solo dallo spazio vettorialeVsuK, e non dalla scelta della base diV(suK). D’ora innanzi useremo la terminologia dispazio vettoriale di dimensione finita su Kinvece di “spazio vettoriale finitamente generato suK”.
Corollario 2.23. Sia V uno spazio vettoriale di dimensione finita su K e sia W un sottospazio di V. Allora W `e ancora uno spazio vettoriale di dimensione finita. Inoltre,dimK(W)≤dimK(V), l’uguaglianza avendosi se e solo se W=V.
Dimostrazione. Sia dimK(V) = n, e S = {e1, ...,en} una base diV su K. Se S′ ⊆ W `e un insieme finito linearmente indipendente suK, allora dal Teorema 2.16 ne segue che il numero degli elementi diS′ `e
≤n. Ci `o implica cheW ammette una base finitaS′conmelementi, dovem=dimK(W)≤n =dimK(V) (Teorema 2.15). SeW :=hS′i,V, allora esiste unv∈V\W. Per la dimostrazione del Corollario 2.17 ne segue cheS∪ {v}`e un sistema linearmente indipendente diV, da cuim<n.
Esempi 2.24. 1. SiaV = Kn lo spazio vettoriale standard dell’ Esempio 2.3, 1). Per ognii = 1, ...,n consideriamo il vettoreei = (0, ...,0,1,0, ...,0) (con 1 ali-esimo posto e zero altrove). AlloraB := {e1, ...,en}`e una base diVsuK (la verifica `e facile ed `e lasciata al lettore), per cui dimK(Kn) =n.
La base{e1, ...,en} si chiama la base canonica dello spazio vettoriale standard Kn su K. Questo fatto d`a una giustificazione alla terminologia spazio vettoriale standard di dimensione n su Kintrodotta nell’Esempio 2.3, 1).
2. SiaKun campo e sia
A:=
a11 a12 · · · a1n
a21 a22 · · · a2n
... ... ... ... am1 am2 · · · amn
13 una matrice amrighe encolonne a coefficienti inK(conm,n≥1). Nello spazio vettoriale standard Kndi dimensionensuKconsideriamo i vettorivi:=(ai1, ...,ain)∈Kn,∀i=1, ...,m, e denotiamo con hv1, ...,vmiil sottospazio vettoriale diKn generato dall’insieme{v1, ...,vm}. Utilizzando il concetto di dimensione vettoriale possiamo definire il concetto di rango, o caratteristicadella matrice A mediante la formula
rang(A) :=dimK(hv1, ...,vmi).
Dalla definizione ne segue che
rang(A)≤min{m,n}.
In particolare, rang(A)=mse e solo seS`e un sistema linearmente indipendente suK. Inoltre,S`e un sistema di generatori diKnsuKse e solo se rang(A)=n(quindi, necessariamente,m≥n).
3. Consideriamo il campoCdei numeri complessi visto come spazio vettoriale suR(Esempio 2.3, 4)). AlloraS={1,i}`e una base diCsuR.
4. Consideriamo l’insiemeQ(√3
2) := {a+b√3 2+c√3
4 | a,b,c∈ Q}. `E facile verificare cheQ(√3 2) `e un campo che contieneQcome sottocampo. In particolare,Q(√3
2) `e uno spazio vettoriale suQ. `E anche facile verificare cheS ={1,√3
2,√3
4} `e una base diQ(√3
2) suQ. (Suggerimento: si usi il fatto che il polinomioX3−2 `e irriducibile inQ[X].)
Proposizione 2.25. Siano V e W due spazi vettoriali di dimensione finita su K. Se{v1, ...,vn}`e una base di V e {w1, ...,wm}`e una base di W (su K), allora
{(v1,0W), ...,(vn,0W),(0V,w1), ...,(0V,wm)}
`e una base dello spazio vettoriale prodotto diretto V×W su K. In particolare, V×W `e uno spazio vettoriale di dimensione finita su K e
dimK(V×W)=dimK(V)+dimK(W).
Dimostrazione.Sianoa1, ...,an,b1, ...,bm∈Ktali chea1(v1,0W)+· · ·+an(vn,0W)+b1(0V,w1)+· · ·+bm(0V,wm)= (0V,0W). Tenendo conto della definizione di prodotto diretto di spazi vettoriali, l’uguaglianza di sopra
`e equivalente alle seguenti uguaglianzea1v1+· · ·+anvn=0Veb1w1+· · ·+bmwm=0W, che a loro volta implicano (tenendo conto delle nostre ipotesi)a1=· · ·=an=b1=· · ·=bm=0.
Dimostriamo ora che questi vettori generano lo spazioV×W. Sia (v,w)∈V×Wun vettore arbitrario.
Poich`e {v1, ...,vn} `e una base di V, esistono a1, ...,an ∈ Ktali che v = a1v1+· · ·+anvn. Analogamente, w =b1w1+· · ·+bmwm, conb1, ...,bm ∈ K. Allora (v,w)= a1(v1,0W)+· · ·+an(vn,0W)+b1(0V,w1)+· · ·+
bm(0W,wm).
Definizione 2.26. SianoVe W due spazi vettoriali suK. Un’applicazione f:V → W si chiamaomo- morfismo (o applicazione lineare) di spazi vettoriali su K(odi K-spazi vettoriali) se sono soddisfatti i seguenti assiomi:
i) Per ogniv1,v2∈Vsi haf(v1+v2)= f(v1)+ f(v2). (additivit`a) ii) Per ogniv∈Ve ogniλ∈Ksi ha f(λ·v)=λ·f(v). (omogeneit`a)
Un omomorfismo di spazi vettoriali f:V→WsuKsi chiamaisomorfismo di spazi vettoriali su Kse esiste un omomorfismo di spazi vettoriali suK g:W→Vtale cheg◦f =idVe f ◦g=idW.
Proposizione 2.27. (i)Per ogni spazio vettoriale V su K, l’applicazione identicaidV:V→V `e un omomorfismo di spazi vettoriali su K (infatti,idV`e anche un isomorfismo di spazi vettoriali su K).
(ii)Per ogni due omomorfismi di spazi vettoriali f:V→W e g:W→U su K, la composizione g◦f:V→U `e un omomorfismo di spazi vettoriali su K.
(iii)Sia f:V→W un omomorfismo di spazi vettoriali su K. Allora f `e un isomorfismo di spazi vettoriali su K se e solo se f `e un’applicazione bigettiva.
Dimostrazione.Esercizio.
Esempi 2.28. 1. SeW `e uno spazio vettoriale suK e se V `e un sottospazio vettoriale di W, allora l’inclusione canonicai:V→W`e un omomorfismo di spazi vettoriali suK.
2. Sia
A:=
a11 a12 · · · a1n a21 a22 · · · a2n ... ... ... ... am1 am2 · · · amn
una matrice amrighe encolonne (m,n≥ 1) a coefficienti inK. Considerando gli spazi vettoriali standard suK,Km eKn, di dimensionemenrispettivamente (vedi l’Esempio 2.3, 1)), definiamo l’applicazionef:Km→Knmediante la formula f(x1, ...,xm)=(y1, ...,yn), dove:
yi:= Xm
j=1
ajixj, ∀i=1, ...,n.
Si verifica facilmente chef `e un omomorfismo di spazi vettoriali suK.
Definizione 2.29. L’insieme di tutti gli omomorfismi di spazi vettoriali suKdefiniti suVa valori inW verr`a denotato con HomK(V,W). Se f,g∈HomK(V,W) definiamo l’applicazione f+g:V→Wmediante la formula
(f+g)(v) := f(v)+g(v), ∀v∈V.
`E facile verificare che f +g ∈ HomK(V,W). In particolare, sull’insieme HomK(V,W) viene cos`ı definita un’operazione algebrica rispetto alla quale HomK(V,W) diventa un gruppo abeliano. L’elemento neutro
`e l’omomorfismo 0 : V→ Wdefinito da 0(v) := 0W ∀v ∈V, e se f ∈HomK(V,W) allora l’opposto di f, denotato−f, `e l’omomorfismo definito da (−f)(v)=−f(v)∀v∈V.
Per ogniλ∈Ke per ognif ∈HomK(V,W) definiamo l’applicazioneλf:V→Wmediante la formula (λf)(v)=λf(v). `E facile vedere cheλf ∈HomK(V,W). In questo modo otteniamo una legge di compo- sizione esternaK×HomK(V,W)→HomK(V,W) rispetto alla quale il gruppo abeliano (HomK(V,W),+) diventa unK-spazio vettoriale.
SeV,W,Usono tre spazi vettoriali suK, e se f ∈HomK(V,W) eg∈HomK(W,U) sono omomorfismi di spazi vettoriali allora si verifica facilmente che la composizioneg◦ f :V→U`e un omomorfismo di K-spazi vettoriali. In altre parole, per ogni tre spazi vettorialiV,W,UsuKsi ottiene l’applicazione
HomK(V,W)×HomK(W,U)→HomK(V,U) definita da (f,g)→g◦f. Le seguenti propriet`a sono immediate:
g◦(f1+ f2)=g◦f1+g◦f2, (g1+g2)◦f =g1◦f +g2◦f,
∀f,f1,f2∈HomK(V,W) e∀g,g1,g2∈HomK(W,U).
Un omomorfismo diK-spazi vettoriali della forma f:V→Vsi chiamaendomorfismodelK-spazio vettorialeV. L’insieme di tutti gli endomorfismi diK-spazi vettoriali diVverr`a denotato con EndK(V).
Quindi, EndK(V)= HomK(V,V). Da quello che precede si ha che EndK(V) diventa, munito delle oper- azioni algebriche “+” e “◦”, un anello unitarioR(con 1R=idV), non commutativo se dimK(V)≥2.
Per esempio, consideriamo il prodotto direttoV := V1×V2 di due spazi vettorialiV1 eV2 suK e le applicazioni i1:V1 → V, i2:V2 → V,p1: V → V1 e p2:V → V2 definite mediante le formule:
i1(v1)=(v1,0V2),i2(v2) =(0V1,v2),p1(v1,v2)=v1ep2(v1,v2)=v2,∀v1 ∈ V1e∀v2 ∈ V2. Si verifica senza difficolt`a chei1,i2,p1ep2sono omomorfismi di spazi vettoriali suK. Gli omomorfismii1ei2sono iniettivi e si chiamano le iniezioni canonichedel prodotto direttoV1×V2; invece gli omomorfismip1 e p2 sono surgettivi e si chiamano leproiezioni canonichedel prodotto direttoV1×V2. Inoltre abbiamo le identit`a p1◦i1=idV1,p2◦i2=idV2,p2◦i1 =0 (risp.p1◦i2=0), ei1◦p1+i2◦p2=idV.
Definizione 2.30. Se nella Definizione 2.29 prendiamoW =K(lo spazio vettoriale standard di dimen- sione 1) otteniamo lo spazio vettorialeV∗:=HomK(V,K) suKche verr`a chiamato ilduale algebricodello spazio vettorialeVsuK. Gli elementi diV∗si chiamanofunzionali linearisuV.