• Aucun résultat trouvé

Lezioni di Geometria

N/A
N/A
Protected

Academic year: 2022

Partager "Lezioni di Geometria"

Copied!
129
0
0

Texte intégral

(1)

Lezioni di Geometria

Lucian B˘adescu, Ettore Carletti, Giacomo Monti Bragadin

(2)

Introduzione

Mηδǫ´ις αγǫωµǫτρητoς ǫισ´´ ιτω

Lo scopo di queste note `e offrire un testo scritto per il Corso di Geometria Analitica per gli studenti del secondo semestre del primo anno del Corso di Studi in Matematica. Volendo essere autosufficienti abbiamo inserito nella prima parte le nozioni e i risultati principali di algebra lineare che sono asso- lutamente necessari per la seconda parte, bench`e facciano parte del programma del Corso di Algebra Lineare inserito nel primo semestre del primo anno. Questo permette al Lettore di avere a disposizione tutti i prerequisiti di Algebra Lineare in modo diretto e comodo. Abbiamo altres`ı voluto fornire una panoramica leggermente pi `u ampia di quella prevista nel programma ufficiale.

Pur essendo disponibili ottimi manuali di Geometria (ad esempio [12]), ci `e sembrato utile per gli studenti avere un testo il pi `u vicino possibile a quello che si insegna nei corsi del primo anno. In particolare lo studio delle coniche e delle quadriche `e, in queste note, pi `u approfondito e dettagliato di quanto usualmente si trova negli altri testi. Inoltre `e peculiare l’utilizzo delle coordinate baricentriche in Geometria Affine (si veda il capitolo 4).

Queste note provengono, con gli adattamenti necessari, in gran parte da [2].

Genova, 20 Febbraio 2004 L. B˘adescu, E. Carletti, G. Monti Bragadin

Abbreviazioni:i.e. (dal latino id est) sta per “cio`e”; e.g. (dal latino exempli gratiae) sta per “per esempio”.

(3)

Capitolo 1

Preliminari

Utilizzeremo, in questo libro, le seguenti notazioni:

-Nl’insieme dei numeri naturali{1,2, . . . ,}, -Zl’insieme dei numeri interi,

-Ql’insieme dei numeri razionali, -Rl’insieme dei numeri reali -Cl’insieme dei numeri complessi.

SiaXun insieme non vuoto. Denoteremo conP(X) l’insieme di tutti i sottoinsiemi diX(incluso il sottoinsieme vuoto∅).

Definizione 1.1 (Relazioni di equivalenza, insiemi quozienti). SianoXun insieme non vuoto e Run sottinsieme non vuoto del prodotto cartesiano X×X di X per se stesso. Il sottinsieme R si chiama relazione binariasuX. Sex,yX, scriveremoxRy, e diremo chex `ein relazione R con y, se (x,y)R. Per esempioR:={(x,x)|xX}(la diagonale diX) rappresenta la relazione (binaria) di uguaglianza suX.

Diremo che una relazione binariaRsuX`e unarelazione d’equivalenzase i seguenti tre assiomi sono soddisfatti:

i) Per ognixXsi haxRx. (Riflessivit`a)

ii) Per ognix,yXtali chexRysi hayRx. (Simmetria)

iii) Per ognix,y,zXtali chexRyeyRz, si haxRz. (Transitivit`a) Esempi 1.2.

1. SiaX=Ze sian≥2 un numero naturale fissato. Sia

Rn={(x,y)∈Z×Z|xynZ},

dovenZdenota l’insieme dei multipli din. Si verifica facilmente cheRn`e una relazione d’equivalenza suZ(chiamata la congruenza modulon).

2. Sia X = Q eR = {(x,y) ∈ Q×Q|xy ∈ Z}. Si verifica facilmente che ancheR `e una relazione d’equivalenza.

Definizione 1.3. Sia data una relazione di equivalenzaRsu un insieme non vuotoX. Per comodit`a, se x,yX, scriveremoxy(e leggeremo “x`e equivalente ay”) invece dixRy. SexXdenoteremo con ˆx il sottinsieme{yX|xy}diXche chiameremo laclasse di equivalenzadix. Abbiamo ovviamente:

i) Per ognixX,xx.ˆ ii) X= S

x∈X

ˆ x.

iii) Per ognix,yX, ˆxyˆ,∅se e solo se ˆx=y, se e solo seˆ xy.

3

(4)

Solo la propriet`a iii) ha bisogno di dimostrazione. Si ha ˆxyˆ,∅se e solo se esistezXtale chezx ezy, o ancora, tenendo conto degli assiomi di simmetria e transitivit`a,xy. Ne segue che l’insieme delle classi di equivalenza costituiscono una partizione diX(Si dice che una famiglia di sottinsiemi di un insieme non vuotoXforma una partizione diXseX `e unione di questa famiglia e due sottinsiemi della famiglia o coincidono o sono disgiunti).

Chiameremo l’insieme

X/R:={xˆ|xX}

(i cui elementi sono sottinsiemi diX) l’insieme quoziente di X modulo R.

SianoXeRcome sopra. Chiameremosistema completo di rappresentanti di X modulo Runa famiglia {xi}iIdi elementi diXche godono delle seguenti propriet`a:

i) Per ogni (i,j)I×I,xiRxj(o semplicementexixj) se e solo sei=j.

ii) X=S

i∈I

ˆ xi.

In altre parole, dare un sistema completo di rappresentanti diXmoduloRequivale a scegliere inogni classe di equivalenza un unico elemento. Per esempio l’insieme{0,1, ...,n−1}(rispettivamente l’insieme [0,1)∩Q) `e un sistema completo di rappresentanti per la congruenza modulonsuZ(rispettivamente per la relazione di equivalenza suQdel secondo Esempio 1.2).

Definizione 1.4(Azione di un gruppo su un insieme). SiaGun gruppo (non necessariamente commuta- tivo) la cui operazione `e denotata moltiplicativamente, e siaXun insieme non vuoto. Si dice cheG agisce (a sinistra) sull’insiemeXse `e data un’applicazione f:G×XXcon le seguenti propriet`a:

i) Per ognig,gGe ognixXsi ha f(gg,x)= f(g,f(g,x)).

ii) Per ognixXsi haf(e,x)=x, dovee`e l’elemento neutro del gruppoG.

Se denotiamog·x := f(g,x),gGe∀xX, allora le propriet`a i) e ii) si riscrivono nella forma (gg)·x=g·(g·x) ee·x=x.

Se un gruppoGagisce su un insiemeX, per ognixXdenotiamo Orb(x) (e chiamiamo l’orbitadix) il sottinsieme Orb(x) :={g·x|gG}. Per ognixX, consideriamo il sottinsiemeO(x) :={gG|g·x=x}. Si verifica facilmente che O(x) `e un sottogruppo diG che chiameremo lostabilizzatore di x (rispetto all’azione di Gsu X). Fissato un elemento xX, definiamo l’applicazione fx:G → Orb(x) mediante fx(g)= g·x. L’applicazione fx `e ovviamente surgettiva. Inoltre, per ogni due elementi g,hGavremo fx(g) = fx(h) se e solo se g·x = h·x, quindi se e solo seh−1·(g·x) = x, o ancora, (h−1g)·x = x, i.e.

h−1gO(x). Ne segue che l’applicazione fx induce una bigezione naturalegx:G/O(x)→Orb(x) (dove G/O(x) `e l’insieme delle classi laterali sinistre diGmoduloO(x)) mediantegx( ˆg) :=gx, dove ˆg:=gO(x).

Ogni azione diGsuXinduce una relazione d’equivalenza suX. Infatti per ognix,yXdiciamo chexysey ∈Orb(x), i.e. se esistegGtale chey=g·x. `E immediato verificare che in questo modo otteniamo una relazione d’equivalenza suXtale che l’insieme di tutte le orbite coincide con l’insieme quozienteX/∼. In particolare, ogni due orbite o coincidono o sono disgiunte, e l’insieme di tutte le orbite forma una partizione diX.

Definizione 1.5(Caratteristica di un campo). Ricordiamo che un anello unitarioK=(K,+,·) si chiama corpose ogni elemento λ ∈ K,λ , 0, `e invertibile, i.e. esiste µ ∈ K tale che λ·µ = µ·λ = 1, dove 1=1K,0=0K`e l’elemento unit`a (o l’identit`a) dell’anelloK. Un corpoKsi dicecommutativo(ocampo) se la sua moltiplicazione `e un’operazione commutativa. Esempi di campi: il campoQdei numeri razionali, il campoRdei numeri reali, il campoCdei numeri complessi, il campoZp:=Z/pZdelle classi di resto modulo un numero primop≥2 fissato.

Sia Kun campo. Consideriamo l’omomorfismo canonico di anelli unitari ϕ: Z → K (dove Z `e l’anello degli interi) definito medianteϕ(n)=n·1K, dove

n·1K:=























1K+· · ·+1K

| {z }

nvolte

sen>0

0K sen=0

(−1K)+· · ·+(−1K)

| {z }

−nvolte

sen<0.

(5)

5 Allora Ker(ϕ) :={n∈Z|ϕ(n)=0}`e un ideale diZ. Una conseguenza del teorema di divisione con resto inZfa vedere che ogni ideale diZ`e della formapZ={pn|n∈Z}conp≥0 (cio`e `eprincipale). Ci sono due possibilit`a da analizzare:

p=0: i.e.ϕ `e un omomorfismo iniettivo. In questo caso si dice cheK `e uncampo di caratteristica zero.

L’iniettivit`a diϕ implica che ogni numero intero n , 0 ha immagine , 0K in K, quindi `e un elemento invertibile inK. Ne segue che l’omomorfismo ϕ : Z → K si prolunga in modo unico a un omomorfismo di campi ˜ϕ: Q → K definito sul campo Q dei numeri razionali mediante ϕ(m/n)˜ =ϕ(m)/ϕ(n), conm,n∈Z,n,0. Poich`e ˜ϕ`e automaticamente iniettivo ne segue che ogni campoKdi caratteristica zero contiene un sottocampo isomorfo al campoQdei numeri razionali (e in particolare, ogni campo di caratteristica zero `e infinito). Questo sottocampo, dettosottocampo primodiK, coincide con l’intersezione di tutti i sottocampi diK.

p>0: dalla definizione dipne segue chep`e il pi `u piccolo intero positivo con la propriet`a chep·1K=0K. In questo caso si dice cheK `e uncampo di caratteristica p > 0 ep si chiama lacaratteristicadiK.

Osserviamo chep `e necessariamente un numero primo. Infatti,p , 1 poich`e 1K , 0K. D’altra parte, sep =mn, conm,n> 1 (quindim,n <p) allora l’uguaglianza (m·1K)(n·1K)=p·1K =0K

implicherebbe m·1K = 0K o n·1K = 0K (poich`e un campo non ha divisori di zero , 0K), ci `o che contraddice la definizione dip. Quindi p ≥ 2 `e un numero primo. Allora per il I teorema di isomorfismo di anelli commutativi si ha cheKcontiene il sottocampo Im(ϕ) :={n·1K| n∈Z} isomorfo al campoZp=Z/pZdelle classi di resto modulop. Di nuovo questo sottocampo coincide con l’intersezione di tutti i sottocampi diK. Quindi, sep≥2 `e un numero primo, ogni campo di caratteristicap`e caratterizzato dal fatto che esiste un suo sottocampo isomorfo al campoZp.

(6)
(7)

Capitolo 2

Spazi vettoriali

SianoKun campo eVun insieme non vuoto.

Definizione 2.1. Siaϕ:K×VVun’applicazione arbitraria. Si dice cheϕ `e unalegge di composizione esterna, oppure unaoperazione algebrica esterna di K su V. Seϕ`e una tale legge di composizione esterna di KsuVallora per ogniλ∈Ked ognivVdenoteremo

λ·v:=ϕ(λ,v)V.

Definizione 2.2. Si dice che l’insieme non-vuotoVdotato di una legge di composizione interna+:V× VV, ed anche di una legge di composizione esterna·:K×VVsuK, `euno spazio vettoriale sul campo K, se (V,+) `e gruppo abeliano, e, inoltre, sono soddisfatti i seguenti assiomi:

i) λ·(v1+v2)=λ·v1+λ·v2, per ogniλ∈Ke per ogniv1,v2V(in entrambi i membri l’operazione

“+” si riferisce alla legge di composizione interna+:V×VV).

ii) (λ+µ)·v=λ·v+µ·v, per ogniλ, µ∈Ke per ognivV(l’operazione “+” del primo membro si riferisce alla addizione del campoK, mentre l’operazione “+” del secondo membro alla operazione interna+:V×VV).

iii) λ·(µ·v)=(λµ)·vper ogniλ, µ∈Ke per ognivV.

iv) 1·v=v, per ognivV, dove 1 `e l’elemento unit`a del campoK.

Quando non c’`e nessun pericolo di confusione scriveremo semplicementeλvinvece diλ·v(con λ∈KevV). Diremo anche cheV `e uno spazio vettoriale sul campoK, senza precisare esplicitamente le operazioni+:V×VVe·:K×VV. In tale caso gli elementi diKvengono chiamatiscalarie gli elementi diV vettori.

Dalla Definizione 2.2 ne segue subito che per ogni scalareλ∈Ke per ogni vettorevVvalgono le uguaglianze seguenti 0K·v=0V,λ·0V=0Ve (−λ)·v=λ·(−v)=−λ·v, dove 0K(risp. 0V) `e l’elemento zero del campoK(risp. l’elemento zero del gruppo abeliano (V,+)). Inoltre, se si haλ·v=0V, conλ∈K evV, allora ne segueλ=0Koppurev=0V. Infatti, seλ,0, alloraλ `e invertibile inK(perch´eK`e un campo). Quindi 0V−1·0V−1·(λ·v)=(λ−1λ)·v=1·v=v.

Esempi 2.3.

1. Per ogni campoKe per ogni interon≥1, consideriamo l’insiemeV:=Knsu cui definiamo la legge di composizione interna+:V×VVmediante

(a1, ...,an)+(b1, ...bn) :=(a1+b1, ...,an+bn), ∀(a1, ...,an),(b1, ...,bn)∈V. 7

(8)

`E facile verificare che in questo modo (V,+) diventa un gruppo abeliano. Definiamo inoltre la legge composizione esterna·:K×VVponendo:

λ·(a1, ...,an) :=(λa1, ..., λan), ∀λ∈K, ∀(a1, ...,an)∈V,

Si verifica facilmente che il gruppo abeliano (V,+) diventa uno spazio vettoriale suKrispetto alla legge di composizione esterna cos`ı definita. Questo spazio vettoriale si chiamalo spazio vettoriale standard di dimensione n sul campo K.

2. Consideriamo l’anello dei polinomiK[X1, ...,Xn] inn≥1 indeterminateX1, ...,Xna coefficienti nel campoK. Rispetto all’addizione dei polinomi e alla moltiplicazione degli elementi diK(considerati come polinomi costanti) con polinomi,V:=K[X1, ...,Xn] diventa uno spazio vettoriale suK.

Per ognim≥1 denotiamo conVml’insieme dei polinomi omogenei diVdi grado totalem, e conWm il sottoinsieme dei polinomi diVdi grado totale≤m(in entrambi i casi il polinomio 0 appartiene per convenzione sia aVm che aWm). Perch´e la somma di ogni due polinomi diVm (risp. diWm) appartiene aVm(risp. aWm),VmeWmsono spazi vettoriali suK.

3. SiaKun campo e siaAun anello unitario tale cheAcontieneKcome sottocampo. Supponiamo in- oltre che tutti gli elementi diKcommutino con tutti gli elementi diA(condizione automaticamente soddisfatta seA`e commutativo). AlloraA`e spazio vettoriale suK, dove l’operazione di addizione dei vettori coincide con l’addizione nell’anelloA, e seλ∈KevA, alloraλ·v `e il prodotto inA diλ, considerato come elemento diA, conv. In particolare,R`e uno spazio vettoriale suQ,C`e uno spazio vettoriale sia suQche suR.

4. SiaK=Ril campo dei numeri reali. Consideriamo l’insiemeVdi tutte le funzioni continue definite sull’intervallo [a,b] (a<b) a valori reali. Rispetto all’addizione usuale delle funzioni

(f +g)(x)= f(x)+g(x),f,gV, x∈[a,b],

l’insiemeVdiventa un gruppo abeliano. Se inoltre definiamo la legge di composizione esterna R×VV, (λ,f)→λf (conλf funzione continua su [a,b] definita mediante la formula

f)(x)=λf(x), ∀fV, ∀λ∈R), alloraVdiventa spazio vettoriale suR.

Definizione 2.4. SianoV1eV2 due spazi vettoriali suK. Denotiamo conV:=V1×V2. Sull’insiemeV definiamo la legge di composizione interna mediante la formula:

(v1,v2)+(w1,w2) :=(v1+w1,v2+w2), ∀v1,w1V1, ∀v2,w2V2.

`E facile verificare che, rispetto a questa legge,Vdiventa un gruppo abeliano, il cui elemento unit`a (zero)

`e 0V :=(0V1,0V2), e l’elemento opposto di (v1,v2) `e (−v1,−v2). Definiamo ora la legge di composizione esterna·:K×VVmediante la formula:

λ·(v1,v2) :=(λv1, λv2), ∀λ∈K,v1V1, ∀v2V2.

Si verifica facilmente che il gruppo abeliano (V,+) sopra definito insieme a questa legge di composizione esterna soddisfa gli assiomi della Definizione 2.2. In altre parole, V = V1 ×V2 diventa uno spazio vettoriale suKrispetto a queste due operazioni. Questo spazio vettoriale suKsi chiamaspazio vettoriale prodotto direttodiV1conV2suK. D’ora innanzi denoteremo questo spazio vettoriale suKsemplicemente conV1×V2.

Definizione 2.5. SiaVuno spazio vettoriale suK. Un sottinsieme non vuotoWdiVsi chiamasottospazio vettorialedello spazio vettorialeVsuKse sono soddisfatti i seguenti assiomi:

i) Sev1,v2Wallorav1+v2W.

ii) SevWeλ∈Kalloraλv∈W.

(9)

9 Dalla Definizione 2.5 ne segue che, per ogni sottospazio vettorialeWdello spazio vettorialeVsu K,W`e sottogruppo del gruppo abeliano (V,+). In particolare, 0VW. Inoltre,Wdiventa esso stesso uno spazio vettoriale suKpoich`e l’assioma ii) della Definizione 2.5 fa vedere che la legge di composizione esterna diKsuVne induce una suW. SeV `e uno spazio vettoriale suKalloraW=VeW={0V}sono esempi di sottospazi vettoriali diV.

Proposizione 2.6. Sia V uno spazio vettoriale su K e sia{Wi}i∈Iuna famiglia non vuota di sottospazi vettoriali di V. AlloraT

i∈I

Wi`e un sottospazio vettoriale di V.

Dimostrazione.La dimostrazione segue facilmente dalla Definizione 2.5.

Definizione 2.7. SiaS un sottinsieme non vuoto di uno spazio vettorialeVsu K. Denotiamo conhSi l’intersezione di tutti i sottospazi vettoriali di V che contengonoS (l’insieme dei sottospazi diV che contengonoS `e non vuoto perch`eV `e un tale sottospazio). Dalla Proposizione 2.6 derivano le seguenti propriet`a:

i) hSi`e un sottospazio vettoriale diVtale cheS⊆ hSi.

ii) SeW `e un sottospazio vettoriale arbitrario diVche contieneSallorahSi ⊆W.

In altre parole,hSi`e il pi `u piccolo sottospazio vettoriale diVche contieneS. Questo sottospazio vettoriale hSi si chiama il sottospazio vettoriale di V generato da SV. Si dice che S genera lo spazio vettorialeVsuK(o cheS`e unsistema di generatoridiVsuK) sehSi=V. SeS`e un sistema di generatori diVe seS`e un sottinsieme diVche contieneS, alloraS `e ancora un sistema di generatori diV.

Definizione 2.8. SianoW1eW2due sottospazi di uno spazio vettorialeVsuK. Poniamo per definizione W1+W2:=hW1W2i.

Il sottospazio vettoriale cos`ı definito si chiama lasommadei sottospaziW1eW2. Quindi,W1+W2 `e il pi `u piccolo sottospazio vettoriale diVche contiene entrambi i sottospaziW1eW2.

Proposizione 2.9. Nelle ipotesi dellaDefinizione 2.8si ha

W1+W2={v1+v2|v1W1, v2W2}.

Dimostrazione.Denotiamo conWil membro destro dell’uguaglianza da dimostrare. `E facile verificare cheW`e sottospazio vettoriale diV. Poich`e ogni vettorev1W1 si pu `o scriverev1 =v1+0V, ne segue che W1W; analogamente,W2W, da cuiW1+W2W. Poich`e l’inclusione opposta `e ovvia, la

proposizione `e cos`ı dimostrata.

Proposizione 2.10. Sia S={v1,v2, ...,vn} ⊆V un insieme non vuoto finito di vettori dello spazio vettoriale V sul campo K. Allora si ha

hSi={a1v1+a2v2+· · ·+anvn|(a1,a2, ...,an)∈Kn}.

Dimostrazione.Denotiamo conWil membro destro dell’uguaglianza da dimostrare. L’inclusioneW⊆ hSi segue subito dalle definizioni. D’altra parte, `e chiaro cheSW. Per dimostrare l’inclusionehSi ⊆ W, sar`a sufficiente provare cheW`e sottospazio vettoriale diV. Quest’ ultimo fatto segue direttamente dalle

definizioni.

Per la Proposizione 2.10 ogni vettorev∈ hSiha una rappresentazione (non necessariamente unica) della formav =a1v1+· · ·+anvn, con (a1, ...,an)∈Kn. Una tale rappresentazione si chiamacombinazione lineare a coefficienti in K degli elementi di S={v1, ...,vn}. Pertanto la Proposizione 2.10 si pu `o riformulare dicendo chehSicoincide con l’insieme delle combinazioni lineari a coefficienti inKdi elementi diS.

Corollario 2.11. Un sottinsieme S={v1,v2, ...,vn}dello spazio vettoriale V su K `e un sistema di generatori di V se e solo se per ogni vettore vV esistono a1,a2, ...,anK (che dipendono da v) tali che v=a1v1+a2v2+· · ·+anvn.

(10)

Uno spazio vettorialeVsuKche possiede un sistema finito di generatori si chiamaspazio vettoriale finitamente generato su K. D’ora innanzi considereremo solo spazi vettoriali finitamente generati.

Definizione 2.12. SiaV uno spazio vettoriale su K, e sia S = {v1,v2, ...,vn} un sottinsieme finito non vuoto diV. Si dice cheS `e unsottinsieme linearmente indipendente su K(o cheS `e unsistema linearmente indipendente su K) se per ognia1,a2, ...anKtali chea1v1+a2v2+· · ·+anvn=0V, risultaa1=a2=...=an=0.

Ogni sistema linearmente indipendente contiene solo vettori non nulli (infatti, se per esempio v1 =0V, allora avremmo 1·v1+0·v2+· · ·+0·vn=0V). SeS={v1,v2, ...,vn}`e un sistema linearmente indipendente (suK) alloravi ,vjsei, j(infatti, se per esempiov1=v2, allora avremmo 1·v1+(−1)· v2+0·v3+· · ·+0·vn=0V). Inoltre, ogni sottinsieme di un sistema linearmente indipendente `e ancora un sistema linearmente indipendente.

Proposizione 2.13. Sia S un sottinsieme finito dello spazio vettoriale V su K. Allora S `e un sistema linearmente indipendente su K se e solo se v<hS\ {v}i,vS.

Dimostrazione.SiaS={v1, ...,vn}. Supponiamo cheSsia linearmente indipendente suK. Se (per esempio) v1∈ h{v2, ...,vn}i, per la Proposizione 2.10 esistonoa2, ...,anKtali chev1=a2v2+· · ·+anvn. Quest’ultima uguaglianza si pu `o ancora scrivere (−1)v1+a2v2+· · ·+anvn = 0, ci `o che contraddice il fatto che S `e linearmente indipendente.

Viceversa, supponiamo chev<hS\ {v}i,∀vS. SeSnon fosse un sistema linearmente indipendente su K, esisterebbe (a1, ...,an) ∈ Kn \ {(0, ...,0)}tale che a1v1+· · ·+anvn = 0. Supponiamo per esempio a1 , 0. Poich`e K `e campo, a1 `e invertibile in K. Allora questa uguaglianza si pu `o ancora scrivere a−11 (a1v1)=a−11 ((−a2)v2+· · ·+(−an)vn). Per la definizione di spazio vettoriale avremo chev1=(−a−11 a2)v2+

· · ·+(−a−11 an)vn, da cui, applicando sempre la Proposizione 2.10, otteniamo v1 ∈ hS\ {v1}i, che `e un

assurdo.

Definizione 2.14. SiaVuno spazio vettoriale suK. Si dice che un sottinsiemeS={v1, ...,vn}diV`e una base di V su KseS `e sia un sistema di generatori diVsuK, che un sistema linearmente indipendente su K.

Teorema 2.15. Sia V uno spazio vettoriale sul campo K. Allora ogni sistema finito di generatori di V su K contiene una base di V su K. In particolare, ogni spazio vettoriale finitamente generato su K possiede almeno una base su K.

Dimostrazione. Se V = {0V} allora conveniamo che V ammetta come base il sottinsieme vuoto di V.

Supponiamo quindi V , {0V}, e sia S un sistema finito di generatori di V. Se esiste vS tale che v∈ hS\ {v}i, allora l’insiemeS\ {v}`e ancora un sistema di generatori diV.

Infatti, se S = {v1 = v,v2, ...,vn}, per ipotesi esistono a2, ...,anK tali che v1 = a2v2+· · ·+anvn (Proposizione 2.10). SewV`e un qualsiasi vettore, poich`eSgeneraV, ne segue che esistonob1, ...,bnK tali che w = b1v1+· · ·+bnvn. Sostituendo l’uguaglianza precedente nell’ultima relazione otteniamo w=(b2+b1a2)v2+· · ·+(bn+b1an)vn, quindi, per la Proposizione 2.10,S\ {v}`e un sistema di generatori diV(sev∈ hS\ {v}i).

Questo discorso ci fa vedere che, togliendo aSun numero finito di elementi, possiamo supporre cheSsia un sistema di generatori diVcon la propriet`a che per ogni vS,v < hS\ {v}i. Allora per la Proposizione 2.13 si deduce cheS`e un sistema linearmente indipendente (quindi una base) perV.

Teorema 2.16. Sia V spazio vettoriale su K. Sia S = {v1, ...,vn}, n ≥ 1, un sistema linearmente indipendente e S = {w1, ...,wm}un sistema di generatori di V su K. Allora nm e, modulo una permutazione dell’insieme {w1, ...,wm}, l’insieme{v1, ...,vn,wn+1, ...,wm}`e un sistema di generatori di V su K.

Dimostrazione.Poich`eS `e un sistema di generatori diV, per il Corollario 2.11 esistonoa1, ...,amKtali chev1=a1w1+· · ·+amwm. Poich`ev1 ,0 (S `e un sistema linearmente indipendente), almeno uno degli scalariai `e diverso da zero. Riordinando eventualmente i vettori diS, possiamo supporre chea1 ,0.

Poich`eK`e campo,a1 `e invertibile inK, quindi dall’ uguaglianza di sopra deduciamo w1 =a−11 v1−(a−11 a2)w2− · · · −(a−11 am)wm.

Ora dimostreremo:

(11)

11 Affermazione 1.L’insieme{v1,w2, ...,wm}`e un sistema di generatori diV.

Per dimostrare l’Affermazione 1, siavVun vettore arbitrario. Poich`eSgeneraV, esistonob1, ...,bmK tali chev = b1w1+· · ·+bmwm, da cui, tenendo conto della relazione di sopra, si ottienev = b1(a−11 v1− (a−11 a2)w2− · · · −(a−11 am)wm)+b2w2+· · ·+bmwm=(b1a−11 )v1+(b2b1a−11 a2)w2+· · ·+(bmb1a−11 am)wm, ci `o che dimostra l’Affermazione 1 (usando sempre il Corollario 2.11).

Supponiamo ora, per induzione, che{v1, ...,vi,wi+1, ...,wm}sia un sistema di generatori diV, per un itale che 1≤in−1 (in particolare,im). Allora esistonoc1, ...,cmKtali chevi+1=c1v1+· · ·+civi+ ci+1wi+1+· · ·+cmwm. Seci+1=· · ·=cm=0, o sei=m, risulterebbe che{v1, ...,vi,vi+1}non `e linearmente indipendente, ci `o che contraddice l’ipotesi che S `e linearmente indipendente. Ne segue chei < me che esiste almeno un j ∈ {i+1, ...,m}tale checj ,0. Riordinando, se necessario, i vettori{wi+1, ...,wm}, possiamo quindi supporreci+1,0. Poich`eK`e campo,ci+1 `e invertibile inK. Allora la relazione di sopra implica

wi+1=(−c−1i+1c1)v1+· · ·+(−c−1i+1ci)vi+c−1i+1vi+1+ +(−c−1i+1ci+2)wi+2+· · ·+(−c−1i+1cm)wm.

Per dimostrare il teorema `e sufficiente provare il seguente passo d’induzione:

Affermazione 2.Nelle ipotesi di sopra,{v1, ...,vi,vi+1,wi+2, ...,wm}`e un sistema di generatori di V.

Procedendo come sopra, sempre usando il Corollario 2.11, dimostrare l’Affermazione 2 equivale a far vedere che per ognivVesistonoλ1, ..., λmKtali chev1v1+· · ·+λivii+1vi+1i+2wi+2+· · ·+λmwm. Ma, per l’ipotesi induttiva,{v1, ...,vi,wi+1, ...,wm}`e un sistema di generatori diV, quindi esistonod1, ...,dmKtali chev=d1v1+· · ·+divi+di+1wi+1+· · ·+dmwm. Tenendo conto della relazione di sopra otteniamo

v=(d1di+1c−1i+1c1)v1+· · ·+(didi+1c−1i+1ci)vi+

+di+1c−1i+1vi+1+(di+2di+1c−1i+1ci+2)wi+2+· · ·+(dmdi+1c−1i+1cm)wm,

ci `o che dimostra l’Affermazione 2 (e quindi anche il teorema).

Corollario 2.17. Sia V uno spazio vettoriale finitamente generato su K, e sia SV un sottinsieme finito. Allora ogni sistema linearmente indipendente di V `e finito. Inoltre, le seguenti affermazioni sono equivalenti:

(i) S `e una base di V su K.

(ii) S `e un sistema di generatori di V su K minimale.

(iii) S `e un sistema linearmente indipendente di V su K massimale.

Dimostrazione.Osserviamo innanzitutto che se{v1, ...,vn}(conn≥1) `e un sistema linearmente indipen- dente, e sevn+1`e un vettore arbitrario diV, allora{v1, ...,vn,vn+1}`e un sistema linearmente indipendente se e solo sevn+1<h{v1, ...,vn}i. La necessit`a dell’ultima condizione segue dalla Proposizione 2.13. Vicev- ersa, supponiamo chevn+1 <hv1, ...,vni, e sianoa1, ...,an,an+1Ktali chea1v1+· · ·+anvn+an+1vn+1 =0.

Se an+1 = 0, allora necessariamente a1 = · · · = an = 0 (poich`e{v1, ...,vn} `e un sistema linearmente in- dipendente). Se invece an+1 , 0, allora an+1 `e invertibile in K, da cui si deduce l’uguaglianza vn+1 = (−a−1n+1a1)v1+· · ·+(−a−1n+1an)vn, che, per il Lemma 2.11 contraddice la nostra ipotesi. Pertanto la nostra affermazione `e dimostrata.

L’equivalenza tra (i) e (ii) segue dal Teorema 2.15. Invece l’equivalenza tra (i) e (iii) si deduce nel modo seguente. L’implicazione (i) =⇒(iii) si ottiene immediatamente dall’osservazione di sopra.

Viceversa, siaSun sistema linearmente indipendente massimale. SeSnon fosse un sistema di generatori diVesisterebbe un vettorevVtale chev<hSi. Allora dall’osservazione di sopra risulta cheS∪ {v}`e un sistema linearmente indipendente, ci `o che contraddice la massimalit`a diS.

Corollario 2.18. Sia V uno spazio vettoriale finitamente generato su K. Allora:

(12)

(i) Ogni sistema linearmente indipendente di V su K pu`o essere completato a una base di V su K.

(ii) Da ogni sistema di generatori di V su K si pu`o estrarre una base di V su K.

Dimostrazione.Conseguenza immediata del corollario precedente.

Corollario 2.19. Sia V uno spazio vettoriale finitamente generato su K. Allora V possiede una base finita su K e ogni due basi di V su K hanno lo stesso numero di elementi.

Dimostrazione.L’esistenza di una base finita diVsuKsegue dal Teorema 2.15. Siano alloraSeSdue basi diVsuK. ConsiderandoScome sistema linearmente indipendente eScome sistema di generatori e applicando il Teorema 2.16 otteniamo che la cardinalit`a diS`e≤cardinalit`a diS. Scambiando i ruoli si

ottiene la diseguaglianza opposta.

Corollario 2.20. Sia S={v1, ...,vn}una base dello spazio vettoriale V su K. Allora per ogni vettore vV esiste un’ unica n-upla(a1, ...,an)∈Kntale che v=a1v1+· · ·+anvn.

Dimostrazione.L’esistenza di una tale rappresentazione segue dal fatto cheS`e un sistema di generatori di VsuKvia la Proposizione 2.10. Sia orav=b1v1+· · ·+bnvn, con (b1, ...,bn)∈Kn, un’altra rappresentazione divcome combinazione lineare div1, ...,vn. Ne segue che (a1b1)v1+· · ·+(anbn)vn=0, da cuiaibi=0

i=1, ...,n, poich`eS`e un sistema linearmente indipendente.

Definizione 2.21. Nelle ipotesi del Corollario 2.20, gli scalaria1, ...,ansi chiamano lecoordinate del vettore v rispetto alla base{v1, ...,vn}.

Definizione 2.22. SiaVuno spazio vettoriale finitamente generato suK. SeV,0V, si chiamadimensione di V su K, e si denota dimK(V), il numero degli elementi di una base diV(suK). SeV=0V(in tal caso si dice cheV`e lo spazio nullo) allora poniamo per definizione dimK(V)=0 (in altre parole, lo spazio nullo ha come base l’insieme vuoto).

Il Corollario 2.19 fa vedere la Definizione 2.22 dipende solo dallo spazio vettorialeVsuK, e non dalla scelta della base diV(suK). D’ora innanzi useremo la terminologia dispazio vettoriale di dimensione finita su Kinvece di “spazio vettoriale finitamente generato suK”.

Corollario 2.23. Sia V uno spazio vettoriale di dimensione finita su K e sia W un sottospazio di V. Allora W `e ancora uno spazio vettoriale di dimensione finita. Inoltre,dimK(W)≤dimK(V), l’uguaglianza avendosi se e solo se W=V.

Dimostrazione. Sia dimK(V) = n, e S = {e1, ...,en} una base diV su K. Se SW `e un insieme finito linearmente indipendente suK, allora dal Teorema 2.16 ne segue che il numero degli elementi diS `e

n. Ci `o implica cheW ammette una base finitaSconmelementi, dovem=dimK(W)≤n =dimK(V) (Teorema 2.15). SeW :=hSi,V, allora esiste unvV\W. Per la dimostrazione del Corollario 2.17 ne segue cheS∪ {v}`e un sistema linearmente indipendente diV, da cuim<n.

Esempi 2.24. 1. SiaV = Kn lo spazio vettoriale standard dell’ Esempio 2.3, 1). Per ognii = 1, ...,n consideriamo il vettoreei = (0, ...,0,1,0, ...,0) (con 1 ali-esimo posto e zero altrove). AlloraB := {e1, ...,en}`e una base diVsuK (la verifica `e facile ed `e lasciata al lettore), per cui dimK(Kn) =n.

La base{e1, ...,en} si chiama la base canonica dello spazio vettoriale standard Kn su K. Questo fatto d`a una giustificazione alla terminologia spazio vettoriale standard di dimensione n su Kintrodotta nell’Esempio 2.3, 1).

2. SiaKun campo e sia

A:=













a11 a12 · · · a1n

a21 a22 · · · a2n

... ... ... ... am1 am2 · · · amn













(13)

13 una matrice amrighe encolonne a coefficienti inK(conm,n≥1). Nello spazio vettoriale standard Kndi dimensionensuKconsideriamo i vettorivi:=(ai1, ...,ain)∈Kn,∀i=1, ...,m, e denotiamo con hv1, ...,vmiil sottospazio vettoriale diKn generato dall’insieme{v1, ...,vm}. Utilizzando il concetto di dimensione vettoriale possiamo definire il concetto di rango, o caratteristicadella matrice A mediante la formula

rang(A) :=dimK(hv1, ...,vmi).

Dalla definizione ne segue che

rang(A)≤min{m,n}.

In particolare, rang(A)=mse e solo seS`e un sistema linearmente indipendente suK. Inoltre,S`e un sistema di generatori diKnsuKse e solo se rang(A)=n(quindi, necessariamente,mn).

3. Consideriamo il campoCdei numeri complessi visto come spazio vettoriale suR(Esempio 2.3, 4)). AlloraS={1,i}`e una base diCsuR.

4. Consideriamo l’insiemeQ(√3

2) := {a+b3 2+c3

4 | a,b,c∈ Q}. `E facile verificare cheQ(√3 2) `e un campo che contieneQcome sottocampo. In particolare,Q(√3

2) `e uno spazio vettoriale suQ. `E anche facile verificare cheS ={1,√3

2,√3

4} `e una base diQ(√3

2) suQ. (Suggerimento: si usi il fatto che il polinomioX3−2 `e irriducibile inQ[X].)

Proposizione 2.25. Siano V e W due spazi vettoriali di dimensione finita su K. Se{v1, ...,vn}`e una base di V e {w1, ...,wm}`e una base di W (su K), allora

{(v1,0W), ...,(vn,0W),(0V,w1), ...,(0V,wm)}

`e una base dello spazio vettoriale prodotto diretto V×W su K. In particolare, V×W `e uno spazio vettoriale di dimensione finita su K e

dimK(V×W)=dimK(V)+dimK(W).

Dimostrazione.Sianoa1, ...,an,b1, ...,bmKtali chea1(v1,0W)+· · ·+an(vn,0W)+b1(0V,w1)+· · ·+bm(0V,wm)= (0V,0W). Tenendo conto della definizione di prodotto diretto di spazi vettoriali, l’uguaglianza di sopra

`e equivalente alle seguenti uguaglianzea1v1+· · ·+anvn=0Veb1w1+· · ·+bmwm=0W, che a loro volta implicano (tenendo conto delle nostre ipotesi)a1=· · ·=an=b1=· · ·=bm=0.

Dimostriamo ora che questi vettori generano lo spazioV×W. Sia (v,w)V×Wun vettore arbitrario.

Poich`e {v1, ...,vn} `e una base di V, esistono a1, ...,anKtali che v = a1v1+· · ·+anvn. Analogamente, w =b1w1+· · ·+bmwm, conb1, ...,bmK. Allora (v,w)= a1(v1,0W)+· · ·+an(vn,0W)+b1(0V,w1)+· · ·+

bm(0W,wm).

Definizione 2.26. SianoVe W due spazi vettoriali suK. Un’applicazione f:VW si chiamaomo- morfismo (o applicazione lineare) di spazi vettoriali su K(odi K-spazi vettoriali) se sono soddisfatti i seguenti assiomi:

i) Per ogniv1,v2Vsi haf(v1+v2)= f(v1)+ f(v2). (additivit`a) ii) Per ognivVe ogniλ∈Ksi ha f(λ·v)=λ·f(v). (omogeneit`a)

Un omomorfismo di spazi vettoriali f:VWsuKsi chiamaisomorfismo di spazi vettoriali su Kse esiste un omomorfismo di spazi vettoriali suK g:WVtale chegf =idVe fg=idW.

Proposizione 2.27. (i)Per ogni spazio vettoriale V su K, l’applicazione identicaidV:VV `e un omomorfismo di spazi vettoriali su K (infatti,idV`e anche un isomorfismo di spazi vettoriali su K).

(ii)Per ogni due omomorfismi di spazi vettoriali f:VW e g:WU su K, la composizione gf:VU `e un omomorfismo di spazi vettoriali su K.

(iii)Sia f:VW un omomorfismo di spazi vettoriali su K. Allora f `e un isomorfismo di spazi vettoriali su K se e solo se f `e un’applicazione bigettiva.

Dimostrazione.Esercizio.

(14)

Esempi 2.28. 1. SeW `e uno spazio vettoriale suK e se V `e un sottospazio vettoriale di W, allora l’inclusione canonicai:VW`e un omomorfismo di spazi vettoriali suK.

2. Sia

A:=













a11 a12 · · · a1n a21 a22 · · · a2n ... ... ... ... am1 am2 · · · amn













una matrice amrighe encolonne (m,n≥ 1) a coefficienti inK. Considerando gli spazi vettoriali standard suK,Km eKn, di dimensionemenrispettivamente (vedi l’Esempio 2.3, 1)), definiamo l’applicazionef:KmKnmediante la formula f(x1, ...,xm)=(y1, ...,yn), dove:

yi:= Xm

j=1

ajixj, ∀i=1, ...,n.

Si verifica facilmente chef `e un omomorfismo di spazi vettoriali suK.

Definizione 2.29. L’insieme di tutti gli omomorfismi di spazi vettoriali suKdefiniti suVa valori inW verr`a denotato con HomK(V,W). Se f,g∈HomK(V,W) definiamo l’applicazione f+g:VWmediante la formula

(f+g)(v) := f(v)+g(v),vV.

`E facile verificare che f +g ∈ HomK(V,W). In particolare, sull’insieme HomK(V,W) viene cos`ı definita un’operazione algebrica rispetto alla quale HomK(V,W) diventa un gruppo abeliano. L’elemento neutro

`e l’omomorfismo 0 : VWdefinito da 0(v) := 0WvV, e se f ∈HomK(V,W) allora l’opposto di f, denotato−f, `e l’omomorfismo definito da (−f)(v)=−f(v)∀vV.

Per ogniλ∈Ke per ognif ∈HomK(V,W) definiamo l’applicazioneλf:VWmediante la formula (λf)(v)=λf(v). `E facile vedere cheλf ∈HomK(V,W). In questo modo otteniamo una legge di compo- sizione esternaK×HomK(V,W)→HomK(V,W) rispetto alla quale il gruppo abeliano (HomK(V,W),+) diventa unK-spazio vettoriale.

SeV,W,Usono tre spazi vettoriali suK, e se f ∈HomK(V,W) eg∈HomK(W,U) sono omomorfismi di spazi vettoriali allora si verifica facilmente che la composizionegf :VU`e un omomorfismo di K-spazi vettoriali. In altre parole, per ogni tre spazi vettorialiV,W,UsuKsi ottiene l’applicazione

HomK(V,W)×HomK(W,U)→HomK(V,U) definita da (f,g)gf. Le seguenti propriet`a sono immediate:

g◦(f1+ f2)=gf1+gf2, (g1+g2)◦f =g1f +g2f,

f,f1,f2∈HomK(V,W) eg,g1,g2∈HomK(W,U).

Un omomorfismo diK-spazi vettoriali della forma f:VVsi chiamaendomorfismodelK-spazio vettorialeV. L’insieme di tutti gli endomorfismi diK-spazi vettoriali diVverr`a denotato con EndK(V).

Quindi, EndK(V)= HomK(V,V). Da quello che precede si ha che EndK(V) diventa, munito delle oper- azioni algebriche “+” e “◦”, un anello unitarioR(con 1R=idV), non commutativo se dimK(V)≥2.

Per esempio, consideriamo il prodotto direttoV := V1×V2 di due spazi vettorialiV1 eV2 suK e le applicazioni i1:V1V, i2:V2V,p1: VV1 e p2:VV2 definite mediante le formule:

i1(v1)=(v1,0V2),i2(v2) =(0V1,v2),p1(v1,v2)=v1ep2(v1,v2)=v2,∀v1V1e∀v2V2. Si verifica senza difficolt`a chei1,i2,p1ep2sono omomorfismi di spazi vettoriali suK. Gli omomorfismii1ei2sono iniettivi e si chiamano le iniezioni canonichedel prodotto direttoV1×V2; invece gli omomorfismip1 e p2 sono surgettivi e si chiamano leproiezioni canonichedel prodotto direttoV1×V2. Inoltre abbiamo le identit`a p1i1=idV1,p2i2=idV2,p2i1 =0 (risp.p1i2=0), ei1p1+i2p2=idV.

Definizione 2.30. Se nella Definizione 2.29 prendiamoW =K(lo spazio vettoriale standard di dimen- sione 1) otteniamo lo spazio vettorialeV:=HomK(V,K) suKche verr`a chiamato ilduale algebricodello spazio vettorialeVsuK. Gli elementi diVsi chiamanofunzionali linearisuV.

Références

Documents relatifs

L’accès aux archives de la revue « Rendiconti del Seminario Matematico della Università di Padova » ( http://rendiconti.math.unipd.it/ ) implique l’accord avec les

nel quale ogni aperto è un per uno spazio metrizzabile, si ottiene ancora uno spazio ereditariamente paracompatto e perfettamente normale [2].... Per analizzare le

L’accès aux archives de la revue « Rendiconti del Seminario Matematico della Università di Padova » ( http://rendiconti.math.unipd.it/ ) implique l’accord avec les

: Una caratterizzazione di certi fasci algebrici coerenti ed una ul- teriore applicaziane della proprietà di estensione. : sul prodotto tensoriale di fasci algebrici

L’accès aux archives de la revue « Rendiconti del Seminario Matematico della Università di Padova » ( http://rendiconti.math.unipd.it/ ) implique l’accord avec les

mette in luce la circostanza che il riferimento omografico di trascinamento testè caratterizzato è quello rispetto al quale il sistema ha (ad ogni istante) energia cinetica

cetti : di vettore generalizzato, prodotto interno, prodotto esterno, divergenza e rotore e di estendere in corrispondenza i teoremi.. della divergenza e del rotore

INGREDIENTS: Aqua [Water] (Eau), Cocamidopropyl betaine, Sodium chloride, Sodium cocoyl sarcosinate, Cocamidopropyl hydroxysultaine, Glycerin, Eucalyptus globulus leaf