|
Appunti scientifiche |
|
Visite: 1571 | Gradito: | [ Medio appunti ] |
Leggi anche appunti:Integrale indefinitoINTEGRALE INDEFINITO Definizione (di funzione primitiva) Sia Estremo superiore e inferiore di un insieme numericoESTREMO SUPERIORE E INFERIORE DI UN INSIEME NUMERICO Definizione Spazi vettorialiSPAZI VETTORIALI Siano K un campo e V un insieme. Diremo che V e` uno spazio |
Siano K un campo e V un insieme. Diremo che V e` uno spazio vettoriale sul campo K
se sono definite due operazioni: un'operazione interna su V(+) detta somma,
ed un'operazione esterna(x) detta prodotto, tali che:
1)(V,+) sia un gruppo abeliano,cioe` goda delle proprieta` associativa e commutativa,
abbia l'elemento nuetro e abbia l'inverso.
2)il prodotto esterno soddisfi le seguenti proprieta`:
(hXk)Xv=hX(kXv)
(h+k)Xv=hv+kv
hX(v+w)=hv+hw
1Xv=v
Definizione:Sia V(k) uno spazio vettoriale e A [v1,v2,...,vn ] un sistema di vettori di V. il sistema A si dice libero, ovvero i vettori di A si dicono linearmente indipendenti, se l'unica combinazione lineare dei vettori v1,v2,...,vn che da il vettor nullo è quella a coefficienti tutti nulli. Se il sistema non è libero diremo che è legato, ovvero i suoi vettori sono linearmente dipendenti.
Definizione:Sia V(k) uno spazio vettoriale e sia A un sistema non vuoto di vettori di V, si dice copertura lineare di A,e si indica L(a), l'insieme di vettori di V(k) che si possono esprimere come combinazione lineare di un numero finito di vettori di A.
Definizione:Sia V uno spazio vettoriale e sia A V. Il sottospazio vettoriale L(A) si dice spazio generato da A. Se poi L(A)=V, si dice che A è un sistema di generatori di V.
Diremo che V(k) è finitamente generato(f.g.) se esiste in esso almeno un sistema di generatori.
Teorema: ogni sazio vettoriale V(k) f.g. non banale ammette almeno un sistema libero di generatori.
Dimostrazione: sia S=[ v1,v2,...,vn ] un sistema di generatori di V(k) , se S è un sistema libero di generatori allora il teorema è dimostrato, se S non è libero allora un suo vettore vi è combinazione lineare degli altri e quindi si può eliminare perché S è ancora un sistema di generatori si V.ora se S è libero il teorema è dimostrato sennò si continua come prima.
Lemma di steinitz: sia V(k) uno spazio vettoriale f.g., sia B=[v1,v2,...,vn ] un suo sistema di generatori e sia A=[u1,u2,..,um] un sistema libero di vettori di V.allora m<=n.
Si dice base di uno spazio vettoriale V(k) f.g. una sequenza libera di generatori di V(k) .
Teorema: tutte le basi di uno spazio vettorile V(k) hanno lo stesso numero di vettori
Dimostrazione: siano B=[v1,v2,...,vn ] e A =[u1,u2,..,um] due basi di V(k) .poiché B è un sistema di generatori di V e A è un sistema libero si ha che m<=n ma invertendo i ruoli si ottiene che n<=m e quindi m=n.
Teorema: una sequenza B=[v1,v2,...,vn ] è base se, e soltanto se, ogni vettore di V(k) si può esprimere in modo unico come combinazione lineare dei vettori di B.
Lemma: se A'=[v1,v2,...,vn ] e A''=[u1,u2,..,um] sono sequenze di vettori di V(k) tali che A=A' A'' è una sequenza libera e A' A''= ,allora L(A') L(A'')=.
Dimostrazione: se per assurdo in L(A') L(A'') un vettore w si avrebbe w=a1v1+a2v2+...+anvn ma anche w=b1u1+b2u2+...+bmum sottraendo membro a membro si otterrebbe una combinazione lineare a coefficienti non tutti nulli che da il vettor nullo dai vettori della sequenza A che per ipotesi è libera cioè un assurdo.
Teorema del complemento di una base: sia Vn(k) uno spazio vettoriale di dimensione n e sia A=[v1,v2,...,vp ] ,ove p n, una sequenza libera di vettori di Vn(k). Allora in qualunque base di Vn(k) esiste una sequenza B' di vettori tale che A B' è base di Vn(k), inoltre L(A) e L(B') hanno in comune solo il vettor nullo.
Dimostrazione:applicando il lemma di steinitz ad una base B di Vn(k) si possono sostituire p vettori di B con i vettori di A ottenendo così un nuovo sistema B'' di generatori di Vn(k) che, essendo un sistema di n generatori in uno spazio di dimensione n è base. Il sistema B' creato è appunto formato dagli n-p vettori di B''A.il resto e diretta applicazione del lemma precedente.
Intersezione e somma di sottospazi
Dati due sottospazi U e W di uno spazio vettoriale V(K) la loro intersezione è l'insieme:
U W=
Proposizione: se U e W sono sottospazi di uno spazio vettoriale V(K), allora U W è un sottospazio vettoriale di V(K).
Proposizione: siano U e W due sottospazi di uno spazio vettorile V(K), allora:
U W è un sottospazio U W oppure W U
Definizione:siano U1,U2,..,Ur sottospazi dello spazio vettoriale V(K). Si dice somma dei sottospazi Ui :
S= U1+U2+..+Ur=
S è un sottospazio di V(K)
Definizione(somma diretta): dati U1,U2,..,Ur sottospazi dello spazio vettoriale V(K). La loro somma si dice diretta e si scrive S= U1 U2 Ur ,se ogni vettore zIS è esprimibile in modo unico come somma di r vettori uno per ogni Ui.
Proposizione: siano U1,U2,..,Ur sottospazi dello spazio vettoriale V(K). La loro somma è diretta se e soltanto se, scegliendo m r vettori ui non nulli e al più uno in ogni sottospazio Ui, i vettori u1,u2,.,um sono linearmente indipendenti.
Definizione: siano U e W due sottospazi di uno spazio vettoriale V(K). Si dice somma di U e W
U + W =
Proposizione: il sottospazio minimo contenente U e W è U+W.
Dimostrazione: dobbiamo dimostrare che L(U W)=U + W. Osserviamo che U W U + W e quindi L(U W) L(U+W) = U + W, inoltre U U W e W U W quindi, U L(U W) e W L(U W), da cui U + W L(U W).
Proposizione: la somma di due sottospazi U e W di uno spazio vettoriale V(K) è diretta se e soltanto se U W = .
Corollario: uno spazio vettoriale V(K) è somma diretta dei suoi sottospazi U e W se e soltanto se U W= e U + W = V
Proposizione(formula di grassmann): siano U e W due sottospazi di uno spazio vettoriale V(K) f.g..allora
dim(U + W)= dimU + dim W - dim(U W)
Definizione:se U è un sottospazio vettoriale di Vn(K), si dice complemento diretto di U in V , un sottospazio vettoriale W di Vn tale che U W=V.
Dato un numero naturale n, si chiama n fattoriale il numero denotato con n! ed ottenuto dal prodotto dei primi n numeri interi:
n! =
Si assume, per convenzione, 0! = 1.
Si chiama permutazione di una funzione biettiva p : .
L'insieme delle permutazioni di si denota con Sn ed è formato da n! elementi.
Ogni permutazione si può rappresentare con la scrittura:
oppure, più semplicemente, con:
dove pi = p(i).
Sia p Sn , si dice che p presenta una inversione nella coppia (h,k) x se h<k e p(h)>p(k).
Il numero di coppie di inversione per p si indica con (p). Si chiama segno di p il numero:
sign(p) = (-1) (p)
La permutazione p è detta di classe pari se sign(p) = 1 ((p) pari), di classe dispari se
sign(p) = -1 ((p) dispari).
Sia A, si chiama determinante della matrice A il numero:
det (A) = =
cioè la somma di tutti i possibili prodotti di n elementi appartenenti a righe e colonne diverse tra loro.
Proprietà dei determinanti
Il determinante di una matrice A gode delle seguenti proprietà:
d1) = ;
d2) Se B è ottenuta scambiando due righe (o colonne) di A, allora = - ;
d3) Se B è ottenuta da A sommando ad una riga (o colonna) una combinazione lineare delle restanti righe (colonne), allora = ;
d4) Il determinante di A si annulla se e solo se le righe o le colonne di A sono linearmente dipendenti.
Calcolo del determinante con la regola di Laplace
Sia A, si dice complemento algebrico dell'elemento ahk , e si indica con Ahk, il determinante della matrice quadrata di ordine n-1 ottenuta da A sopprimendo la h-esima riga e la k-esima colonna preso con il segno (-1)h+k.
Teorema di Laplace. Il determinante di una matrice quadrata A di ordine n è dato dalla somma dei prodotti degli elementi di una sua riga (o colonna) per i rispettivi complementi algebrici. Cioè:
=
oppure
=
Calcolo del determinante con il metodo di eliminazione di Gauss
Il metodo di eliminazione di Gauss è una procedura che permette di trasformare una qualunque matrice quadrata A in una matrice triangolare , mediante una successione finita di trasformazioni elementari del tipo :
: scambio di due differenti righe: (o colonne: );
: somma di una riga (o colonna) con un'altra moltiplicata per uno scalare: ().
Poiché le trasformazioni del tipo cambiano il segno del determinante, mentre le trasformazioni del tipo non alterano il determinante, le matrici A ed avranno lo stesso determinante se si è operato un numero pari di scambi di righe o colonne, se invece si è operato un numero dispari di scambi allora = .
Descriviamo ora il metodo di eliminazione di Gauss. Sia
A =
Una matrice quadrata di ordine n. Mediante scambi di righe o colonne facciamo in modo che (se A è diversa dalla matrice nulla ciò è sempre possibile). Dobbiamo ora operare in modo che tutti gli elementi della prima colonna, eccetto il primo, siano nulli. Pertanto, per ogni basta sottrarre alla j-esima riga della matrice A la prima riga moltiplicata per .
Si ottiene così una matrice del tipo
=
che ha lo stesso determinante della matrice A o, al più, il suo opposto. Operando in modo analogo sulle colonna successive, si perviene ad una matrice triangolare il cui determinante differisce da quello di A al più per il segno.
Rango di una matrice
La proprietà d4 consente di stabilire rapidamente se un sistema di n vettori numerici di ordine n, è linearmente dipendente o indipendente. Basta infatti considerare la matrice A che ammette i vettori come righe o come colonne e calcolare il determinante di A. Se = 0 allora i vettori saranno linearmente dipendenti, diversamente essi saranno linearmente indipendenti.
Sia A, si dice minore di ordine k di A (km e kn) una matrice quadrata di ordine k ottenuta da A sopprimendo m-k righe e n-k colonne.
Si definisce rango di una matrice A, e si indica con (A), l'ordine massimo di un minore estratto da A con determinante diverso da zero.
Ovviamente, se la matrice A è quadrata di ordine n, allora (A) = n se e solo se il determinante di A è diverso da zero.
Teorema. Sia A, la dimensione dello spazio generato dalle righe della matrice A coincide con la dimensione dello spazio generato dalle colonne di A. Inoltre si ha:
(A) = dim L = dim L.
I minori della matrice aventi determinante non nullo e di ordine massimo (cioè pari al rango di A) sono detti minori fondamentali.
Le righe e le colonne che formano un minore fondamentale costituiscono una base, rispettivamente, di L e di L. Cioè costituiscono un sistema massimo di righe e di colonne linearmente indipendenti.
Teorema (degli orlati). Una matrice A ha rango h se e solo se esiste un minore di ordine h con determinante non nullo tale che tutti i suoi orlati abbiano determinante nullo.
Inversa di una matrice
Una matrice quadrata A si dice invertibile se esiste una matrice , detta matrice inversa, tale che .
Per un calcolo più rapido della matrice inversa conviene applicare le seguenti proprietà:
A invertibile e .
A invertibile e .
Dove A* = (Aij) è la matrice i cui elementi sono i complementi algebrici degli elementi di uguale posizione di A
Sistemi lineari
Un sistema lineare è un insieme di m equazioni in n incognite a coefficienti in un campo K.
Un sistema lineare si può quindi indicare nel modo seguente:
S :
Con . Gli scalari si chiamano coefficienti delle incognite, mentre gli scalari si dicono termini noti.
Ad ogni sistema lineare S si può associare la matrice dei coefficienti A = (), detta anche matrice incompleta, e la cosiddetta matrice completa C ottenuta aggiungendo ad A la colonna dei termini noti.
C =
Si chiama soluzione del sistema S una n-upla di K che verifica tutte le equazioni del sistema S, ossia:
o equivalentemente, utilizzando la forma vettoriale,
L'insieme delle soluzioni di S sarà indicato con Sol(S). Il sistema S si dice compatibile se Sol(S) , ossia esiste qualche soluzione, si dice, invece, incompatibile (o impossibile) se è privo di soluzioni, cioè Sol(S) =
Dalla relazione (*) si deduce che se il sistema S è compatibile allora la colonna dei termini noti è combinazione lineare delle colonne della matrice A. Viceversa se dipende linearmente dalle colonne della matrice A, allora esiste una n-upla di K tale che , ma questo vuol dire che è una soluzione, cioè che il sistema è compatibile. Possiamo allora concludere dicendo che il sistema S è compatibile se e solo se . Inoltre, se il sistema S è compatibile, le sue soluzioni sono tante quanti i modi di esprimere come combinazione lineare dei vettori . Questi risultati ci consentono di provare i seguenti:
Teorema di Rouché - Capelli. Un sistema lineare AX = B è compatibile se e solo se .
Dimostrazione. Sappiamo che = dim e
Se il sistema è compatibile, e, dunque, e .
Viceversa, se allora i sottospazi e hanno la stessa dimensione, ed essendo , essi necessariamente devono coincidere. Pertanto:
Dunque il sistema è compatibile.
Teorema di unicità. Sia AX = B un sistema di m equazioni in n incognite. Se == n, allora il sistema è compatibile ed ammette una sola soluzione.
Dimostrazione. Se == n, il sistema è compatibile per il teorema di Rouché - Capelli.
Inoltre, essendo = n, le colonne della matrice A sono linearmente indipendenti, dunque il vettore si può esprimere in un solo modo come combinazione lineare dei vettori e ciò comporta, per le considerazioni precedenti, l'unicità della soluzione.
Teorema di Cramer. Un sistema lineare AX = B in n equazioni ed n incognite tale che il determinante di A è diverso da zero, ammette una sola soluzione . Inoltre si ha:
,
Dove è la matrice ottenuta da sostituendo alla sua i-esima colonna la colonna dei termini noti.
Calcolo delle soluzioni col metodo di Gauss
Esamineremo adesso un metodo, molto usato, per il calcolo delle soluzioni di un sistema lineare, noto come il metodo di eliminazione di Gauss. Questo metodo consiste in una successione finita di operazioni sulle equazioni di un sistema lineare:
scambiare tra loro due equazioni;
sommare ad una equazione un'altra per uno scalare diverso da zero.
Ogni volta che si esegue una operazione di questo tipo si ottiene un nuovo sistema che ha le stesse soluzioni. Due sistemi aventi le stesse soluzioni si dicono equivalenti. Eseguendo queste operazioni opportunamente su di un sistema si perviene ad un sistema equivalente che si risolve a prima vista.
Illustriamo questo metodo attraverso alcuni esempi.
Sistemi omogenei
Un sistema lineare si dice omogeneo se la colonna dei termini noti è nulla.
Un sistema omogeneo AX = 0 ammette come soluzione il vettore nullo e, quindi, è sempre compatibile. Per il teorema di unicità, se il rango della matrice A coincide col numero delle incognite, il vettore nullo è l'unica soluzione.
In particolare, se A è una matrice quadrata, cioè il sistema ha un numero di equazioni pari al numero delle incognite, allora il sistema omogeneo ammette una sola soluzione, quella nulla, se e solo se det A0.
Teorema. L'insieme delle soluzioni di un sistema lineare omogeneo, AX = 0, è un sottospazio vettoriale di Kn di dimensione h = .
Teorema. Le soluzioni di un sistema lineare AX = B sono tutte e sole del tipo dove è una soluzione particolare di AX = B e è una soluzione di AX = 0, sistema omogeneo associato ad AX = B.
Dimostrazione. Sia una soluzione particolare di AX = B e Z una soluzione del sistema omogeneo associato, allora A= B e AZ = 0 e quindi, sommando membro a membro, A+AZ = A(+Z) = B. Pertanto (+Z) è una soluzione di AX = B.
Viceversa, se Y è una soluzione di AX = B e una soluzione particolare, allora AY - A= B -B = 0 e, quindi, Y - è una soluzione di AX = 0.
Facciamo vedere attraverso un esempio che ogni sottospazio vettoriale di Kn, di dimensione h, coincide con lo spazio delle soluzioni di un sistema lineare omogeneo, la cui matrice associata ha rango n - h.
APPLICAZIONI LINEARI
Definizione: Siano V e W due spazi vettoriali sullo stesso campo K. un'applicazione lineare f:V→W so dice applicazione lineare se: 1) per ogni v,v′ I V f(v+v′) = f(v)+f(v′); 2) per ogni vIV e kIK f(kv) = kf(v).
Definizione: si dice immagine di f:V→W il sottoinsieme W : Imf =
Definizione: si dice nucleo di f:V→W il sottoinsieme di V : Kerf =
Proposizione: sia f:V→W un'applicazione lineare tra due spazi vettoriali allora: Imf e` sottospazio di W mentre il Kerf e sottospazio di V.
Proposizione: sia f:V→W un'applicazione lineare, si dice che f e` iniettiva,o che e` un monomorfismo, se la dimV≤dimW.si dice suriettiva, o che e` un epimorfismo, se dimV≥dimW.si dice biiettiva, o isomorfismo,se dimV=dimW.
Definizione: si dice endomorfismo un'applicazione lineare di uno spazio vettoriale V in se`. e si dice automorfismo un endomorfismo biiettivo.
Proposizione: sia f:V→W un'applcazine lineare allora f e` iniettiva se, e soltanto se, Kerf=vettor nullo.
Dimostrazione: se Kerf=vettor nullo e se v,v′ IV sono tali che f(v)=f(v′). si ha che f(v-v′)=vettor nullo pertanto vv′IKerf = vettor nullo,cioe` f e` iniettiva.
Proposizine: sia f:V→W un'applicazione lineare tra due spazi vettoriali sullo stesso campo K. se i vettori v1,v2,..,vn di V sono l.d. anche f(v1),f(v2),..f(vn) sono l.d.
Dimostrazione: se i vettori v1,v2,..,vn sono l.d. allora esiste una loro combinazione lineare a coefficenti non tutti nulli che da il vettor nullo, sia essa a1v1+a2v2+.+anvn= vettor nullo. applicando l'omomorfismo f ad ambo i membri si ottiene f(a1v1+a2v2+.+anvn)=a1f(v1)+a2f(v2)+..+anf(vn)=vettor nullo cioe` una combinazione lineare a coefficienti non tutti nulli dei vettori f(v1),f(v2),..f(vn) che da il vettor nullo.pertanto tali vettori sono l.d.
Proposizione: sia f:V→W un'applicazione lineare tra due spazi vettoriali sullo stesso campo K,f e` iniettiva se, e soltanto se, comunque si considerino i vettori v1,v2,..,vn di V l.i., i vettori f(v1),f(v2),..f(vn) sono l.i.
Dimostrazione: siano v1,v2,..,vn di V l.i.dimostriamo che anche i vettori f(v1),f(v2),..f(vn) sono l.i.procediamo per assurdo dicendo che sono l.d. allora esiste una loro combinazione lineare a coefficienti non tutti nulli che da il vettor nullo, cioe` a1f(v1)+a2f(v2)+..+anf(vn)=vettor nullo da cui si ha f(a1v1+a2v2+.+anvn)=vettor nullo .pertanto il vettore a1v1+a2v2+.+anvnIKerf che e` il solo vettor nullo, percio` a1v1+a2v2+.+anvn= vettor nullo ma cio` e` un assurdo perche questa e una combinazione lineare a coefficienti non tutti nulli di vettori l.i. che da il vettor nullo.
Proposizione:sia f:V→W un'applicazione lineare tra due spazi vettoriali sullo stesso campo K e sia V f.g. se la sequenza B=(e1,e2,.,en) e` una base di V allora [f(e1),f(e2),.,f(en)] e` un sistema di generatori per Imf.
Dimostrazione: sia w un vettore di Imf,allora f(v)=w. v e` esprimibile come combinazione lineare dei vettori di B, cioe` v=a1e1+a2e2+.+anen da cui w = f(a1e1+a2e2+.+anen)=a1 f(e1)+ a2 f(e2)+.+ an f(en).cioe` la tesi
Teorema delle dimensioni: sia f:V→W un'applicazione lineare tra due spazi vettoriali sullo stesso campo K e sia V f.g. allora: dimKerf + dim Imf = dimV.
Dimostrazione: siano Imf e Kerf diversi dal vettor nullo. dato che V e` f.g. anche Imf e Kerf sono f.g. sia Bk(u1,u2,.,ur) una base di Kerf e sia BI(w1,w2,.,ws) una base di Imf, esistono per definizione di immagine s vettori v1,v2,..,vs in V tali che f(v1)=w1,.,f(vs)=ws .se dimostriamo che B=( u1,u2,.,ur, v1,v2,..,vs) e` base di V abbiamo dimostrato il teorema. B e` un sistema di generatori di V. sia infatti v un vettore di V. allora f(v) e un vettore di Imf e quindi e` esprimibile come combinazione lineare dei vettori di una base di Imf .pertanto f(v)= a1w1+..+asws=a1f(v1)+..+ asf(vs) per le proprieta` di cui godono le applicazioni lineari il vettore v-(a1v1+.+asvs) appartiene a Kerf e quindi e` esprimibile come combinazione lineare dei vettori di una base di Kerf. quindi v-(a1v1+.+asvs)= b1u1+.+brur, cioe` v= b1u1+.+brur+ a1v1+.+asvs,percio` B genera V.
Composizioni di applicazioni lineari
Siano V,W e U spazi vettoriali sullo stesso campo K ed f:V→W e g:W→U due applicazioni lineari. definiamo l'applicazione composta g ○ f :V→U nel seguente modo: per ogni vIV (g ○ f)(v)= g(f(v)). Si ferifica facilmente che g ○ f e` lineare e quindi la composizione di applicazioni lineari e` un'applicazione lineare.se poi f e g sono isomorfismi anche g ○ f e` un'isomorfismo.
Proposizione: f:V→W e` un isomorfismo allora anche f -1 e` un isomorfismo
Rappresentazione di un'applicazione lineare
Definizione: Sia f:Vn→Wm un'applicazione lineare tra due spazzi vettoriali di dimensione n e m rispettivamente, sullo stesso campo K. Fissate B(e1,.,en) e B′(e′1,..,e′m) due basi vi Vn e di Wm rispettivamente, siano ФB:Vn(K)→Kn e ФB′: Wm(K)→Km due isomorfismi. Si dice rappresentazione di f rispetto alle basi B e B′ l'applicazione lineare f:Kn→Km tale che f = ФB′ ○ f ○ ФB-1.
La rappresentazione di un'applicazione lineare f rispetto a due basi fissate B e B′, associa alle componenti di un vettore v di V nella base B, le componenti in B′ del vettore f(v).cioe` un vettore v di V si puo` esprimere come combinazione lineare dei vettori di B, quindi v=x1e1+x2e2+.+xnen da cui f(v)= x1 f(e1)+ x2 f(e2)+.+ xn f(en). a sua volta f(v) puo` essere espresso come combinazione lineare dei vettori di B′ e analogamente anche i vettori f(e1),.,f(en) possono essere espressi come combinazione lineare dei vettori di B′. dopo varie sostituzione e uguaglianze si ottiene il sistema che esprime la rappresentazione di f nelle basi B e B′:
y1= a11x1+.+a1nxn
y2=a21x1+.+a2nxn
.
.
ym=am1x1+.+amnxn
In forma matriciale la descrizione di questo sistema e`:Y=AX dove X e` la matrice colonna contenente le componenti di un vettore v di V,Y e` la matrice colonna che contiene le componenti di f(v) in B′ e A e` detta matrice della rappresentazione di f ,le sue colonne contengono le componenti in B′ dei trasformati attraverso f dei vettori di B.
Per le f composte si ha che se f:Y=FX e g: Z=GY g ○ f : Z=(GF)X.
Teorema di binet: se esiste il prodotto GF delle matrici G ed F, allora il rango di GF ≤al minimo tra il rango di G e quello di F. inoltre se G e` quadrata e invertibile allora il rango di GF=al rango di F.
Dimostrazione:siano F e G le matrici associate alle applicazioni lineari f:Y=FX e g: Z=GY. poiche` per ipotesi esiste GF allora esiste anche g ○ f. sia la dimensione di Imf e Img sono maggiori o al piu` uguali alla dimensione di Im(g ○ f). inoltre il rango della matrice associata ad un'applicazione lineare fornisce la dim dell'immagine.pertanto il rango di GF ≤al minimo tra il rango di G e quello di F. inoltre se G e` quadrata e invertibile allora l'applicazione g e` un isomorfismo e la dim di Im(g ○ f) coincide con la dim di Imf.
Cambiamento di base
Sia f:Vn→Wm un'applicazione lineare tra due spazi vettoriali sullo stesso campo K. e siano f:Y=AX la rappresentazione di f rispetto alle basi B di Vn e B′ di Wm e f′:Y′=A′X′ la rappresentazione di f rispetto alle basi B′′ di Vn e B′′′ di Wm. siano Dn la matrice del cambiamento di base da B a B′′ cioe` E′=DnE, e Cm la matrice del cambiamento di base da B′ a B′′′.da cio` la matrice della rappresentazione di f′ e`: A′= tCm-1 A tDn.
Matrici simili
Definizione: Due matrici A e A′ quadrate di ordine n si dicono simili, se esiste una matrice invertibile P,dello stesso ordine n, tale che A′=P-1 AP.
Autovalori ed autovettori
Definizione: sia f: V V un endomorfismo di uno spazio vettorile sul campo K. Un elemento kIK si dice autovalore per f se esiste un vettore non nullo vIV detto autovettore tale che: f(v) = kv.
Proposizione: sia f: V V un endomorfismo. Allora kIK è un autovalore per f se, e soltanto se, Kerfk da vettor nullo e vIV è un autovettore di autovalore k se e soltanto se vIKerfk.
Dimostrazione: k è un autovalore per f se esisteun vettore non nullo per cui f(v)=kv e quindi se fk(v)=f(v) - kv =vettor nullo cioè Kerfk dal vettor nullo. Ovviamente il vettore v risulta essere un autovettore di autovalore k.
Proposizione: se f: V V è un isomorfismo, allora kIK è un autovalore per f k - 1 è un autovalore per f - 1.
Dimostrazione: dato che f è un isomorfismo k è non nullo quindi esiste k - 1 . sia ora v un autovettore relativo all'autovalore k , sia cioè f(v) = kv. Applicando l'isomorfismo inverso f - 1 si ottiene f - 1(f(v)) = f - 1(kv) e quindi v=k f - 1(v). moltiplicando ambo imembri per k - 1 si ottiene f - 1(v)= k - 1 v quindi k - 1 è autovalore.
Definizione: sia f: V V un endomorfismo e sia kIK un suo autovalore. Si dice autospazio associato a k, e si indica Vk, l'insieme dei vettori vIV tali che f(v) = kv.
Vk = .
Definizione: se A è una matrice quadrata di ordine n si dice polinomio caratteristico di A, e si indica pa(t), il determinante della matrice A - tD, cioè: pa(t)= A - tD . l'equazione pa(t)= A - tD =0 è detta equazione caratteristica.
Teorema: sia f: V V un endomorfismo di uno spazio vettoriale di dimensione n sul campo K, sia B una base di V e sia A la matrice della rappresentazione di f rispetto alla base B. un elemento k del campo K è un autovalore di f se, e soltanto se, A - kD =0. Un vettore di v di V è un autovettore di autovalore k se,e soltanto se, (A - kD)Xv=0, dove Xv è la matrice colonna delle componenti di v in B.
Dimostrazione: lo scalare k è autovalore di f se,e soltanto se, Kerfk dal vettor nullo, quindi se, e soltanto se, il rango della matrice associato all'endomorfismo fk è minore di n, ovvero A - kD =0. Mentre v è autovettore di autovalore k se, e soltanto se, vIKerfk e questo equivale alla condizione (A - kD)Xv=0.
Endomorfismi diagonalizzabili
Teorema: sia f: V V un endomorfismo di uno spazio vettoriale di dimensione n sul campo K, e sia kIK un suo autovalore di molteplicità algebrica ak. Allora 1 gk ak
Dimostrazione: sia gk = dimVk = r. possiamo quindi scegliere in Vk una base B' = (v1,v2,.,vr) e, applicando il teorema del completamento di una base, aggiungere n - r vettori vettori opportunamente scelti ai vettori di B' ottenendo una base B = (v1,v2,...,vr,vr+1,.,vn) di V. costruiamo la matrice della rappresentazione di f nella base B. dato che f(v1)= kv1,..,f(vr) = kvr, la matrice A di detta rappresentazione sarà:
A D E
O F
dove D è una matrice diagonale di ordine r, O è la matrice nulla avente n - r righe e r colonne, E è una matrice avente r righe e n - r colonne e F è una matrice quadrata di ordine n - r. risulta che il polinomio caratteristico pa(t) coincide con il prodotto dei polinomi caratteristici delle matrici D e F , quindi pa(t) = (k - t)r pF(t). pertanto la molteplicità di k come radice del polinomio caratteristico è almeno r e dunque ak gk. È poi evidente che essendo Vk dal vettor nullo la sua dimensione è almeno 1.
Definizione: un endomorfismo f: V V si dice diagonalizzabile se è diagonale la matrice della sua rappresentazione rispetto ad una qualunque base di V.
Teorema: sia f: V V un endomorfismo di uno spazio vettoriale di dimensione n sul campo K, e siano k1,k2,..,kr i suoi autovalori distinti. Sono equivalenti le seguenti proposizioni: 1) f è diagonalizzabile
2) V = Vk1 Vk2 Vkr
3) le radici del polinomio caratteristico appartengono tutte al campo K e sono tutte autovalori regolari cioè la loro ak=gk.
Geometria
Prodotto scalare standard
definizione:siano v e w due vettori liberi non nulli . Fissato un punto O dello spazio consideriamo i segmenti OP ed OQ tali che v=OP e w=OQ.l'angolo formato da v e w(vw) e` l'angolo convesso formato dalle rette OP ed OQ. il prodotto scalare standard tra v e w e`: vw= │v││w│cosvw.
Basi ortonormali in V : siano v,w e u tre vettori liberi di V non nulli e a due a due ortogonali e di lunghezza unitaria. poiche` risultano linearmente indipendenti, essi formano una base B di V.
Appunti su: poifeg, |
|
Appunti Fisica | |
Tesine Contabilita | |
Lezioni Geografia | |