See also ebooksgratis.com: no banners, no cookies, totally FREE.

CLASSICISTRANIERI HOME PAGE - YOUTUBE CHANNEL
Privacy Policy Cookie Policy Terms and Conditions
Trasformazione lineare - Wikipedia

Trasformazione lineare

Da Wikipedia, l'enciclopedia libera.

In matematica, una trasformazione lineare (chiamata anche applicazione lineare o mappa lineare) è una funzione tra due spazi vettoriali che preserva le operazioni di somma di vettori e di moltiplicazione per scalare. In altre parole, preserva le combinazioni lineari, cioè le composizioni che caratterizzano la specie di struttura spazio vettoriale; quindi nel linguaggio dell'algebra astratta, una trasformazione lineare è un omomorfismo di spazi vettoriali, in quanto conserva la forma di ogni istanza dell'operazione che caratterizza gli spazi vettoriali.


Indice

[modifica] Definizione e prime conseguenze

Siano V e W due spazi vettoriali sullo stesso campo K. Una funzione  f:V\to W è una trasformazione lineare se soddisfa le seguenti proprietà

per ogni coppia di vettori x e y in V e per ogni scalare a in K.

Equivalentemente, f è lineare se "preserva le combinazioni lineari", ovvero se

f(a_1 x_1+\cdots+a_m x_m)=a_1 f(x_1)+\cdots+a_m f(x_m)

per ogni insieme finito di vettori  x_1,\ldots, x_m e di scalari  a_1,\ldots,a_m .

Quando V e W possono essere considerati come spazi vettoriali su differenti campi, è importante evitare ogni ambiguità e specificare quale campo è stato utilizzato nella definizione di "lineare". In questo caso parliamo di mappe K-lineari.

Se  f:V\to W è una applicazione lineare, allora necessariamente

 f(0_V) = 0_W \,\!

dove 0V e 0W sono i vettori nulli rispettivamente di V e W.

[modifica] Esempi

  • La moltiplicazione per una costante fissata a in K
     f(v) = av \,\!
    è una trasformazione lineare su qualsiasi spazio vettoriale su K.
  • Una rotazione del piano euclideo rispetto all'origine di un angolo fissato.
  • Una riflessione del piano euclideo rispetto ad una retta passante per l'origine.
  • La proiezione di uno spazio vettoriale V decomposto in somma diretta
     V = U\oplus W
    su uno dei due sottospazi U o W.
  • Una matrice A di tipo  m\times n con valori reali definisce una trasformazione lineare
     L_A:\R^n\to\R^m
     L_A(v) = Av \,\!
    dove Av è il prodotto di A e v. Ogni trasformazione lineare tra spazi vettoriali di dimensione finita è essenzialmente di questo tipo: si veda la sezione seguente.
  • L'integrale di una funzione reale su un intervallo definisce una mappa lineare dallo spazio vettoriale delle funzioni continue definite sull'intervallo nello spazio vettoriale R.
  • La derivata definisce una mappa lineare dallo spazio vettoriale di tutte le funzioni derivabili in qualche intervallo aperto di R nello spazio di tutte le funzioni.
  • Lo spazio C dei numeri complessi ha una struttura di spazio vettoriale complesso di dimensione 1, e anche di spazio vettoriale reale di dimensione 2. La coniugazione
     f:\mathbb C\to \mathbb C
     f(z) = \bar z
    è una mappa R-lineare ma non C-lineare: infatti la proprietà di omogeneità vale solo per scalari reali.

[modifica] Matrice associata

Per approfondire, vedi la voce matrice associata ad una applicazione lineare.

Siano V e W due spazi vettoriali di dimensione finita. Scelte due basi BV e BW per V e W, ogni trasformazione lineare da V a W è rappresentabile come una matrice nel modo seguente.

Scriviamo nel dettaglio le basi

 B_V = (v_1,\ldots, v_n) \,\!
 B_W = (w_1,\ldots, w_m) \,\!

Ogni vettore v in V è univocamente determinato dalle sue coordinate c_1, \ldots, c_n, definite in modo che

v=c_1 v_1+\cdots+c_n v_n.

Se  f:V\to W è una trasformazione lineare,

f(v) = f(c_1 v_1+\cdots+c_n v_n)=c_1 f(v_1)+\cdots+c_n f(v_n).

Quindi la funzione f è determinata dai vettori f(v_1),\ldots,f(v_n). Ciascuno di questi è scrivibile come

f(v_j)=a_{1j} w_1 + \cdots + a_{mj} w_m.

Quindi la funzione f è interamente determinata dai valori di ai,j, che formano la matrice associata a f nelle basi BV e BW.

La matrice associata A è di tipo  m\times n , e può essere usata agevolmente per calcolare l'immagine f(v) di ogni vettore di V grazie alla relazione seguente:

 A [v]_{B_V} = [w]_{B_W}

dove  [v]_{B_V} e  [w]_{B_W} sono le coordinate di v e w nelle rispettive basi.

Notiamo che la scelta delle basi è essenziale: la stessa matrice, usata su basi diverse, può rappresentare applicazioni lineari diverse.

[modifica] Struttura di spazio vettoriale

  • La composizione di trasformazioni lineari è anch'essa una trasformazione lineare: se f:V\to W e  g:W\to Z sono applicazioni lineari, allora lo è anche
    g\circ f: V \to Z.
  • Se  f:V\to W e  g:V\to W sono lineari, allora lo è la loro somma f + g, definita dalla relazione (f + g)(v) = f(v) + g(v).
  • Se  f:V\to W è lineare e a è un elemento del campo K, allora la mappa af, definita da (af)(v) = a(f(v)), è anch'essa lineare.

Le proprietà precedenti implicano che l'insieme Hom(V,W) delle applicazioni lineari da V in W è un sottospazio vettoriale dello spazio vettoriale formato da tutte le funzioni da V in W.

Nel caso finito-dimensionale, dopo aver fissato delle basi, composizione, somma e prodotto per scalare di mappe lineari corrispondono rispettivamente a moltiplicazione di matrici, somma di matrici e moltiplicazione di matrici per scalare. In altre parole, le basi definiscono un isomorfismo

 \textrm{Hom}(V,W) \to M(n,m)

tra gli spazi vettoriali delle applicazioni lineari e delle matrici  n\times m , dove m e n sono le dimensioni rispettivamente di V e W.

[modifica] Nucleo e immagine

Per approfondire, vedi la voce teorema della dimensione.

Se  f:V\to W è lineare, si definisce il nucleo (in inglese kernel) e l' immagine di f come

\ker(f)=\{\,x\in V:f(x)=0\,\}
\operatorname{im}(f)=\{\,f(x):x\in V\,\}

ker(f) è un sottospazio di V e im(f) è un sottospazio di W. Se V e W hanno dimensione finita, il teorema della dimensione asserisce che:


  \dim(\ker( f )) 
+ \dim(\operatorname{im}( f )) 
= \dim( V ).

[modifica] Isomorfismi

Se V e W sono due spazi vettoriali su K. Un isomorfismo di V con W è una applicazione lineare biunivoca f: V→W. Conseguenza immediata di questa definizione è che f è isomorfismo se e solo se Kerf = 0V e Imf= W.

[modifica] Endomorfismi e automorfismi

Una trasformazione lineare  f:V\to V è un endomorfismo di V. L'insieme di tutti gli endomorfismi Endo(V) insieme a addizione, composizione e moltiplicazione per uno scalare come descritti sopra formano un'algebra associativa con unità sul campo K: in particolare formano un anello e un spazio vettoriale su K. L'elemento identità di questa algebra è la trasformazione identità di V.

Un endomorfismo biiettivo di V viene chiamato automorfismo di V; la composizione di due automorfismi è di nuovo un automorfismo, e l'insieme di tutti gli automorfismi di V forma un gruppo, il gruppo generale lineare di V, chiamato Aut(V) o GL(V).

Se la dimensione di V è finita basterà che f sia iniettiva per poter affermare che sia anche suriettiva (per il teorema della dimensione). Inoltre l'isomorfismo

 \textrm{Endo}(V)\to M(n)

fra gli endomorfismi e le matrici quadrate  n\times n descritto sopra è un isomorfismo di algebre. Il gruppo degli automorfismi di V è isomorfo al gruppo lineare generale GL(n, K) di tutte le matrici  n\times n invertibili a valori in K.

[modifica] Pull-Back di funzioni ed applicazione trasposta

Siano A,B,C degli insiemi ed F ( A, C ), F ( B, C ) le famiglie di funzioni da A in C e da B in C rispettivamente. Ogni φ: AB determina univocamente una corrispondenza φ*: F ( B, C ) → F ( A, C ), chiamata pull-back tramite φ, che manda f in f  _\circ φ.

Se nello specifico prendiamo A = V, B = W due spazi vettoriali su campo k = C, e anzich'è prendere gli interi F ( V, k ), F ( W, k ) ci restringiamo agli spazi duali V* e W*, abbiamo che ad ogni trasformazione lineare φ : VW possiamo associare l'opportuna restrizione del pull-back tramite φ, φ*: W* → V*, che prende il nome di trasposta di φ.

Seque direttamente da come sono definite le operazioni in V* e W* che φ* è a sua volta lineare. Con un semplice calcolo si vede che fissate delle Base (algebra lineare) basi per V e W, e le rispettive duali in V*, W*, la matrice che rappresenta φ* è la trasposta di quella di φ (o, se rappresentiamo i funzionali come matrici riga e quindi viene tutto trasposto, le due matrici sono uguali).

Segue dalla definizione che un funzionale w* ∈ W* viene mandato a 0 se e solo se l'immagine di φ è contenuta nel nucleo di w* cioè, indicando con U il sottospazio dei funzionali che annullano UW, si ha ker φ* = (im φ).

[modifica] Generalizzazioni

Le trasformazioni lineari possono essere definite anche per i moduli, strutture della specie che generalizza quella di spazio vettoriale.

[modifica] Voci correlate

[modifica] Collegamenti esterni



aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -