Alg.Lin. Mod2 - Material 2 Matriz asociada a una Transformación Lineal

18 Pages • 5,966 Words • PDF • 538.1 KB
Uploaded at 2021-09-24 15:36

This document was submitted by our user and they confirm that they have the consent to share it. Assuming that you are writer or own the copyright of this document, report to us by using this DMCA report button.


2 2.1

Matriz asociada a una transformación lineal

Transformaciones lineales invertibles

Definición 2.1 Una transformación lineal T : V → W de un espacio vectorial real V hacia un espacio vectorial real W es llamada uno a uno si para cada u0 , u00 ∈ V , tenemos u0 = u00 cada vez que T (u0 ) = T (u00 ).

El siguiente resultado se deduce de la definición anterior.

Teorema 2.1 Supongamos que T : V → W es una trasformación lineal del espacio vectorial real V hacia el espacio vectorial real W . Entonces T es uno a uno si y solo ker(T ) = {0}.

Ejemplo 2.1 Definamos la transformación lineal T : R2 → R2 por T (x, y) = (x − y, 2x − y). Es claro que si T (x, y) = 0, entonces (x, y) = (0, 0). Por tanto ker(T ) = {0} y así T es uno a uno.

18

CAPÍTULO 2. MATRIZ ASOCIADA A UNA TRANSFORMACIÓN LINEAL Ejemplo 2.2

Definamos el operador lineal T : R2 → R2 por T (x, y) = (x − y, 2x − 2y). Si T (x, y) = 0, entonces (x − y, 2x − 2y) = (0, 0), esto implica ( x−y = 0 2x − 2y = 0 Este sistema tiene infinitas soluciones, aparte de la trivial. En particular si tomamos, T (1, 1) = 0, luego ker(T ) 6= {0} y por tanto T no es uno a uno.

Proposición 2.1 Supongamos que T : V → V es un operador lineal de un espacio vectorial real finito dimensional V . Entonces la siguientes afirmaciones son equivalentes: a.) El operador T es uno a uno. b.) Tenemos ker(T ) = {0}. c.) Tenemos Im(T ) = {V }. Nota 1: Supongamos que T : V → W es un operador lineal uno a uno de un espacio vectorial real V hacia un espacio vectorial real W . Entonces para cada w ∈ Im(T ), existe exactamente un u ∈ V , tal que T (u) = w. Podemos por tanto definir una transformación T −1 : Im(T ) → V por T −1 (w) = u, donde u ∈ V es el único vector satisfaciendo T (u) = w.

Teorema 2.2 Supongamos que T : V → W es una trasformación lineal uno a uno de un espacio vectorial real V hacia un espacio vectorial real W . Entonces T −1 : Im(T ) → V es una transformación lineal.

En efecto: Supongamos que w, z ∈ Im(T ). Entonces existen u, v ∈ V , tal que T −1 (w) = u y T −1 (z) = v. De esto se sigue que T (u) = w y T (v) = z, así que T (u + v) = T (u) + T (v) = w + z, de donde T −1 (w + z) = u + z = T −1 (w) + T −1 (z). Supongamos ahora que c ∈ R. Entonces T (cu) = cw, así que T −1 (cw) = cu = cT −1 (w). Esto completa la prueba.  También tenemos el siguiente resultado concerniente a la composición de transformaciones lineal.

19

Teorema 2.3 Supongamos que V , W , U son espacios vectoriales. Supongamos además que T1 : V → W y T2 : W → U son trasformaciones lineal uno a uno. Entonces a.) La transformación lineal T2 ◦ T1 : V → U es uno a uno; y b.) (T2 ◦ T1 )−1 = T1−1 ◦ T2−1 . 2.1.1

Isomorfismos

En esta subsección se introduce una terminología importante, el cual nos dice que los espacio vectoriales de dimensión n son “en esencia” el mismo. Definición 2.2 Sea T : V → W una trasformación lineal. Entonces se dice que T es sobreyectiva o sobre, si para cada w ∈ W , existe al menos un vector v ∈ V , tal que T (v) = w. Es decir T es sobre si y solo Im(T ) = W .

Teorema 2.4 Sea T : V → W una trasformación lineal. Supongamos que dimV = n y dimW = m. Entonces i.) Si n > m entonces T no es uno a uno. ii.) Si n < m entonces T no es sobre.

Ejemplo 2.3 

   x x     3 2 Sea T : R → R dada por T  y  = A  y . Donde z z A=

1 2 3 4 5 6

! .

Aquí n = 3 y m = 2, de manera que T no es uno a uno. Para ver esto observemos que     ! −1 2 3     T 2 = = T  −3  . 6 0 4 Es decir, dos vectores diferentes en R3 tienen la misma imagen.

20

CAPÍTULO 2. MATRIZ ASOCIADA A UNA TRANSFORMACIÓN LINEAL

Ejemplo 2.4 Sea T : R2 → R3 dada por T

x y

! =A

x y

!

, donde:   1 2   A =  3 4 . 5 6

En este caso n = 2 y m = 3, por lo que T no es sobre. Para ver esto  debemos encontrar un vector que ! 0 x   no esté en la imagen de T . Un ejemplo de vector así es  0  Esto es, no existe un vector y 1   ! 0 x   2 en R tal que T =  0 . y 1 Vamos a supone que si existe un vector en R2 , tal que   ! 0 x   T =  0 . (2.1) y 1 Es decir:



 1 2    3 4  5 6

x y

!



 0   = 0  1

 ⇒

   x + 2y 0      3x + 4y  =  0  5x + 6y 1

Esto nos lleva a sistema de ecuaciones, el cual es inconsistente. Por tanto nuestra suposición es falsa, es decir no existe un vector en R2 tal que satisfaga (3.1). Por tanto T no es sobre.

Definición 2.3 Sea T : V → W una trasformación lineal. Entonces T es un isomorfismo si T es uno a uno y sobre.

Definición 2.4 Diremos que los espacios vectoriales V y W son isomorfos si existe un isomorfismo T de V sobre W . En este caso lo denotaremos por V ∼ = W.

21

Ejemplo 2.5 Definamos T : R3 → P2 , por T (a, b, c) = a + bx + cx2 . Es claro que T es lineal. Supongamos que T (a, b, c) = 0, entonces a + bx + cx2 = 0, y por tanto a = b = c = 0. Es decir, ker(T ) = {0}, así que T es uno a uno. Por otro lado si p(x) = a0 + a1 x + a2 x2 ∈ P2 , entonces p(x) = T (a0 , a1 , a2 ). Esto significa que T es sobre, así que Im(T ) = P2 . Por tanto R3 ∼ = P2 .

Ejemplo 2.6 Sea V = { f ∈ C1 [0, 1] : f (0) = 0} y W = C1 [0, 1]. Sea T : V → W está dada por T ( f ) = f 0 la derivada usual. Supongamos que T ( f ) = T (g), entonces f 0 = g0 , esto equivale a que ( f − g)0 = 0 y así f (x) − g(x) = c. Pero como f (0) = g(0) = 0, entonces c = 0 y así f = g. Por tanto T es uno a uno. R Por otro lado, sea g ∈ C1 [0, 1], consideremos f (x) = 0x g(t)dt. Entonces por el Teorema fundamental R del calculo, tenemos que T ( f ) = f 0 = g, además observe que f (0) = 00 g(t)dt = 0, esto es f (0) = 0, así que f ∈ V . Luego T es sobre, y así tenemos que V ∼ = W.

Observemos que el ejemplo anterior es un isomorfismo entre espacios vectorial de dimension infinita.

Teorema 2.5 Sea T : V → W un isomorfismo, i.) Si {v1 , . . . , vn } genera a V entonces {T (v1 ), . . . , T (vn )} genera a W . ii.) Si {v1 , . . . , vn } son linealmente independientes en V entonces {T (v1 ), . . . , T (vn )} son linealmente independientes en W . iii.) Si {V1 , . . . , vn } es una base en V entonces {T (v1 ), . . . , T (vn )} es una base en W . iii.) Si V tiene dimensión finito entonces W tiene dimensión finita y dimV = dimW .

Teorema 2.6 Sean V y W dos espacios reales de dimensión finita con dimV = dimW . Entonces V ∼ = W.

22

CAPÍTULO 2. MATRIZ ASOCIADA A UNA TRANSFORMACIÓN LINEAL

2.2

Transformaciones lineales en espacios euclídeos

Consideremos la siguientes trasformación lineal T : Rn → Rm definida por T (x) = Ax, donde A es una matriz real de tamaño m × n. Esta matriz es llamada matriz asociada a la trasformación lineal T , el cual describe completamente a la trasformación T . Ejemplo 2.7 La trasformación lineal T : R5 → R3 , definida por las ecuaciones    y1 = 2x1 +3x2 +5x3 +7x4 −9x5 , y2 = 3x2 4x3 +2x5 ,   y = x +3x3 −2x4 , 3 1 puede ser expresado en forma matricial como  







y1 2 3 5 7 −9       2   y2  =  0 3 4 0   y3 1 0 3 −2 0

x1 x2 x3 x4 x5

      

Si (x1 , x2 , x3 , x4 , x5 ) = (1, 0, 1, 0, 1), entonces  

   y1 2 3 5 7 −9       2   y2  =  0 3 4 0   y3 1 0 3 −2 0

1 0 1 0 1

    −2      =  6 ,   4

Así T (1, 0, 1, 0, 1) = (−2, 6, 4).

Ejemplo 2.8 Supongamos que A es la matriz cero de tamaño m × n. Trasformación lineal T : Rn → Rm donde T (x) = Ax para cada x ∈ Rn , es la trasformación cero de Rn hacia Rm . Claramente T (x) = 0 para cualquier x ∈ Rn .

23

Ejemplo 2.9 Supongamos que I es la matriz identidad de tamaño de n×n. El operador lineal T : Rn → Rn , donde T (x) = Ix para cada x ∈ Rn , es el operador identidad en Rn . Claramente T (x) = x para cualquier x ∈ Rn .

Proposición 2.2 Supongamos que T : Rn → Rm es una trasformación lineal, y que {e1 , . . . , en } es la base canónica para Rn . Entonces la matriz asociada a T está dada por A=



T (e1 ) · · · T (en )



,

donde T (e j ) es una matriz columna para cada j = 1, . . . , n.

2.3

Matrices Asociadas a la rotación, proyección y Reflexión

En esta sección, consideramos el caso especial cuando n = m = 2, y estudiaremos operadores lineal en R2 . Para cualquier x ∈ R2 , escribiremos x = (x1 , x2 ). 2.3.1

Rotación

Ejemplo 2.10 La rotación en sentido contrario a las manecillas del reloj por un ángulo θ, tenemos el operador rotación T (x1 , x2 ) = (y1 , y2 ), donde y1 + iy2 = (x1 + ix2 )(cos θ + i sin θ), y así y1 y2

! =

cos θ − sin θ sin θ cos θ

!

x1 x2

!

De esto se sigue que la matriz asociada al operador rotación T es: ! cos θ − sin θ A= sin θ cos θ

En resumen, tenemos:

.

24

CAPÍTULO 2. MATRIZ ASOCIADA A UNA TRANSFORMACIÓN LINEAL Operador lineal

Ecuaciones (

Rotación antihoraria por un ángulo θ

2.3.2

y1 = x1 cos θ − x2 sin θ y2 = x1 sin θ + x2 cos θ

Matriz asociada ! cos θ − sin θ sin θ cos θ

Proyección

Ejemplo 2.11 Para una proyección ortogonal sobre el eje x1 , tenemos T (x1 , x2 ) = (x1 , 0), con matriz de asociada ! 1 0 A= . 0 0

Similarmente, la matriz asociada a la proyección ortogonal sobre el eje x2 es dada por A=

0 0 0 1

! .

En resumen, tenemos: Operador lineal Proyección ortogonal sobre el eje x1 Proyección ortogonal sobre el eje x2

Ecuaciones ( y1 = x1 y = 0 ( 2 y1 = 0 y2 = x2

Matriz Asociada ! 1 0 0 0 ! 0 0 0 1

En general, tenemos:

Teorema 2.7 La recta y = ax es el conjunto de puntos (x, ax) ∈ R2 , donde x varia en R. Si consideremos el operador P : R2 → R2 que cada vector v = (x, y) ∈ R2 le asigna un vector P(v) = (x0 , ax0 ), cuyo extremo es el pie de la perpendicular bajada de v sobre la recta y = ax. Entonces la matriz asociada a este operador es   1 a 2  1 + a2  . A =  1+a a a2  1 + a2 1 + a2 Este operador es llamador operador proyección.

25 2.3.3

Reflexión

Ejemplo 2.12 Consideremos la reflexión a través del eje x2 , así que T (x1 , x2 ) = (−x1 , x2 ). Claramente tenemos ! ! −1 0 T (e1 ) = y T (e2 ) = , 0 1 y así de la Proposición 2.2 tenemos que la matriz asociada a T es: ! −1 0 A= . 0 1

Análogamente las matrices asociadas a la reflexión a través del eje x1 y a través de la line x1 = x2 son ! ! 1 0 0 1 A= y A= , 0 −1 1 0 respectivamente. También la matriz asociada a la reflexión a través del origen está dado por

A=

−1 0 0 −1

! .

En resumen tenemos: Operador Lineal

Ecuaciones (

y1 = −x1 y2 = x2

(

y1 = x1 y2 = −x2

Reflexión a través del eje x2 Reflexión a través del eje x1 ( Reflexión a través de la linea x1 = x2 ( Reflexión a través del origen

En general, tenemos:

y1 = x2 y2 = x1 y1 = −x1 y2 = −x2

Matriz asociada ! −1 0 0 1 ! 1 0 0 −1 ! 0 1 1 0 ! −1 0 0 −1

26

CAPÍTULO 2. MATRIZ ASOCIADA A UNA TRANSFORMACIÓN LINEAL

Teorema 2.8 Si S : R2 → R2 es la reflexión respecto a la recta y = ax entonces la matriz asociada a este operador lineal es   1 − a2 2a 2  1 + a2  A =  1+a . a2 − 1 2a 1 + a2 1 + a2

2.4

Matriz asociada a transformaciones lineal generales

Supongamos que T : V → W es una trasformación lineal desde un espacio vectorial real V hacia un espacio vectorial real W . Supongamos además que los espacios vectoriales V y W son finitos dimensionales, con dimV = n y dimV = m. Mostraremos que si hacemos uso de una base B de V y una base C de W , entonces es posible describir T indirectamente en términos de alguna matriz A. La idea principal es hacer uso de matrices coordenadas relativa a las bases B y C . Supongamos que B = {v1 , . . . , vn } es una base de V . Entonces cualquier vector v ∈ V puede ser únicamente determinado como una combinación lineal v = β1 v1 + . . . + βn vn , donde β1 , . . . , βn ∈ R. La matriz



B1

(2.2)



  [v]B =  ... 

(2.3)

Bn es la matriz de coordenadas de v relativa a la base B . Consideremos ahora una trasformación φ : V → Rn , donde φ(v) = [v]B para cada v ∈ V . Teorema 2.9 Supongamos que el espacio vectorial real V tiene base B = {v1 , . . . , vn }. Entonces la transformación φ : V . . . Rn , donde φ(v) = [v]B satisface (3.2) y (3.3) para cada v ∈ V , es una transformación lineal uno a uno, con imagen Im(φ) = Rn . Además, la trasformación lineal inversa φ−1 : Rn → V es también uno a uno, con imagen Im(φ−1 ) = V . Supongamos que C = {w1 , . . . , wm } es una base de W . Entonces definamos una trasformación lineal ψ : W → Rm , donde ψ(w) = [w]C para cada w ∈ W . Ahora tenemos el siguiente diagrama de trasformaciones lineales. T

VO φ−1



φ

Rn

/W O ψ−1



ψ

Rm

27 Claramente la composición S = ψ ◦ T ◦ φ−1 : Rn → Rm es una transformación lineal en espacios euclídeos, y podemos por tanto describir en terminas de su matriz asociada A. Nuestra tarea es determinar esta matriz A en términos de T y la base B y C . Conocemos de la Proposición 2.2 que A=



S(e1 ) · · · S(en ),



donde {e1 , . . . , en } es la base canónica de Rn . Para cualquier j = 1, . . . , n, tenemos S(e j ) = (ψ ◦ T ◦ φ−1 )(e j ) = ψ(T (φ−1 (e j ))) = ψ(T (v j )) = [T (v j )]C . De esto se sigue que A=



[T (v1 )]C

. . . [T (vn )]C .



(2.4)

Definición 2.5 La matriz A dada en (3.4) es llamada matriz asociada a la trasformación lineal T con respecto a las bases B y C . Ahora tenemos el siguientes diagram de trasformaciones lineales.

φ−1



/W O

T

VO

ψ−1

φ

Rn

S



ψ

/ Rm

Por tanto podemos escribir T como la composición T = ψ−1 ◦ S ◦ φ : V → W. Para cualquier v ∈ V , tenemos la siguiente secuencia: φ

v

/ [v]B

S

/ A[v]B

ψ−1

/ ψ−1 (A[v]B ) .

Mas precisamente, si v = β1 v1 + . . . + βn vn , entonces 

  β1    [v]B =  ...  y A[v]B = A  βn

  β1 ..  =  .  

 γ1 ..  , . 

βn

γm

así T (v) = ψ−1 (A[v]B ) = γ1 w1 + . . . + γm wm . Esto prueba el siguiente resultado:

28

CAPÍTULO 2. MATRIZ ASOCIADA A UNA TRANSFORMACIÓN LINEAL

Teorema 2.10 Supongamos que T : V → W es una trasformación lineal de un espacio vectorial real V hacia un espacio vectorial real W . Supongamos que V y W son finitos dimensionales, con base B y C respectivamente, y que A es la matriz asociada a la trasformación T respecto a las bases B y C . Entonces para cada v ∈ V , tenemos T (v) = w, donde w ∈ W es el único vector satisfaciendo [w]C = A[v]B .

Ejemplo 2.13 Consideremos el operador T : P3 → P3 en el espacio vectorial real P3 de todos los polinomios con coeficientes reales y de grado a los mas 3, donde para cada polinomio p(x) ∈ P3 , tenemos T (p(x)) = xp0 (x) el producto de x con la derivada usual. Es claro que el operador T es lineal. Ahora consideremos la base B = {1, x, x2 , x3 } de P3 . La matriz para T respecto a la base B es dada por   0 0 0 0      0 1 0 0    2 3 2 3 A = [T (1)]B [T (x)]B [T (x )]B [T (x )]B = [0]B [x]B [2x ]B [3x ]B =  .  0 0 2 0  0 0 0 3 Supongamos que p(x) = 1 + 2x + 4x2 + 3x3 . Entonces    1 0  2   0    [p(x)]B =   y A[p(x)]B =   4   0 3 0

0 1 0 0

0 0 2 0

0 0 0 3

    

1 2 4 3





    =  

0 2 8 9

   , 

así que T (p(x)) = 2x + 8x2 + 9x3 . Esto puede fácilmente verificarse notando que T (p(x)) = xp0 (x) = x(2 + 8x + 9x2 ) = 2x + 8x2 + 9x3 .

Ejemplo 2.14 Consideremos el operador lineal T : R2 → R2 , dado por T (x1 , x2 ) = (2x1 + x2 , x1 + 3x2 ) para cada (x1 , x2 ) ∈ R2 . Consideremos también la base B = {(1, 0), (1, 1)} de R2 . Entonces la matriz para T con respecto a B es dada por !     1 −1 A = [T (1, 0)]B [T (1, 1)]B = [(2, 1)]B [(3, 4)]B = . 1 4

29 Supongamos ahora que T1 : V → W y T2 : W → U son transformaciones lineales, donde los espacios vectoriales reales V,W,U son de dimensión finita, con bases B = {v1 , . . . , vn }, C = {w1 , . . . , wm } y D = {u1 , . . . , uk } respectivamente. Entonces tenemos el siguiente diagrama de trasformaciones lineales.

T1

VO φ−1



ψ−1

φ

Rn

/W O

S1



ψ

/ Rm

T2

/U O

η−1 S2



η

/ Rk

Aquí η : U → Rk , donde η(u) = [u]D para cada u ∈ U, es una transformación lineal, y

S1 = ψ ◦ T1 ◦ φ−1 : Rn → Rm

y

S2 = η ◦ T2 ◦ ψ−1 : Rm → Rk

son transformaciones lineales euclídeas. Supongamos que A1 y A2 son respectivamente las matrices asociadas para S1 y S2 , así que existe respectivamente la matriz para T1 respecto a B y C y la matriz para T2 respecto a C y D . Claramente

S2 ◦ S1 = η ◦ T1 ◦ T2 ◦ φ−1 : Rn → Rk .

De esto se sigue que A2 A1 es la matriz asociada para S2 ◦ S1 , y así es la matriz para T2 ◦ T1 con respecto a las bases B y D . Así tenemos el siguiente resultado:

Teorema 2.11 Supongamos que T1 : V → W y T2 : W → U son trasformaciones lineales, donde los espacios vectoriales reales V,W,U son de dimensión finita, con bases B , C , D respectivamente. Supongamos además que A1 es la matriz para la trasformación lineal T1 con respecto a las bases B y C , y que A2 es la matriz para transformación lineal T2 con respecto a las bases C y D . Entonces A2 A1 es la matriz asociada para la trasformación lineal T2 ◦ T1 respecto a las bases B y D .

30

CAPÍTULO 2. MATRIZ ASOCIADA A UNA TRANSFORMACIÓN LINEAL

Ejemplo 2.15 Consideremos el operador lineal T1 : P3 → P3 , donde para cada polinomio p(x) ∈ P3 tenemos T1 (p(x)) = xp0 (x). Ya sabemos que la matriz asociada a T1 respecto a la base B = {1, x, x2 , x3 } de P3 está dada por   0 0 0 0  0 1 0 0    A1 =  .  0 0 2 0  0 0 0 3 Consideremos el siguiente operador lineal T2 : P3 → P3 , donde para cada polinomio q(x) = q0 + q1 x + q2 x2 + q3 x3 en P3 , tenemos T2 (q(x)) = q(1 + x) = q0 + q1 (1 + x) + q2 (1 + x)2 + q3 (1 + x)3 . Tenemos T2 (1) = 1, T2 (x) = 1 + x, T2 (x2 ) = 1 + 2x + x2 y T2 (x3 ) = 1 + 3x + 32 + x3 , así que la matriz asociada a T2 respecto a la base B es dada por   1 1 1 1    0 1 2 3    A2 = [T2 (1)]B [T2 (x)]B [T2 (x2 )]B [T2 (x3 )]B =  .  0 0 1 3  0 0 0 1 Consideremos ahora la composición T = T2 ◦ T1 : P3 → P3 . Sea A la matriz asociada a T respecto a

B por el Teorema 2.11, tenemos    A = A2 A1 =  

1 0 0 0

1 1 0 0

1 2 1 0

1 3 3 1

    

0 0 0 0

0 1 0 0

0 0 2 0

0 0 0 3





    =  

Supongamos que p(x) = p0 + p1 x + p2 x2 + p3 x3 . Entonces     0 1 2 3 p0  0 1 4 9   p   1    [p(x)]B =   y A[p(x)]B =    0 0 2 9   p2  0 0 0 3 p3

p0 p1 p2 p3



0 0 0 0

1 1 0 0



    =  

2 4 2 0

3 9 9 3

   . 

p1 + 2p2 + 3p3 p1 + 4p2 + 9p3 2p2 + 9p3 3p3

así que T (p(x)) = (p1 + 2p2 + 3p3 ) + (p1 + 4p2 + 9p3 )x + (2p2 + 9p3 )x2 + 3p3 x3 .

    

31

Ejemplo 2.16 Consideremos el operador lineal T : R2 → R2 , dado por T (x1 , x2 ) = (2x1 + x2 , x1 + 3x2 ), para cualquier (x1 , x2 ) ∈ R2 . La matriz asociada a este operador T respecto a la base B = {(1, 0), (1, 1)} está dado por ! 1 −1 A= . 1 4 Ahora consideremos el operador T 2 : R2 → R2 . Por el Teorema 2.11, la matriz asociada a T 2 respecto a la base B está dada por ! ! ! 1 −1 1 −1 0 −5 A2 = = . 1 4 1 4 5 15 Supongamos que (x1 , x2 ) ∈ R2 . Entonces ! x1 − x2 [(x1 , x2 )]B = y A2 [(x1 , x2 )]B = x2

0 5 5 15

!

x1 − x2 x2

! =

−5x2 5x1 + 10x2

! ,

así que T 2 (x1 , x2 ) = −5x2 (1, 0) + (5x1 + 10x2 )(1, 1) = (5x1 + 5x2 , 5x1 + 10x2 ).

Teorema 2.12 Supongamos que T : V → V es un operador lineal en un espacio vectorial real V finito dimensional con base B . Supongamos además que A es la matriz asociada a este operador T con respecto a base B . Entonces T es uno a uno si y solo si A es invertible. Además, si T es uno a uno, entonces A−1 es la matriz asociada al operador lineal inverso T −1 : V → V con respecto a la base B .

Ejemplo 2.1 Consideremos el operador lineal T : P3 → P3 , donde para cada q(x) = q0 + q1 x + q2 x2 + q3 x3 en P3 , tenemos T (q(x)) = q(1 + x) = q0 + q1 (1 + x) + q2 (1 + x)2 + q3 (1 + x)3 . Ya se conoce que la matriz asociada a T respecto a la base B = {1, x, x2 , x3 } es dada por    A= 

1 0 0 0

1 1 0 0

1 2 1 0

1 3 3 1

   . 

32

CAPÍTULO 2. MATRIZ ASOCIADA A UNA TRANSFORMACIÓN LINEAL

La matriz es invertible, así que T es uno a uno. Además, se puede verificar que  −1

A

  = 

1 −1 1 −1 0 1 −2 3 0 0 1 −3 0 0 0 1

   . 

Supongamos que p(x) = p0 + p1 x + p2 x2 + p3 x3 . Entonces    [p(x)]B y A−1 [p(x)]B =  

1 −1 1 −1 0 1 −2 3 0 0 1 −3 0 0 0 1

    

p0 p1 p2 p3





    =  

p0 − p1 + p2 − p3 p1 − 2p2 + 3p3 p2 − 3p3 p3

    

Así que T −1 (p(x)) = (p0 − p1 + p2 − p3 ) + (p1 − 2p2 + 3p3 )x + (p2 − 3p3 )x2 + p3 x3 = p0 + p1 (x − 1) + p2 (x2 − 2x + 1) + p3 (x3 − 3x2 + 3x − 1) = p0 + p1 (x − 1) + p2 (x − 1)2 + p3 (x − 1)3 = p(x − 1).

2.5

Cambios de bases

Supongamos que V es un espacio vectorial real finito dimensional, con una base B = {v1 , . . . , vn } y otra base B 0 = {u1 , . . . , un }. Supongamos que T : V → V es un operador lineal en V . Sea A la matriz asociada a T respecto a la base B , y sea A0 la matriz asociada a T respecto a base B 0 . Si v ∈ V y T (v) = w, entonces [w]B = A[v]B (2.5) y [w]B 0 = A0 [v]B 0 .

(2.6)

Queremos hallar la relación que existe entre A0 y A. Sabemos que podemos hallar la matriz de cambio de la base B 0 a la base B , que es:   P = [u1 ]B . . . [un ]B . Entonces [v]B = P[v]B 0 y [w]B = P[w]B 0 .

(2.7)

Notemos que la matriz P puede también interpretarse como la matriz para el operador identidad I : V → V con respecto a las bases B 0 y B . Además la matriz P es invertible, y P−1 =



[v1 ]B 0

. . . [vn ]B 0



33 denota la matriz de cambio de la base B a la base B 0 , y puede también interpretarse como la matriz asociada al operador identidad I : V → V con respecto a las bases B y B 0 . Combinando (3.5) y (2.7), concluimos que [w]B 0 = P−1 [w]B = P−1 A[v]B = P−1 AP[v]B 0 . Comparando esto con (3.6), concluimos que P−1 AP = A0 .

(2.8)

A = PA0 P−1 .

(2.9)

Esto implica que

Recordar. Podemos usar la notación A0 = [T ]B 0

y

A = [T ]B

para denotar que A y A0 son las matrices asociadas a T respecto a la base B y a la base B0 respectivamente. Podemos también escribir P = [I]B ,B 0 para denotar que P es la matriz de cambio de la base B 0 a la base B , así que P−1 = [I]B 0 ,B . De (2.8) y (2.9) podemos escribirlo de las siguiente manera: [I]B 0 ,B [T ]B [I]B ,B 0 = [T ]B 0 y [I]B ,B 0 [T ]B 0 [I]B 0 ,B = [T ]B . Así tenemos probado el siguiente resultado.

Teorema 2.13 Supongamos que T : V → V es un operador lineal en un espacio vectorial real V finito dimensional, con bases B = {v1 , . . . , vn } y B 0 = {u1 , . . . , un }. Supongamos que A y A0 son matrices asociadas a T respecto a la base B y respecto a la base B 0 respectivamente. Entonces P−1 AP = A0 donde P=



[u1 ]B

y

A0 = PAP−1 ,

. . . [un ]B

denota la matriz de cambio de la base B 0 a la base B .



34

CAPÍTULO 2. MATRIZ ASOCIADA A UNA TRANSFORMACIÓN LINEAL

Recordar. Tenemos el siguiente diagrama T

;v

/w

I

I

v

$/

T

A0

[v]B 0 P

"

[v]B

A

w

/ [w]B 0 < / [w]B

P−1

Ejemplo 2.2 Consideremos el espacio vectorial P3 de todos los polinomios con coeficientes reales y de grado a lo mas 3, con base B = {1, x, x2 , x3 } y B 0 = {1, 1 + x, 1 + x + x2 , 1 + x + x2 + x3 }. Consideremos también el operador T : P3 → P3 , donde para cada polinomio p(x) = p0 + p1 x + p2 x2 + p3 x3 , tenemos T (p(x)) = (p0 + p1 ) + (p1 + p2 )x + (p2 + p3 )x2 + (p3 + p0 )x3 . Sea A la matriz asociada a T respecto a la base B . Entonces T (1) = 1 + x3 , T (x) = 1 + x, T (x2 ) = x + x2 y T (x3 ) = x2 + x3 , y así   1 1 0 0    0 1 1 0    A = [T (1)]B [T (x)]B [T (x2 )]B [T (x3 )]B =  .  0 0 1 1  1 0 0 1 Notemos que la matriz de cambio de la base B 0 a la base B está dada por  P=



[1]B

[1 + x]B

[1 + x + x2 ]B

[1 + x + x2 + x3 ]B



  = 

Puede verificarse que    P−1 =  

1 −1 0 0 0 1 −1 0 0 0 1 −1 0 0 0 1

   , 

y así    A0 = P−1 AP =   es la matriz para T respecto a la base B 0 .

1 1 0 0 1 1 −1 −1 0 1 1 1

0 0 0 2

    

1 0 0 0

1 1 0 0

1 1 1 0

1 1 1 1

   . 
Alg.Lin. Mod2 - Material 2 Matriz asociada a una Transformación Lineal

Related documents

32 Pages • 6,333 Words • PDF • 881.6 KB

5 Pages • 1,254 Words • PDF • 72.6 KB

61 Pages • 6,811 Words • PDF • 310.3 KB

155 Pages • 11,187 Words • PDF • 5.8 MB

2 Pages • 541 Words • PDF • 239.4 KB

53 Pages • 13,391 Words • PDF • 1 MB

51 Pages • 10,544 Words • PDF • 787.5 KB

3 Pages • 50 Words • PDF • 323.9 KB