parte ii - ma.uva.esantonio/industriales/apuntes_09-10/mati/apun_09-10... · un subconjunto w de un...

43
40 – Matem´ aticas I Parte II ´ Algebra Lineal Prof: Jos´ e Antonio Abia Vian I.T.I. en Electricidad

Upload: nguyenkhuong

Post on 20-Oct-2018

220 views

Category:

Documents


0 download

TRANSCRIPT

40 – Matematicas I

Parte II

Algebra Lineal

Prof: Jose Antonio Abia Vian I.T.I. en Electricidad

41 – Matematicas I : Algebra Lineal

Tema 4

Espacios vectoriales reales

4.1 Espacios vectoriales

Definicion 88.- Un espacio vectorial real V es un conjunto de elementos denominados vectores, junto condos operaciones, una que recibe el nombre de “suma de vectores” y otra que recibe el nombre de “producto devectores por numeros reales” o “producto por escalares”, que verifican las siguientes propiedades:

(1) u + v ∈ V ; ∀ u , v ∈ V .

(2) u + v = v + u ; ∀ u , v ∈ V .

(3) u + (v + w ) = (u + v ) + w ; ∀ u , v , w ∈ V .

(4) Existe un vector, llamado vector cero y denotado por 0 , tal que: 0 + u = u + 0 = u ; ∀ u ∈ V .

(5) Para cada u ∈ V , existe un vector de V , llamado opuesto de u y denotado por −u , tal queu + (−u) = 0 .

(6) ku ∈ V ; ∀ k ∈ IR y ∀ u ∈ V .

(7) k(u + v ) = ku + kv ; ∀ k ∈ IR y ∀ u , v ∈ V .

(8) (k + l)u = ku + lu ; ∀ k, l ∈ IR y ∀ u ∈ V .

(9) (kl)u = k(lu); ∀ k, l ∈ IR y ∀ u ∈ V .

(10) 1u = u ; ∀ u ∈ V .

Por ser los escalares de IR , se dice que V es un IR-espacio vectorial. Se pueden considerar espacios vectorialessobre otros cuerpos de escalares, como C .

Ejemplo Los conjuntos IRn , los conjuntos de polinomios Pn[X] = {P (X) ∈ IR[X] : gr(P ) ≤ n} y los conjuntosde matrices reales Mm×n = {matrices de tamano m×n} , con las operaciones usuales en cada uno de ellos, sonespacios vectoriales reales.

Propiedades 89.- Algunas propiedades que se deducen de las anteriores son:

(i) 0u = 0 . (ii) k0 = 0 . (iii) (−1)u = −u .

(iv) ku = 0 ⇐⇒ k = 0 o u = 0 .

(v) El vector cero de un espacio vectorial es unico.

(vi) El vector opuesto de cada vector del espacio vectorial es unico. .

4.2 Subespacios vectoriales

Definicion 90.- Un subconjunto W de un espacio vectorial V se dice que es un subespacio vectorial de V ,si W es un espacio vectorial con las operaciones definidas en V .

Como W ⊆ V , todos los vectores de W verifican las propiedades 2 a 5 y 7 a 10, por tanto es suficienteprobar que las operaciones suma y producto por escalares son internas en W , es decir, que se verifican laspropiedades (1) y (6) en W :

(1∗ ) u + v ∈ W ; ∀ u , v ∈ W (6∗ ) ku ∈ W ; ∀ u ∈ W y ∀ k ∈ IR

Prof: Jose Antonio Abia Vian I.T.I. en Electricidad

42 – Matematicas I : Algebra Lineal 4.3 Base y dimension

Estas dos propiedades son equivalentes a la propiedad unica:ku + lv ∈ W ; ∀ u , v ∈ W y ∀ k, l ∈ IR.

Nota: Es claro, que si W es un subespacio de V , entonces 0 ∈ W .

Ejemplo P2[X] es un subespacio de P4[X] , pues es un subconjunto suyo y si P (X), Q(X) ∈ P2[X] , el grado dekP (X) + lQ(X) es gr(kP + lQ) = max{gr(kP ), gr(lQ)} ≤ max{gr(P ), gr(Q)} ≤ 2, por lo que esta en P2[X] .

Sin embargo, {P (X) : gr(P ) = 2} no es un subespacio de P4[X] , por dos razones: primero, porque no contieneal polinomio cero; y segundo, no verifica la propiedad (1∗) ya que X2 y 2X − X2 son polinomios del conjuntopero su suma X2 + (2X− X2) = 2X es un polinomio de grado 1 que no esta en el conjunto. 4Definicion 91.- Se dice que un vector v ∈ V es una combinacion lineal de los vectores v1 , v2 , . . . , vn si,y solo si, ∃ c1, c2, . . . , cn ∈ IR tales que v = c1v1 + c2v2 + · · ·+ cn vn .

Definicion 92.- Dado un conjunto de vectores S = {v1 , v2 , . . . , vk } de un espacio vectorial V , llamaremossubespacio lineal generado por S y que denotaremos por lin S o lin{v1 , v2 , . . . , vk } , al conjunto detodas las combinaciones lineales que se pueden formar con los vectores de S :

lin S = lin{v1 , v2 , . . . , vk } ={

c1 v1 + c2v2 + · · ·+ ck vk : ∀ ci ∈ IR}

y se dira que S genera lin S o que v1 , v2 , . . . , vk generan lin S .

Naturalmente linS es un subespacio vectorial de V y, de hecho, es el mas pequeno que contiene a losvectores de S (ver ejercicio 4.6).

Definicion 93.- Dado un conjunto S = {v1 , v2 , . . . , vk } de vectores del espacio vectorial V , la ecuacionvectorial c1 v1 + c2v2 + · · ·+ ck vk = 0 tiene al menos una solucion, a saber: c1 = c2 = · · · = ck = 0. Si estasolucion es unica, entonces se dice que S es un conjunto linealmente independiente (o que los vectoresde S son linealmente independientes). Si existen otras soluciones, entonces se dice que S es linealmentedependiente (los vectores son linealmente dependientes).

Ejemplo El vector 2X− X2 de P2[X] esta generado por los vectores X− 1 y X2 − 2:

2X− X2 = λ(X− 1) + µ(X2 − 2) = λX− λ + µX2 − 2µ = (−λ− 2µ) + λX + µX2 =⇒−λ− 2µ = 0

λ = 2µ =−1

luego 2X− X2 = 2(X− 1) + (−1)(X2 − 2).

Ejemplo Los polinomios X + 2 y X2 de P2[X] son linealmente independientes: si λ(X + 2) + µX2 = 0 (alpolinomio cero), se tiene que 0 = λ(X + 2) + µX2 = 2λ + λX + µX2 =⇒ 2λ = 0, λ = 0 y µ = 0, ya que loscoeficientes de ambos polinomios deben coincidir. 4

Nota: Si los vectores {v1 , v2 , . . . , vk } son linealmente dependientes, al menos uno de ellos se puede escribircomo una combinacion lineal de los restantes; y si son linealmente independientes ninguno de ellos puede sergenerado por los restantes. Es decir, se tiene la siguiente caracterizacion para que un conjunto de dos o masvectores sea linealmente dependiente (ver ejercicio 4.7):

“Un conjunto de dos o mas vectores es linealmente dependiente si, y solo si, al menos unode los vectores es una combinacion lineal de los restantes.”

4.3 Base y dimension

Lema 94.- Si vn+1 = c1v1 + · · ·+ cn vn , entonces lin{v1 , . . . , vn , vn+1} = lin{v1 , . . . , vn } .

Es facil asumir que este resultado es cierto, ya que cualquier combinacion lineal de los n + 1 vectores puedereconvertirse a una combinacion lineal de los n primeros, por simple sustitucion. En otras palabras, puedereducirse el numero de generadores mientras haya dependencia lineal, lo que nos lleva a:

Definicion 95.- Sean V un espacio vectorial y S un conjunto finito de vectores de V . Diremos que S es unabase de V si:

a) S es linealmente independiente y b) S genera a V

Prof: Jose Antonio Abia Vian I.T.I. en Electricidad

43 – Matematicas I : Algebra Lineal 4.3 Base y dimension

Observacion: El comentario anterior a esta definicion nos indica la manera de reducir un conjunto generadordel espacio a una base.

Igualmente, podemos construir una base a partir de un conjunto linealmente independiente de vectores: siS es linealmente independiente y linS 6= V , tomando v ∈ V pero que v /∈ lin S , el conjunto S ∪ {v} eslinealmente independiente (ver el Lema 96 siguiente); y ası, se anaden vectores a S hasta generar V .

Lema 96.- Si S es un conjunto linealmente independiente de vectores de V y v ∈ V−lin S , entonces S∪{v}es linealmente independiente. .

De cierta forma, estamos diciendo que una base tiene el menor numero posible de generadores y el mayornumero posible de vectores linealmente independientes (ver Lema 97 siguiente); luego ¿no tendra una base unnumero fijo de vectores? La respuesta la proporciona el Teorema de la base.

Lema 97.- Sean V un espacio vectorial y B una base de V formada por n vectores. Entonces cualquierconjunto {v1 , v2 , . . . , vm} de vectores de V, con m > n , es linealmente dependiente. .

Teorema de la base 98.- Cualesquiera dos bases de un espacio vectorial tienen el mismo numero de elementos.

Demostracion:La demostracion es muy sencilla si tenemos en cuenta el Lema anterior, pues si B1 es una base de n elementosy B2 es una base de m elementos, por ser B1 base y B2 linealmente independiente, m 6> n y por ser B2 basey B1 linealmente independiente n 6> m , luego n = m .

Definicion 99.- Un espacio vectorial V se dice de dimension finita si tiene un conjunto finito de vectoresque forman una base, y llamaremos dimension de V , dim V , al numero de vectores de cualquier base de V .

Al espacio vectorial V = {0} le consideramos de dimension finita, de dimension cero, aun cuando no tieneconjuntos linealmente independientes.

Si no existe un conjunto finito de este tipo, se dice que V es de dimension infinita (y no nos son ajenos puesIR[X] es un espacio vectorial de dimension infinita).

Ejemplo P2[X] = {P (X) ∈ IR[X] : gr(P ) ≤ 2} tiene dimension 3, pues B = {1, X, X2} forman una base. Engeneral, dim(Pn[X]) = n + 1 y B = {1, X, . . . , Xn} es una base suya.

Ejemplo 100 Los conjuntos IRn = IR× IR×· · ·× IR = {(x1, . . . , xn) : xi ∈ IR, ∀ i} con las operacioneshabituales de suma y producto por escalares

x + y = (x1, . . . , xn) + (y1, . . . , yn) = (x1 + y1, . . . , xn + yn)λx = λ(x1, . . . , xn) = (λx1, . . . , λxn)

son espacios vectoriales con dim IRn = n , ya que cualquier vector x ∈ IRn puede escribirse de la formax = (x1, x2, . . . , xn) = x1(1, 0, . . . , 0) + x2(0, 1, . . . , 0) + · · ·+ xn(0, 0, . . . , 1)

y este conjunto de vectores

B ={

e1 = (1, 0, . . . , 0), e2 = (0, 1, . . . , 0), . . . , en = (0, 0, . . . , 1)}

es linealmente independiente. A esta base se la denomina base canonica de IRn . 4Conocer a priori la dimension de un espacio facilita la obtencion de bases:

Proposicion 101.- Si V es un espacio vectorial, con dim V = n . Entonces, un conjunto de n vectores de Ves base de V ,

a) si el conjunto es linealmente independiente, o b) si genera a V . .

4.3.1 Coordenadas en una base

Definicion 102.- Sean V un espacio vectorial de dimension finita y B = {v1 , v2 , . . . , vn } una base de V .Para cada vector v ∈ V , se llaman coordenadas de v en la base B a los n unicos numeros realesc1, c2, . . . , cn tales que v = c1v1 + c2v2 + · · ·+ cn vn .

Fijando un orden para los vectores de la base, el vector de IRn , de las coordenadas de v en B se denotapor (v )B = (c1, c2, . . . , cn) y mas usualmente por [v ]B cuando lo escribimos como vector columna en lasoperaciones con matrices: [v ]B = (c1, c2, . . . , cn)t .

Prof: Jose Antonio Abia Vian I.T.I. en Electricidad

44 – Matematicas I : Algebra Lineal 4.3 Base y dimension

Ejemplo Si B = {v1 , v2 , v3 } es una base de V y v = v1 − v2 + 2v3 , se tiene que(v )B = (1,−1, 2) (v1 )B = (1, 0, 0) (v2 )B = (0, 1, 0) (v3 )B = (0, 0, 1)

o tambien

[v]B =

1−12

[v1]B =

100

[v2]B =

010

[v3]B =

001

4

Nota: Al usar vectores de coordenadas, es imprescindible mantener el orden de los vectores. Si, en el ejemploanterior, tomamos como base B1 = {v2 , v3 , v1 } , tenemos que (v )B1 = (−1, 2, 1) que es un vector decoordenadas distinto de (v )B = (1,−1, 2).

Fijada una base, la unicidad de las coordenadas asigna a cada vector de V un unico vector de IRn , de maneraque disponer de las coordenadas es, en el fondo, disponer del vector. Ademas, se cumple (ver ejercicio 4.14):

[v +w ]B = [v ]B + [w ]B y [λv ]B = λ[v ]B , luego [λ1v1 +· · ·+λn vn ]B = λ1[v1 ]B + · · ·+ λn[vn ]B

y con esto, no es dificil probar que:

v ∈ lin{v1, . . . , vk} ⊆ V ⇐⇒ [v]B ∈ lin{[v1]B , . . . , [vk]B} ⊆ IRn

{v1, . . . , vk} lin. independiente en V ⇐⇒{[v1]B , . . . , [vk]B} lin. independiente en IRn

{v1, . . . , vn} base de V ⇐⇒{[v1]B , . . . , [vn]B} base de IRn

por lo que se puede trabajar sobre las coordenadas en lugar de sobre los vectores.

4.3.2 Espacios de las filas y las columnas de una matriz

De lo anterior, tenemos que independientemente del espacio vectorial en que nos encontremos, fijada una base,podemos trasladar todo el trabajo operativo sobre los vectores de IRn ; por lo que resulta muy interesanteconocer esta seccion.

Definicion 103.- Consideremos la matriz Am×n =

a11 a12 . . . a1n

a21 a22 . . . a2n

...... . . .

...am1 am2 . . . amn

.

Los m vectores de IRn : r1 = (a11, . . . , a1n), r2 = (a21, . . . , a2n), . . . , rm = (am1, . . . , amn), se denominanvectores fila de A y al subespacio lineal generado por ellos, Ef (A) = lin{r1 , r2 , . . . , rm} , espacio de lasfilas de A . Por supuesto Ef (A) ⊆ IRn .Los n vectores de IRm : c1 = (a11, . . . , am1), c2 = (a12, . . . , am2), . . . , cn = (a1n, . . . , amn), se denominanvectores columna de A y el subespacio lineal generado por ellos, Ec(A) = lin{c1 , c2 , . . . , cn } , espacio delas columnas de A . Por supuesto Ec(A) ⊆ IRm .

Proposicion 104.- Si A es una matriz de tamano m×n , entonces las operaciones elementales sobre las filas(resp. columnas) de A no cambian el espacio de las filas (resp. columnas) de A .

Demostracion:Puesto que hacer operaciones elementales sobre las filas es hacer combinaciones lineales de los vectores fila, elsubespacio lineal generado es el mismo. (Igual para las columnas.)

Corolario 105.- Sea A una matriz, entonces:

a) Los vectores no nulos de una forma escalonada de la matriz A , forman una base de Ef (A).

b) Los vectores no nulos de una forma escalonada de la matriz At , forman una base de Ec(A).

Demostracion:Basta probar que los vectores no nulos de una forma escalonada son linealmente independientes, pero eso secomprueba facilmente ya que debajo de cada elemento principal solo hay ceros.

Prof: Jose Antonio Abia Vian I.T.I. en Electricidad

45 – Matematicas I : Algebra Lineal 4.4 Cambios de base

Teorema 106.- Sea A una matriz de tamano m×n , entonces: dim(Ef (A)) = dim(Ec(A)).

Demostracion:El resultado es inmediato, teniendo en cuenta que rg(A) = rg(At), y que el rango coincide con el numero devectores no nulos en la forma escalonada, ası como el resultado anterior.

Estos resultados nos permiten usar el metodo de Gauss, y por lo tanto nos ofrecen un operativo sencillo, paracomprobar cuando un conjunto de vectores es linealmente independiente y para obtener bases.

Ejemplo ¿Los vectores X− 1, X + 1 y X2 − 1 de P2[X] son linealmente independientes?Tomemos la base B = {1, X, X2} de P2[X] , entonces formamos por filas la matriz:

A =

(X− 1)B

(X + 1)B

(X2 − 1)B

=

−1 1 01 1 0−1 0 1

F2+F1F3−F1−→

−1 1 00 2 00 −1 1

F3+

12 F2−→

−1 1 00 2 00 0 1

Por lo anterior, los vectores fila de la ultima matriz son linealmente independientes y dim Ef (A) = 3. Enconsecuencia, los tres vectores fila de la matriz A inicial que generan Ef (A) son tambien base, luego linealmenteindependientes y los polinomios del enunciado tambien son linealmente independientes.

Ademas, forman una base de P2[X] (¿por que?). 4

4.4 Cambios de base

Puesto que las coordenadas estan referidas a una base, al cambiar la base de trabajo, habra que cambiar a lascoordenadas en la nueva base. Pero este proceso puede realizarse facilmente, teniendo en cuenta lo siguiente:

Definicion 107.- Sean B1 = {u1 , u2 , . . . , un } y B2 = {v1 , v2 , . . . , vn } son bases de un espacio vectorialV . Recibe el nombre de matriz de transicion o matriz de cambio de la base B1 a la base B2 , la matrizde dimensiones n×n , que por columnas es

P =(

[u1]B2 [u2]B2 · · · [un]B2

),

es decir, la columna i -esima esta constituida por las coordenadas en la base B2 , del vector ui de la base B1 .

En otras palabras, la matriz de cambio de base tiene por columnas las coordenadas en la base de llegada delos vectores de la base de partida.

El porque la matriz de paso se contruye ası, puede observarse en la prueba de la proposicion siguiente:

Proposicion 108.- Sea P la matriz de paso de una base B1 en otra base B2 de un espacio V . Entonces:

1.- ∀ x ∈ V se tiene que [x ]B2 = P · [x ]B1 .

2.- P es inversible y su inversa, P−1 , es la matriz de paso de la base B2 a la base B1 .

Demostracion:

Sea B1 = {u1 , u2 , . . . , un } y sea x = c1 u1 + c2u2 + · · ·+ cn un . Entonces, Apartado 1:

P [x]B1 =(

[u1]B2 [u2]B2 · · · [un]B2

)

c1

c2

...cn

= c1[u1]B2 + c2[u2]B2 + · · ·+ cn[un]B2 = [c1u1 + c2u2 + · · ·+ cnun]B2 = [x]B2

Apartado 2: como los vectores de la base B1 son linealmente independientes, sus vectores de coordenadas enla base B2 tambien lo son. Luego las columnas de P son vectores linealmente independientes y rg(P ) = n ,por lo que P es inversible.

Ademas, [x ]B2 = P [x ]B1 =⇒ P−1[x ]B2 = P−1P [x ]B1 =⇒ P−1[x ]B2 = [x ]B1 y P−1 es la matrizde cambio de la base B2 en la base B1 .

Prof: Jose Antonio Abia Vian I.T.I. en Electricidad

46 – Matematicas I : Algebra Lineal 4.5 Espacios vectoriales con producto interior

Ejemplo Consideremos las bases B = {1, X, X2} y B1 = {X− 1, X + 1, X2 − 1} de P2[X] .La matriz de paso de la base B1 a la base B sera:

P =(

[X− 1]B [X + 1]B [X2 − 1]B)

=

−1 1 −11 1 00 0 1

y P−1 =

−12

12

−12

12

12

12

0 0 1

la matriz de paso de B a B1 .

Ejemplo Consideremos en IR3 la base canonica Bc = {e1 =(1, 0, 0), e2 =(0, 1, 0), e3 =(0, 0, 1)} y la baseB1 = {v1 =(1, 0,−1), v2 =(2,−1, 1), v3 =(0,−1, 1)} .

Como v1 = 1(1, 0, 0) + 0(0, 1, 0)− 1(0, 0, 1) = e1 − e3 , se tiene que (v1 )Bc = (1, 0,−1); y lo mismo paralos otros vectores, luego la matriz de paso de la base B1 a la base Bc sera:

P =(

[v1]Bc[v2]Bc

[v3]Bc

)=

1 2 00 −1 −1−1 1 1

y P−1 =

1 2 00 −1 −1−1 1 1

−1

la matriz de paso de la base Bc a la base B1 . 4

Nota: A la vista del ejemplo anterior, obtener las coordenadas de un vector de IRn en la base canonica de IRn

es inmediato, pues (x)Bc = x . Pero ¡ciudado!, al trabajar con vectores de IRn no hay que confundir el vectorcon las coordenadas en una base, pues la igualdad anterior unicamente es cierta en la base canonica.

4.5 Espacios vectoriales con producto interior

4.5.1 Producto interior. Norma. Distancia

Definicion 109.- Un producto interior en un espacio vectorial real V es una funcion que a cada par devectores u , v ∈ V le asocia un numero real, que denotaremos por 〈u , v 〉 , de tal manera que se cumplen lassiguientes propiedades:

1.- 〈u , v 〉 = 〈v , u〉 ; ∀ u , v ∈ V .

2.- 〈u + v , w 〉 = 〈u , w 〉+ 〈v , w 〉 ; ∀ u , v , w ∈ V .

3.- 〈ku , v 〉 = k〈u , v 〉 ; ∀ u , v ∈ V y ∀ k ∈ IR .

4.- 〈u , u〉 ≥ 0; ∀ u ∈ V y 〈u , u〉 = 0 ⇐⇒ u = 0 .

Otra propiedades que se deducen de las anteriores son:

1.- 〈0 , u〉 = 0 2.- 〈u , v + w 〉 = 〈u , v 〉+ 〈u , w 〉 3.- 〈u , kv 〉 = k〈u , v 〉

Ejemplo Considerar en P2[X] , la funcion 〈P (X), Q(X)〉 = P (1)Q(1) + P ′(1)Q′(1) + P ′′(1)Q′′(1).

(1) 〈P (X), Q(X)〉= P (1)Q(1) + P ′(1)Q′(1) + P ′′(1)Q′′(1)= Q(1)P (1) + Q′(1)P ′(1) + Q′′(1)P ′′(1) = 〈Q(X), P (X)〉

(2) 〈P (X) + R(X), Q(X)〉 =(P (1) + R(1)

)Q(1) +

(P ′(1) + R′(1)

)Q′(1) +

(P ′′(1) + R′′(1)

)Q′′(1)

=(P (1)Q(1)+P ′(1)Q′(1)+P ′′(1)Q′′(1)

)+

(R(1)Q(1)+R′(1)Q′(1)+R′′(1)Q′′(1)

)

= 〈P (X), Q(X)〉+ 〈R(X), Q(X)〉(3) 〈kP (X), Q(X)〉= kP (1)Q(1) + kP ′(1)Q′(1) + kP ′′(1)Q′′(1)

= k(P (1)Q(1) + P ′(1)Q′(1) + P ′′(1)Q′′(1)

)= k〈P (X), Q(X)〉

Prof: Jose Antonio Abia Vian I.T.I. en Electricidad

47 – Matematicas I : Algebra Lineal 4.5 Espacios vectoriales con producto interior

(4) 〈P (X), P (X)〉 = P (1)P (1) + P ′(1)P ′(1) + P ′′(1)P ′′(1) =(P (1)

)2

+(P ′(1)

)2

+(P ′′(1)

)2

≥ 0.

Y, se da la igualdad si y solo si, P (1) = P ′(1) = P ′′(1) = 0. Entonces, sea P (X) = a + bX + cX2 , de dondeP ′(X) = b + 2cX y P ′′(X) = 2c ; de las igualdades se tiene:

P (1) = P ′(1) = P ′′(1) = 0 ⇐⇒a + b + c = 0

b + 2c = 02c = 0

⇐⇒ a = b = c = 0 ⇐⇒ P (X) = 0.

Luego tenemos un producto interno definido en P2[X] . 4A partir de un producto interior sobre un espacio V se definen los conceptos de norma, distancia y angulo.

Definicion 110.- Si V es un espacio vectorial con producto interior, entonces la norma (o longitud omodulo) de un vector v ∈ V se denota mediante ‖v‖ y se define como

‖v‖ = +√〈v , v 〉.

La distancia entre dos vectores u y v de V se denota mediante d(u , v ) y se define como

d(u , v ) = ‖u − v‖ = +√〈u − v , u − v 〉.

Desigualdad de Cauchy-Schwarz 111.- Para todo u , v ∈ V, espacio con producto interior, se tiene

〈u,v〉2 ≤ ‖u‖2 ‖v‖2 o en la forma |〈u, v〉| ≤ ‖u‖ ‖v‖ . .

Propiedades basicas de la norma 112.-

1.- ‖u‖ ≥ 0; ∀ u ∈ V

2.- ‖u‖ = 0 ⇐⇒ u = 0

3.- ‖ku‖= |k| ‖u‖ ; ∀ u ∈ V y ∀ k ∈ IR

4.- ‖u+v‖ ≤ ‖u‖+‖v‖ ; ∀ u , v ∈ V

Propiedades basicas de la distancia 113.-

1.- d(u , v ) ≥ 0; ∀ u , v ∈ V

2.- d(u , v ) = 0 ⇐⇒ u = v

3.- d(u , v ) = d(v , u); ∀ u , v ∈ V

4.- d(u , v ) ≤ d(u , w )+d(w , v ); ∀ u , v , w ∈ V

La prueba de estas propiedades es analoga a la de las propiedades del modulo colplejo.

Observacion: Sean V un espacio con producto interior y B = {u1 , . . . , un } una base de V . Tomemos dosvectores v = a1u1 + · · ·+ an un y w = b1 u1 + · · ·+ bn un , entonces

〈v, w〉= 〈a1u1 + · · ·+ anun, w〉 = a1〈u1, w〉+ · · ·+ an〈un,w〉= a1〈u1, b1u1 + · · ·+ bnun〉+ · · ·+ an〈un, b1u1 + · · ·+ bnun〉= a1〈u1,u1〉b1 + · · ·+ a1〈u1, un〉bn + · · ·+ an〈un,u1〉b1 + · · ·+ an〈un, un〉bn

=(

a1 · · · an

)〈u1,u1〉 · · · 〈u1, un〉

.... . .

...〈un, u1〉 · · · 〈un, un〉

b1

...bn

= (v)B QB [w]B = [v]tB QB [w]B

luego, fijada una base, un producto interior se puede obtener a partir de las coordenadas en la base. La matrizQB obtenida se denomina matriz de Gram o matriz metrica. Por las propiedades del producto interior, QB

es simetrica y los elementos de la diagonal positivos.

4.5.1.1 El espacio euclıdeo n -dimensional IRn

Definicion 114.- Sobre el espacio vectorial IRn definimos la funcion que a cada x , y ∈ IRn le asocia

〈x , y 〉 = x · y = (x1, . . . , xn) · (y1, . . . , yn) = x1y1 + · · ·+ xnyn =n∑

i=1

xiyi

Como puede comprobarse facilmente dicha funcion es un producto interior, el que se conoce como productointerior euclıdeo o producto escalar euclıdeo (ya usado en IR2 y IR3 ).

Este producto interior da lugar a la norma y distancia euclıdeas, ya conocidas:

‖x‖ =√

x21 + · · ·+ x2

n y d(x , y ) = ‖x − y‖ =√

(x1 − y1)2 + · · ·+ (xn − yn)2 .Se llama espacio euclıdeo n -dimensional a IRn con el producto interior euclıdeo.

Prof: Jose Antonio Abia Vian I.T.I. en Electricidad

48 – Matematicas I : Algebra Lineal 4.5 Espacios vectoriales con producto interior

Nota: Si la matriz metrica del producto interior en la base B , QB , es la identidad, el producto interior sereduce al producto escalar euclıdeo de los vectores de coordenadas. Esto ocurre precisamente para las basesortonormales que se estudian en la siguiente seccion.

4.5.2 Ortogonalidad

Definicion 115.- Si u y v son vectores distintos de cero de un espacio con producto interior, como conse-cuencia de la desigualdad de Cauchy-Schwarz se tiene que −1 ≤ 〈u ,v 〉

‖u‖‖v ‖ ≤ 1 y, por tanto, existe un unicoangulo, θ , tal que

cos θ =〈u , v 〉‖u‖ ‖v‖ , con 0 ≤ θ ≤ π

Definicion 116.- En un espacio vectorial con producto interior, dos vectores u y v se dicen que son orto-gonales si 〈u , v 〉 = 0. Suele denotarse por u ⊥ v .

Si u es ortogonal a todos los vectores de un conjunto W , se dice que u es ortogonal a W .Se dice que S = {v1 , v2 , . . . , vk } es un conjunto ortogonal si los vectores son ortogonales dos a dos, es

decir, si vi ⊥ vj para todo i 6= j .

Ejemplo Los vectores de la base canonica de IR3 con el producto escalar euclıdeo son ortogonales entre si,pero no lo son si el producto interior definido es: 〈v , w 〉 = v1w1 + v1w2 + v2w1 + 2v2w2 + v3w3 . (Pruebeseque es un producto interior). En efecto: 〈e1 , e2 〉 = 〈(1, 0, 0), (0, 1, 0)〉 = 0 + 1 + 0 + 0 + 0 = 1 6= 0. 4

Nota: Si dos vectores son ortogonales, el angulo que forman es de π radianes (los famosos 90 grados). De hecho,en IRn con el producto escalar euclıdeo, la ortogonalidad coincide con la perpendicularidad.

Una curiosidad:

Teorema general de Pitagoras 117.- Si u y v son dos vectores ortogonales de un espacio vectorial conproducto interior, entonces

‖u + v‖2 = ‖u‖2 + ‖v‖2 .

Este resultado, de facil comprobacion, se reduce en IR2 con el producto escalar al Teorema de Pitagoras.Tambien es sencillo probar el resultado siguiente (ver ejercicio 4.21):

Proposicion 118.- Si w ⊥ {v1 , v2 , . . . , vk } , entonces w ⊥ lin{v1 , v2 , . . . , vk } .

Mucho mas interesante es el siguiente, que relaciona ortogonalidad e independencia:

Teorema 119.- Si S = {v1 , v2 , . . . , vk } un conjunto finito de vectores no nulos, ortogonales dos a dos,entonces S es linealmente independiente. .

4.5.2.1 Bases ortonormales. Proceso de Gram-Schmidt

Definicion 120.- Sean V un espacio vectorial de dimension n con producto interior. Se dice que la baseB = {v1 , v2 , . . . , vn } es una base ortonormal de V , si B es un conjunto ortogonal y ‖vi‖ = 1, ∀ i .

Ejemplo Las bases canonica y B1 ={(

1√2, 1√

2

),(−1√

2, 1√

2

)}son ortonormales en IR2 con el producto escalar

euclıdeo. La base B2 = {(2, 0), (0,−√2)} es ortonormal para el producto interior 〈x, y〉 = x1y14 + x2y2

2 . 4

Teorema 121.- Si B = {v1 , v2 , . . . , vn } es una base ortonormal para un espacio V con producto interior,entonces ∀ v ∈ V se tiene que (v )B =

(〈v , v1 〉, 〈v , v2 〉, . . . , 〈v , vn 〉

). Es decir,

v = 〈v , v1 〉v1 + 〈v , v2 〉v2 + · · ·+ 〈v , vn 〉vn ,

Demostracion:Si v = c1 v1 + · · ·+ ci vi + · · ·+ cn vn , para cada i , se tiene que

〈v, vi〉= 〈c1v1 + · · ·+ civi + · · ·+ cnvn, vi〉= c1〈v1,vi〉+ · · ·+ ci〈vi, vi〉+ · · ·+ cn〈vn, vi〉 = ci〈vi,vi〉 = ci ‖vi‖2 = ci

Prof: Jose Antonio Abia Vian I.T.I. en Electricidad

49 – Matematicas I : Algebra Lineal 4.6 Ejercicios

Es decir, en una base ortonormal, la obtencion de cordenadas puede resultar mas sencilla. Pero no solo eso, sino que tambien se tiene:

Teorema 122.- Si P es la matriz de paso de una base ortonormal B1 a otra base ortonormal B2 , entoncesP es una matriz ortogonal (es decir, P−1 = P t ).

La prueba es puramente operativa, usando la definicion de matriz de paso y el apartado b) del ejercicio 4.24(ver tambien el ejercicio 4.29).

Definicion 123.- Sean V un espacio vectorial con producto interior, W subespacio de V y B ={w1 , w2 , . . . , wk } una base ortonormal de W . Para cada v ∈ V , llamaremos proyeccion ortogonalde v sobre W al vector de W

ProyW (v ) = 〈v , w1 〉w1 + 〈v , w2 〉w2 + · · ·+ 〈v , wk 〉wk .

Al vector v−ProyW (v ) se le llama componente ortogonal de v sobre W .

El vector proyeccion ortogonal no depende la base ortonormal elegida, es decir, tomando cualquier baseortonormal se obtiene el mismo vector. La prueba puede encontrarse en el Anexo 1, pag. 49, tras la demostraciondel Lema 124 siguiente.

Lema 124.- Sean V un espacio vectorial con producto interior, W un subespacio de V y B una base orto-normal de W . Entonces para cada v ∈ V , el vector v− ProyW (v ) es ortogonal a W . .

Proceso de ortonormalizacion de Gram-Schmidt 125.- Sean V un espacio vectorial con producto interior yde dimension finita. Vamos a describir este proceso que construye a partir de una base B={v1 , v2 , . . . , vn }una base ortonormal B∗ = {u1 , u2 , . . . , un } .

Demostracion:

1a etapa.- Como v1 6= 0 por ser de B , el vector u1 =v1

‖v1‖ tiene norma 1 y lin{u1 } = lin{v1} .

2a etapa.- Sea W1 = lin{u1 } , por el Lema anterior, el vector v2 − ProyW1(v2 ) es ortogonal a W1 , en

particular a u1 , y es distinto del vector 0 pues ProyW1(v2 ) ∈ W1 y v2 /∈ W1 = lin{v1 } , entonces tiene que

u2 =v2 − ProyW1

(v2 )∥∥v2 − ProyW1(v2 )

∥∥ =v2 − 〈v2 , u1 〉u1

‖v2 − 〈v2 , u1 〉u1 ‖ ∈ lin{v1 , v2}

es ortogonal a u1 y tiene norma 1. Ademas, lin{u1 , u2 } = lin{v1 , v2} .

3a etapa.- Sea ahora W2 = lin{u1 , u2 } , como antes, el vector v3 − ProyW2(v3 ) es ortogonal a W2 , en

particular a u1 y u2 , y es distinto del vector 0 , pues ProyW2(v3 ) ∈ W2 y v3 /∈ W2 = lin{v1 , v2 } ,

entonces se tiene que

u3 =v3 − ProyW2

(v3 )∥∥v3 − ProyW2(v3 )

∥∥ =v3 − 〈v3 , u1 〉u1 − 〈v3 , u2 〉u2

‖v3 − 〈v3 , u1 〉u1 − 〈v3 , u2 〉u2‖ ∈ lin{v1 , v2 , v3 }

es ortogonal a u1 y u2 , y tiene norma 1. Ademas, lin{u1 , u2 , u3} = lin{v1 , v2 , v3 } .

n a etapa.- Con la repeticion del proceso se ha construido un conjunto ortonormal de n vectores no nulos,B∗ = {u1 , u2 , . . . , un } , tal que linB∗ = linB = V . Luego B∗ es una base ortonormal de V .

4.6 Ejercicios

4.1 Determinar si son espacios vectoriales los siguientes conjuntos:

a) IR2 con las operaciones: (x, y) + (x′, y′) = (x + x′, y + y′) y k(x, y) = (2kx, 2ky).

b) A = {(x, 0) : x ∈ IR} con las operaciones usuales de IR2 .

c) IR2 con las operaciones: (x, y) + (x′, y′) = (x + x′ + 1, y + y′ + 1) y k(x, y) = (kx, ky).

d) El conjunto de los numeros reales estrıctamente positivos, IR+−{0} , con las operaciones: x+x′ = xx′

y kx = xk .

Prof: Jose Antonio Abia Vian I.T.I. en Electricidad

50 – Matematicas I : Algebra Lineal 4.6 Ejercicios

4.2 ¿Cuales de los siguientes conjuntos son subespacios vectoriales de IR3 o IR4 ?

a) {(a, 1, 1) ∈ IR3 : a ∈ IR} ⊆ IR3 b) {(a, b, c) ∈ IR3 : b = a + c} ⊆ IR3

c) {(a, b, c, d) ∈ IR4 : a + 2d = 7} ⊆ IR4 d) {(a, b, c, d) ∈ IR4 : ba = 0} ⊆ IR4

4.3 Sean v1 = (2, 1, 0, 3), v2 = (3,−1, 5, 2) y v3 = (−1, 0, 2, 1) vectores de IR4 . ¿Cuales de los vectores(2, 3,−7, 3), (0, 0, 0, 0), (1, 1, 1, 1) y (−4, 6,−13, 4), estan en lin{v1 , v2 , v3}?

4.4 ¿Para que valores reales de λ los vectores v1 = (λ, −12 , −1

2 ) v2 = (−12 , λ, −1

2 ) y v3 = (−12 , −1

2 , λ) formanun conjunto linealmente dependiente en IR3 ?

4.5 Dados tres vectores linealmente independientes u , v y w , demostrar que u + v , v + w y w + u sontambien linealmente independientes.

4.6 Sea V un espacio vectorial y S = {v1 , . . . , vk } un conjunto de vectores de V . Probar que:

a) lin S es un subespacio vectorial de V .

b) Si W es un subespacio de V que contiene a los vectores de S , entonces linS ⊆ W .

4.7 Probar que si los vectores v1 , . . . , vk son linealmente dependientes, al menos uno de ellos se puedeescribir como una combinacion lineal de los restantes.

4.8 Determinar la dimension de los siguientes subespacios de IR4 :

a) Todos los vectores de la forma (a, b, c, 0).

b) Todos los vectores de la forma (a, b, c, d) con d = a + b y c = a− b .

c) Todos los vectores de la forma (a, b, c, d) con a = b = c = d .

4.9 Demostrar que los vectores solucion de un sistema no homogeneo compatible, AX = B , de m ecuacionescon n incognitas no forman un subespacio de IRn . ¿Que ocurre si el sistema es homogeneo, es decir, siB = 0?

4.10 Sean E y F subespacios de un espacio V . Probar que: E ∩ F = {v ∈ V : v ∈ E y v ∈ F} es unsubespacio de V .

4.11 Considerar en IR4 los conjuntos de vectores:

A = {(1, 2,−1, 3), (0, 1, 0, 3)} B = {(1,−1, 1, 0), (2, 3, 1, 2), (0, 0, 0, 1)}a) Hallar las dimensiones de lin(A) y de lin(B), y encontrar una base

b) Hallar las ecuaciones parametricas de lin(A) y de lin(B).

c) Hallar las ecuaciones cartesianas de lin(A) y de lin(B).

d) Hallar la dimension de lin(A) ∩ lin(B).

4.12 Consideremos en el espacio vectorial IR3 la base B = {u1 , u2 , u3} . Sea E el subespacio engendradopor los vectores

v1 = u1 + 3u3 , v2 = 2u1 − 3u2 + u3 , v3 = 4u1 − 3u2 + 7u3 .Sea F el subespacio engendrado por los vectores

w1 = u1 + u2 + u3 , w2 = 2u1 + 3u2 + 4u3 , w3 = 3u1 + 4u2 + 5u3 .Hallar una base de E , una base de F , el subespacio E ∩ F y una base de E ∩ F .

4.13 Sea M2×2 el espacio vectorial de las matrices cuadradas de orden 2 sobre IR y sea E el subconjunto de

M2×2 formado por las matrices de la forma(

a b + c−b + c a

)con a, b, c ∈ IR .

a) Demostrar que E es un subespacio vectorial.

b) Probar que las matrices A1 =(

1 00 1

), A2 =

(0 1−1 0

)y A3 =

(0 11 0

), forman una base de E .

4.14 Sea B una base de un espacio vectorial V de dimension n . Demostrar que el conjunto {v1 , v2 , . . . , vn }es una base de V si, y solo si el conjunto {[v1 ]B , [v2 ]B , . . . , [vn ]B} es una base de IRn .

Prof: Jose Antonio Abia Vian I.T.I. en Electricidad

51 – Matematicas I : Algebra Lineal 4.6 Ejercicios

4.15 En una cierta base {u1 , u2 , u3 , u4} de un espacio vectorial V , un vector w tiene por coordenadas(3, 1, 2, 6). Hallar las coordenadas de W en otra base {v1 , v2 , v3 , v4 } cuyos vectores verifican quev1 = u1 +u2 , v2 =2u4−u1 , v3 = u2−u3 y v4 =2u1−u2 .

4.16 En IR3 se consideran las bases B = {v1 = (2, 0, 0), v2 = (0,−1, 2), v3 = (0, 0,−3)} y la base canonicaBc = {e1 , e2 , e3 } . Hallar las coordenadas respecto de la base B del vector x = 4e1 + e2 − 5e3 .

4.17 Se consideran en IR3 las bases B = {u1 , u2 , u3 } y B′ = {v1 , v2 , v3 } , siendo

u1 = (−3, 0,−3), u2 = (−3, 2,−1), u3 = (1, 6,−1) y

v1 = (−6,−6, 0), v2 = (−2,−6, 4), v3 = (−2,−3, 7).

a) Hallar la matriz de paso de B a B′ .

b) Calcular la matriz de coordenadas, [w ]B , siendo w = (−5, 8,−5).

c) Calcular [w ]B′ de dos formas diferentes

4.18 Sean u = (u1, u2, u3) y v = (v1, v2, v3). Determinar si 〈u , v 〉 = u1v1 − u2v2 + u3v3 define un productointerior en IR3 .

4.19 a) Encontrar dos vectores de IR2 con norma euclıdea uno y cuyo producto interior euclıdeo con (−2, 4)sea cero.

b) Demostrar que hay un numero infinito de vectores en IR3 con norma euclıdea uno y cuyo productointerior euclıdeo con (−1, 7, 2) es cero.

4.20 Sean a = ( 1√5, −1√

5) y b = ( 2√

30, 3√

30). Demostrar que {a , b} es ortonormal si IR2 tiene el producto

interior 〈u , v 〉 = 3u1v1 +2u2v2 donde u = (u1, u2) y v = (v1, v2), y que no lo es si IR2 tiene el productointerior euclıdeo.

4.21 Sea V un espacio con producto interior. Demostrar que si w es ortogonal a cada uno de los vectoresv1 , v2 , . . . , vk entonces es ortogonal a lin{v1 , v2 , . . . , vk } .

4.22 Considera IR3 con el producto interior euclideo. Utiliza el proceso de Gram-Schmidt para transformar,en cada caso, la base {u1 , u2 , u3} en una base ortonormal.

a) u1 = (1, 1, 1), u2 = (−1, 1, 0), u3 = (1, 2, 1).

b) u1 = (1, 0, 0), u2 = (3, 7,−2), u3 = (0, 4, 1).

4.23 Sea IR3 con el producto interior 〈u , v 〉 = u1v1 + 2u2v2 + 3u3v3 . Utilizar el proceso de Gram-Schmidtpara transformar la base formada por los vectores u1 = (1, 1, 1), u2 = (1, 1, 0) y u3 = (1, 0, 0) en unabase ortonormal.

4.24 Sea B = {v1 , v2 , v3 } una base ortonormal de un espacio V con producto interior. Probar que:

a) ‖w‖2 = 〈w , v1 〉2 + 〈w , v2 〉2 + 〈w , v3 〉2 ; ∀ w ∈ V .

b) 〈u , w 〉 = (u)B · (w )B = [u ]tB [w ]B ; ∀ u , w ∈ V .

4.25 Tomemos en IR4 el producto interior euclideo. Expresar el vector w = (−1, 2, 6, 0) en la forma w = w1 +w2 donde, w1 este en el subespacio W generado por los vectores u1 = (−1, 0, 1, 2) y u2 = (0, 1, 0, 1),y w2 sea ortogonal a W .

4.26 Suponer que IR4 tiene el producto interior euclideo.

a) Hallar un vector ortogonal a u1 = (1, 0, 0, 0) y u4 = (0, 0, 0, 1), y que forme angulos iguales con losvectores u2 = (0, 1, 0, 0) y u3 = (0, 0, 1, 0).

b) Hallar un vector x de longitud 1, ortogonal a u1 y a u2 , tal que el coseno del angulo entre x yu3 sea el doble del coseno del angulo entre x y u4 .

4.27 Hallar la distancia del vector u = (1, 1, 1, 1) de IR4 al subespacio generado por los vectores v1 = (1, 1, 1, 0)y v2 = (1, 1, 0, 0).

Prof: Jose Antonio Abia Vian I.T.I. en Electricidad

52 – Matematicas I : Algebra Lineal 4.6 Ejercicios

4.28 Dados los vectores x = (x1, x2, x3) e y = (y1, y2, y3) de IR3 , demostrar que la expresion 〈x , y 〉 =2x1y1 + 2x2y2 + x3y3 + x1y2 + x2y1 define un producto interior.

Encontrar una base {u1 , u2 , u3} ortonormal respecto al producto interior anterior tal que u2 y u3

tengan igual direccion y sentido que los vectores (0, 1, 0) y (0, 0, 1), respectivamente.

4.29 Probar que una matriz A de orden n es ortogonal si, y solo si sus vectores fila forman un conjuntoortonormal en IRn .

Prof: Jose Antonio Abia Vian I.T.I. en Electricidad

53 – Matematicas I : Algebra Lineal

Tema 5

Aplicaciones lineales

5.1 Definicion. Nucleo e imagen

Definicion 126.- Sea f : V −→ W una aplicacion entre los espacios vectoriales reales V y W . Se dice que fes una aplicacion lineal si:

(1) f(u + v ) = f(u) + f(v ); ∀ u , v ∈ V, (2) f(ku) = kf(u); ∀ u ∈ V y ∀ k ∈ IR.

Estas dos propiedades se pueden reunir en:f(ku + lv ) = kf(u) + lf(v ); ∀ u , v ∈ V, ∀ k, l ∈ IR.

y, en general, se tiene:f(k1u1 + k2 u2 + · · ·+ kr ur ) = k1f(u1 ) + k2f(u2 ) + · · ·+ krf(ur ) ∀ ui ∈ V, ∀ ki ∈ IR

Si V = W la aplicacion lineal tambien se dice que es un operador lineal.

Ejemplos 127 Las siguientes aplicaciones son aplicaciones lineales

1.- f :V −→ V definida por f(v ) = 2v :

f(λv + µw ) = 2(λv + µw ) = λ2v + µ2w = λf(v ) + µf(w )

2.- Dada A =(

0 −1 11 0 −1

), la aplicacion f : IR3 −→ IR2 con f(x) = Ax =

(0 1 11 0 −1

)

x1

x2

x3

:

f(λx + µy ) = A(λx + µy ) = A(λx) + A(µy ) = λAx + µAy = λf(x) + µf(y ) 4

Proposicion 128.- Si f : V −→ W es una aplicacion lineal, entonces:a) f(0) = 0 ; b) f(−v ) = −f(v ); ∀ v ∈ V

Definicion 129.- Dada una aplicacion lineal f : V −→ W , se define el nucleo o ker(nel) de f , que se denotapor ker(f) o ker f , como el conjunto:

ker f = {v ∈ V : f(v ) = 0}

y se define la imagen de f , que se denota por Img(f) o Img f (a veces f(V )), como el conjunto

Img f = {w ∈ W : ∃v ∈ V tal que w = f(v )}El ker f es un subespacio vectorial de V y la Img f es subespacio vectorial de W (ver ejercicio 5.31).

Definicion 130.- Si f : V −→ W es una aplicacion lineal, entonces la dimension del nucleo se denomina lanulidad de f y la dimension de la imagen de f se denomina el rango de f .

Proposicion 131.- Sea f : V −→ W es una aplicacion lineal y B = {v1 , v2 , . . . , vn } una base de V , entoncesImg f = lin{f(v1 ), f(v2 ), . . . , f(vn )}Demostracion:En efecto, todo v ∈ V puede escribirse como v = k1v1 + k2v2 + · · ·+ kn vn , luego

f(v ) = f(k1 v1 + k2v2 + · · ·+ kn vn ) = k1f(v1 ) + k2f(v2 ) + · · ·+ knf(vn )

En consecuencia, si w ∈ Img f , w = f(v ) = k1f(v1 ) + k2f(v2 ) + · · ·+ knf(vn ), para algun v .

Prof: Jose Antonio Abia Vian I.T.I. en Electricidad

54 – Matematicas I : Algebra Lineal 5.2 Matrices de una aplicacion lineal

Ejemplo Tomemos el ejemplo 2) de los Ejemplos 127 anteriores:ker f = {x ∈ IR3 : f(x) = 0} = {x ∈ IR3 : Ax = 0}

luego son las soluciones del sitema de ecuaciones lineales AX = 0. Como son los vectores de la forma (z,−z, z),para cualquier valor de z ∈ IR , se tiene que ker f = {(z,−z, z) ∈ IR3 : z ∈ IR} = lin{(1,−1, 1)} .

Para la imagen: tomemos en IR3 la base canonica, entoncesImg f = lin{f(e1 ), f(e2 ), f(e3 )}= lin{Ae1 , Ae2 , Ae3 }= lin{(0, 1), (−1, 0), (1,−1)}= lin{(0, 1), (−1, 0)}= IR2

pues (1,−1) = (−1)(0, 1) + (−1)(−1, 0). Se tiene ademas, que dim(ker f) = 1 y dim(Img f) = 2. 4No por casualidad, sucede que dim(ker f) + dim(Img f) = 1 + 2 = 3 = dim IR3 :

Teorema de la dimension 132.- Si f :V −→ W es una aplicacion lineal entre espacios vectoriales,dim V = dim(ker f) + dim(Img f)

Demostracion:Si la dim(ker f) = n = dim V , entonces ker f = V , y f(v ) = 0 ∀ v ∈ V , luego Img f = {0} que tienedimension cero, por lo que se cumple

dim(ker f) + dim(Img f) = dim V ( n + 0 = n )Si la dim(ker f) = r < n , tomemos Bker = {u1 , . . . , ur } una base del ker f ⊆ V que podemos completar conn− r vectores hasta una base de V , BV = {u1 , . . . , ur , vr+1 , . . . , vn } , y el conjunto imagen sera por tanto

Img f = lin{

f(u1), . . . , f(ur), f(vr+1), . . . , f(vn)}

= lin{0, . . . ,0, f(vr+1), . . . , f(vn)

}= lin

{f(vr+1), . . . , f(vn)

}

Si probamos que el conjunto formado por esos n− r vectores es linealmente independiente, sera una base de laImg f y habremos probado que

dim(ker f) + dim(Img f) = dim V ( r + n− r = n )como querıamos. Veamoslo: por ser f una aplicacion lineal,

λr+1f(vr+1 ) + · · ·+ λnf(vn ) = 0 ⇐⇒ f(λr+1 vr+1 + · · ·+ λn vn ) = 0 ⇐⇒ λr+1 vr+1 + · · ·+ λn vn ∈ ker f

luego en la base Bker se expresa con λr+1 v r+1 + · · ·+ λn vn = µ1u1 + · · ·+ µr ur , para ciertos µi . Luego−µ1u1 − · · · − µr ur + λr+1 v r+1 + · · ·+ λn vn = 0

y −µ1 = · · · = −µr = λr+1 = · · · = λn = 0 por formar esos vectores una base de V . En particular, conλr+1 = · · · = λn = 0 se prueba que el conjunto {f(v r+1), . . . , f(vn )} es un conjunto linealmente independientede vectores, que por ser tambien generador de la Img f es una base de ella.

5.2 Matrices de una aplicacion lineal

Teorema 133.- Sean V y W espacios vectoriales con dim V = n y dim W = m , y sea f : V −→ W , unaaplicacion lineal. Si B1 = {v1 , v2 , . . . , vn } es una base de V y B2 = {w1 , w2 , . . . , wm} una base de W ,entonces la matriz

Am×n =(

[f(v1)]B2 [f(v2)]B2 · · · [f(vn)]B2

)

es la unica matriz que verifica que [f(v )]B2 = A[v ]B1 , para cada v ∈ V .

Demostracion:Todo v ∈ V se escribe de forma unica como una combinacion lineal de los vectores de la base, v =k1v1 + k2 v2 + · · ·+ kn vn , luego su imagen f(v ) = k1f(v1 ) + k2f(v2 ) + · · ·+ knf(vn ).

Como los vectores f(v1 ), f(v2 ), . . . , f(vn ) son de W , sean sus coordenadas en la base B2 :

(f(v1)

)B2

= (a11, a21, . . . , am1)(f(v2)

)B2

= (a12, a22, . . . , am2)

· · · · · · · · · · · · · · · · · · · · ·(f(vn)

)B2

= (a1n, a2n, . . . , amn)

⇐⇒

f(v1) = a11w1 + a21w2 + · · ·+ am1wm

f(v2) = a12w1 + a22w2 + · · ·+ am2wm

· · · · · · · · · · · · · · · · · · · · ·f(vn) = a1nw1 + a2nw2 + · · ·+ amnwm

Prof: Jose Antonio Abia Vian I.T.I. en Electricidad

55 – Matematicas I : Algebra Lineal 5.2 Matrices de una aplicacion lineal

Entonces, sustituyendo en f(v ), se tiene

f(v) = k1(a11w1 + a21w2 + · · ·+ am1wm) + k2(a12w1 + a22w2 + · · ·+ am2wm)+ · · · · · · · · · · · · · · · · · ·+ kn(a1nw1 + a2nw2 + · · ·+ amnwm)

= (k1a11 + k2a12 + · · ·+ kna1n)w1 + (k1a21 + k2a22 + · · ·+ kna2n)w2

+ · · · · · · · · · · · · · · · · · ·+ (k1am1 + k2am2 + · · ·+ knamn)wm

por tanto, las coordenadas de f(v ) en la base B2 son

[f(v )]B2 =

k1a11 + k2a12 + · · ·+ kna1n

k1a21 + k2a22 + · · ·+ kna2n

· · · · · · · · · · · · · · ·k1am1 + k2am2 + · · ·+ knamn

=

a11 a12 · · · a1n

a21 a22 · · · a2n

...... · · · ...

am1 am2 · · · amn

k1

k2

...kn

= A[v ]B1

y A , tiene por columnas las coordenadas en la base B2 de las imagenes de los vectores de la base B1 .

Definicion 134.- Sean B1 una base de V , B2 base de W y f :V −→ W una aplicacion lineal. A la unicamatriz A , tal que [f(v )]B2 = A[v ]B1 , para cada v ∈ V , se le llama matriz de f respecto de las basesB1 y B2 .

Si f : V −→ V es un operador lineal y consideramos que tenemos la misma base B en el espacio de partiday en el de llegada, entonces se habla de matriz de f respecto de la base B .

Ejemplo Sea f :P2[X] −→ P1[X] dada por f(P (X)) = P ′(X). Sean B1 = {1, X, X2} y B2 = {1, X} basesrespectivas de P2[X] y P1[X] . Entonces, como f(1) = 0, f(X) = 1 y f(X2) = 2X se tiene que

A =(

[f(1)]B2 [f(X)]B2 [f(X2)]B2

)=

(0 1 00 0 2

)es la matriz de f asociada a B1 y B2 .

En efecto

f(a + bX + cX2) = b + 2cX y A[a + bX + cX2]B1 =(

0 1 00 0 2

)

abc

=

(b2c

)= [b + 2cX]B2 4

Observacion 135.- Si f :V −→ W es una aplicacion lineal y A la matriz de f respecto de B1 y B2 , entonces

ker f ={

v ∈ V : f(v ) = 0}

={

v ∈ V : [f(v )]B2 = [0 ]B2

}=

{v ∈ V : A[v ]B1 = 0

}

luego las coordenadas en la base B1 de los vectores del ker f son las soluciones del sistema homogeneo Ax = 0 .

w ∈ Img f = lin{

f(v1 ), f(v2 ), . . . , f(vn )}⇐⇒ [w ]B2 ∈ lin

{[f(v1 )]B2 , [f(v2 )]B2 , . . . , [f(vn )]B2

}

luego el espacio de las columnas de la matriz A , Ec(A), esta compuesto por las coordenadas en la base B2 delos vectores de la Img f . En consecuencia, dim(Img f) = dim Ec(A) = rg(A).

Ejemplo Sean B1 = {v1 , v2 , v3 } base de V , B2 = {w1 , w2 , w3} base de W , f : V −→ W aplicacion

lineal y A =

1 0 1−1 1 11 1 3

la matriz de f asociada a B1 y B2 . Encontrar una base de ker f y otra de Img f .

Como A[v ]B1 = [f(v )]B2 , v0 ∈ ker f ⇐⇒ A[v0 ]B1 = 0, luego resolviendo el sistema AX = 0:

A =

1 0 1−1 1 11 1 3

−→

1 0 10 1 20 1 2

−→

1 0 10 1 20 0 0

=⇒

x = −zy = −2zz = z

=⇒ [v0]B1 =

xyz

= z

−1−21

el vector (−1,−2, 1) genera las coordenadas en B1 de los vectores del ker f . Luego ker f = lin{−v1−2v2 +v3 } .Ademas, dim(ker f) = 1 luego dim(Img f) = 3 − 1 = 2 = rg(A). Y una base de la imagen se obtendra de

una base del espacio de las columnas de A (para operar sobre las columnas de A , operamos es las filas de At ):

At =

1 0 1−1 1 11 1 3

t

=

1 −1 10 1 11 1 3

−→

1 −1 10 1 10 2 2

−→

1 −1 10 1 10 0 0

luego los vectores (1,−1, 1) y (0, 1, 1) generan las coordenadas en la base B2 de los vectores de la Img f . Enconsecuencia, Img f = lin{w1−w2 +w3 , w2 +w3 } . 4

Prof: Jose Antonio Abia Vian I.T.I. en Electricidad

56 – Matematicas I : Algebra Lineal 5.2 Matrices de una aplicacion lineal

Observacion 136.- Pueden obtenerse de una sola vez una base para ker(f) y otra para la Img(f). Basta paraello, tener en cuenta que las operaciones elementales realizadas sobre las columnas de la matriz, son operacionessobre los vectores imagen.

Ejemplo Sea A =

1 2 −1 1 0 1−1 1 −2 2 1 02 −1 −1 −1 1 −11 6 −9 7 4 0

la matriz de la aplicacion f : V −→ W , referida a las bases

B1 = {v1 , v2 , v3 , v4 , v5 , v6 } y B2 = {w1 , w2 , w3 , w4 } . Para obtener una base de la imagen, hacemosoperaciones elementales en las filas de At (en las columnas de A):

At =

1 −1 2 1 : C1

2 1 −1 6 : C2

−1 −2 −1 −9 : C3

1 2 −1 7 : C4

0 1 1 4 : C5

1 0 −1 1 : C6

F2−2F1F3+F1F4−F1F6−F1−→

1 −1 2 1 : C1

0 3 −5 4 : C2 − 2C1

0 −3 1 −8 : C3 + C1

0 3 −3 6 : C4 − C1

0 1 1 4 : C5

0 1 −3 0 : C6 − C1

F2↔F6−→

1 −1 2 1 : C1

0 1 −3 0 : C6−C1

0 −3 1 −8 : C3+C1

0 3 −3 6 : C4−C1

0 1 1 4 : C5

0 3 −5 4 : C2−2C1

F3+3F2F4−3F2F5−F2

F6−3F2−→

1 −1 2 1 : C1

0 1 −3 0 : C6 − C1

0 0 −8 −8 : C3 + C1 + 3(C6 − C1)0 0 6 6 : C4 − C1 − 3(C6 − C1)0 0 4 4 : C5 − (C6 − C1)0 0 4 4 : C2 − 2C1 − 3(C6 − C1)

F3↔F5−→

1 −1 2 1 : C1

0 1 −3 0 : C6 − C1

0 0 4 4 : C5 − C6 + C1

0 0 6 6 : C4 + 2C1 − 3C6

0 0 −8 −8 : C3 − 2C1 + 3C6

0 0 4 4 : C2 + C1 − 3C6

F4− 32 F3

F5+2F3F6−F3−→

1 −1 2 1 : C1

0 1 −3 0 : C6 − C1

0 0 4 4 : C5 − C6 + C1

0 0 0 0 : C4 + 12C1 − 3

2C6 − 32C5

0 0 0 0 : C3 + C6 + 2C5

0 0 0 0 : C2 − 2C6 − C5

La matriz final es escalonada, luego las tres primeras filas son linealmente independientes, pero estas en realidadson: C1 = [f(v1 )]B2 , C6−C1 = [f(v6 )]B2−[f(v1 )]B2 = [f(v6−v1 )]B2 y C5−C6+C1 = [f(v5−v6 +v1 )]B2 .Por lo que

{f(v1 ), f(v6 − v1 ), f(v5 − v6 + v1 )

}es base de Img(f) (rg(A) = dim(Img f) = 3).

Las tres filas restantes de la matriz son cero, en realidad:

0 = C4 + 12C1 − 3

2C6 − 32C5 = [f(v4 + 1

2v1 − 3

2v6 − 3

2v5)]B2

0 = C3 + C6 + 2C5 = [f(v3 + v6 + 2v5)]B2

0 = C2 − 2C6 − C5 = [f(v2 − 2v6 − v5)]B2

luego los vectores v4+ 12v1− 3

2v6− 3

2v5 , v3+v6+2v5 y v2−2v6−v5 son vectores de ker(f). Como

son linealmente independientes (ver justificacion en Anexo 1, pag 77) y dim(ker f) = 6 − dim(Img f) = 3,forman una base del ker(f).

Definicion 137.- Si f : IRn −→ IRm es una aplicacion lineal, a la matriz de f asociada a las bases canonicasde IRn y IRm , se le llama la matriz estandar.

Definicion 138.- Para cada matriz Am×n , la aplicacion f : IRn −→ IRm definida por f(x) = Ax es lineal y Aes la matriz estandar de f . Se dice que f es una aplicacion matricial.

5.2.1 Composicion de aplicaciones lineales

Aplicacion y funcion tienen el mismo significado (aunque esta ultima denominacion es la que suele usarse en lostemas de Calculo) por lo que la definicion siguiente no debe plantear sorpresas:

Definicion 139.- Sean f : V −→ W y g: W −→ U aplicaciones lineales. Llamaremos aplicacion compuestade f y g , a la aplicacion g ◦ f : V −→ U definida por

(g ◦ f)(v ) = g(f(v )), ∀ v ∈ V.

Prof: Jose Antonio Abia Vian I.T.I. en Electricidad

57 – Matematicas I : Algebra Lineal 5.3 Teorema de Semejanza

Proposicion 140.- Sean f : V −→ W y g: W −→ U aplicaciones lineales, con dim V = n , dim W = m ydim U = p , y sean B1 , B2 y B3 bases de V , W y U , respectivamente. Entonces:

a) g ◦ f es una aplicacion lineal.

b) Si Am×n es la matriz asociada a f respecto de las bases B1 y B2 , y Cp×m es la matriz asociada a grespecto de B2 y B3 , entonces CAp×n es la matriz asociada a g ◦ f respecto de las bases B1 y B3 .

Demostracion:

a) (g ◦ f)(λu + µv) = g(f(λu + µv)) = g(λf(u) + µf(v)) = λg(f(u)) + µg(f(v))= λ(g ◦ f)(u) + µ(g ◦ f)(v).

b) Teniendo en cuenta que [g(w )]B3 = C[w ]B2 y [f(v )]B2 = A[v ]B1 ,

[(g ◦ f)(v)]B3 = [g(f(v))]B3 = C[f(v)]B2 = CA[v]B1 ; ∀v ∈ V.

5.3 Teorema de Semejanza

Proposicion 141.- Sea f : V −→ W una aplicacion lineal entre espacios vectoriales, B1 y B∗1 dos bases de V

y B2 y B∗2 dos bases de W . Si A1 es la matriz de f asociada a las bases B1 y B2 , P la matriz de cambio

de base la base B∗1 a la base B1 y Q la matriz de cambio de base de B2 a B∗

2 ; entonces la matriz, A∗ , de fasociada a las bases B∗

1 y B∗2 viene dada por

A∗ = QAP

Demostracion:QAP [v ]B∗1 = QA[v ]B1 = Q[f(v )]B2 = [f(v )]B∗2 = A∗[v ]B∗2 , ∀ v ∈ V . Luego A∗ = QAP .

Teorema de semejanza 142.- Sean f :V −→ V , un operador lineal, A1 la matriz de f respecto de una baseB1 de V , A2 la matriz de f respecto de otra base B2 y P la matriz de paso de B2 a B1 . Entonces

A2 = P−1A1P

Observacion: Una manera de recordar bien este proceso es tener en cuenta los diagramas siguientes, donde laobtencion de las nuevas matrices se reduce a la busqueda de caminos alternativos:

A∗ = QAP

Vf−→ W

B1A−→ B2

↑ |P | ↓ Q

B∗1

A∗−→ B∗2

Vf−→ V

B1A1−→ B1

↑ |P | ↓ P−1

B2A2−→ B2

A2 = P−1A1P

No hay que olvidar, que las matrices se operan en orden inverso (las matrices multiplican a los vectores por laizquierda, sucesivamente). Obviamente, el Teorema de Semejanza es un caso particular de la Proposicion 141.

Definicion 143.- Dadas dos matrices A y B de orden n , se dice que A y B son semejantes si existe unamatriz P inversible tal que B = P−1AP .

Corolario 144.- Dos matrices A y B son semejantes si y solo si representan al mismo operador lineal respectoa dos bases.

Corolario 145.- Si A y B son matrices semejantes, entonces tienen el mismo rango.

Prof: Jose Antonio Abia Vian I.T.I. en Electricidad

58 – Matematicas I : Algebra Lineal 5.4 Ejercicios

5.4 Ejercicios

5.30 Determinar si las siguientes aplicaciones son o no lineales:

a) f : IR2 −→ IR2 definida por f(x, y) = ( 3√

x, 3√

y)

b) f : IR3 −→ IR2 definida por f(x, y, z) = (2x + y, 3y − 4z).

c) f : M2×2 −→ IR definida por f

(a bc d

)= a2 + b2 .

5.31 Sea f :V −→ W una aplicacion lineal.

a) Probar que ker f es un subespacio de V

b) Probar que Img f es un subespacio de W

5.32 Sean V un espacio vectorial y T : V −→ V la aplicacion lineal tal que T (v ) = 3v . ¿Cual es el nucleo deT ? ¿Cual es la imagen de T ?.

5.33 Sea A una matriz de tamano 5× 7 con rango 4.

a) ¿Cual es la dimension del espacio de soluciones de Ax = 0 ?.

b) ¿Ax = b tiene solucion para todo b de IR5 ? ¿Por que?.

5.34 Sea T : IR3 −→ IR3 la aplicacion lineal dada por la formula T (x, y, z) =

1 3 43 4 7−2 2 0

xyz

.

a) Demostrar que el nucleo de T es una recta y encontrar sus ecuaciones parametricas.

b) Demostrar que la imagen de T es un plano y hallar su ecuacion (cartesiana).

5.35 Sea B = {v1 = (1, 2, 3), v2 = (2, 5, 3), v3 = (1, 0, 10)} una base de IR3 y f : IR3 −→ IR2 una aplicacionlineal para la que f(v1 ) = (1, 0), f(v2 ) = (0, 1) y f(v3 ) = (0, 1).

a) Encontrar una matriz de la aplicacion f indicando las bases a las que esta asociada.

b) Calcular f(v3 − v2 − 2v1 ) y f(1, 1, 1).

5.36 Encontrar la matriz estandar de cada una de las aplicaciones lineales siguientes:

a) f

x1

x2

x3

=

x1 + 2x2 + x3

x1 + 5x2

x3

b) f

x1

x2

x3

x4

=

x4

x1

x3

x1 − x3

c) f

x1

x2

x3

x4

=

x4 − x1

x1 + x2

x2 − x3

Encontrar una base del nucleo y otra de la imagen, para cada una de ellas

5.37 Sea T : IR3 −→ W la proyeccion ortogonal de IR3 sobre el plano W que tiene por ecuacion x + y + z = 0.Hallar una formula para T y calcular T (3, 8, 4).

5.38 Se dice que una aplicacion lineal es inyectiva si a cada vector de la imagen le corresponde un unicooriginal (es decir, si f(u) = f(v ) =⇒ u = v ). Demostrar que f es inyectiva si y solo si ker f = {0} .

5.39 Sea T : IR2 −→ IR3 la transformacion lineal definida por T (x1, x2) = (x1 + 2x2, −x1, 0).

a) Encontrar la matriz de la aplicacion T en las bases:B1 =

{u1 =(1, 3), u2 =(−2, 4)

}y B2 =

{v1 =(1, 1, 1), v2 =(2, 2, 0), v3 =(3, 0, 0)

}.

b) Usar la matriz obtenida en el apartado anterior para calcular T (8, 3).

5.40 Sea f :M2×2 −→M2×2 definida por: f

(a11 a12

a21 a22

)=

( −1 20 1

)(a11 a12

a21 a22

)y sean las bases Bc

(hace el papel de la canonica) y B de M2×2 :

Bc ={(

1 00 0

),

(0 10 0

),

(0 01 0

),

(0 00 1

)}B =

{(1 00 0

),

(0 21 0

),

(0 12 0

),

(0 00 1

)}

Prof: Jose Antonio Abia Vian I.T.I. en Electricidad

59 – Matematicas I : Algebra Lineal 5.4 Ejercicios

a) Demostrar que f es lineal.

b) ¿Cual sera el tamano de la matriz de f asociada a la base Bc ? Hallarla.

c) Hallar el nucleo y la imagen de f ası como sus dimensiones y bases.

d) Hallar la matriz de f respecto de la base B .

5.41 Sea A =

3 −2 1 01 6 2 1−3 0 7 1

la matriz de la aplicacion lineal T : IR4 −→ IR3 respecto de las bases:

B ={

v1 = (0, 1, 1, 1), v2 = (2, 1,−1,−1), v3 = (1, 4, 1,−2),v4 = (6, 9, 4, 2)}

y

B′ ={

w1 = (0, 8, 8), w2 = (−7, 8, 1), w3 = (−6, 9, 1)}

.

a) Hallar [T (v1 )]B′ , [T (v2 )]B′ , [T (v3 )]B′ y [T (v4 )]B′ .

b) Encontrar T (v1 ), T (v2 ), T (v3 ) y T (v4 ).

c) Hallar T (2, 2, 0, 0).

5.42 Sea T : IR2 −→ IR2 la aplicacion lineal definida por T

(x1

x2

)=

(x1 + 7x2

3x1 + 4x2

).

Hallar la matriz de T respecto de la base B y aplicar el teorema de semejanza para calcular la matriz deT respecto de la base B′ , siendo

B ={

u1 = (2, 2), u2 = (4,−1)}

y B′ ={

v1 = (1, 3), v2 = (−1,−1)}

.

5.43 Probar que si A y B son matrices semejantes entonces det(A) = det(B).

5.44 Probar que si A y B son matrices semejantes entonces A2 y B2 tambien lo son.

5.45 Dado el operador lineal T : IR3 −→ IR3 tal que [T (x)]B = A[x]B siendo:

A =

−2 a 11 −2a 11 a −2

y B =

{u1 = (1,−1, 0), u2 = (0, 1,−1), u3 = (−1, 0, 0)

}

a) Calcular los subespacios ker(T ) y Img(T ) segun los valores de a .

b) Hallar la matriz estandar de T .

5.46 Sean f : V −→ W una aplicacion lineal y S = {v1 , v2 , . . . , vn } un conjunto de vectores de V . Probarque si el conjunto {f(v1 ), f(v2 ), . . . , f(vn )} es linealmente independiente, entonces S es linealmenteindependiente.

¿Es cierto el recıproco? Justificar la respuesta.

5.47 Sea T : IR3 −→ IR3 la aplicacion lineal T =

x1

x2

x3

=

λx1 + µx2 + x3

x1 + λµx2 + x3

x1 + µx2 + λx3

. Se pide:

a) Encontrar los valores de λ y µ para los cuales la imagen de T sea IR3 . ¿Quien es en ese caso elnucleo?

b) Para λ = 1, encontrar una base del nucleo.

c) Sea λ = 1 y µ = 0. Se pide:

(c.1) Encontrar la matriz de T respecto de la baseB =

{u1 = (−1, 0, 1), u2 = (0, 1, 0), u3 = (4, 1, 2)

}.

(c.2) Dada la base B1 ={

v1 =(1, 1, 2), v2 =(1, 1, 0), v3 =(−1, 1,−1)}

, encontrar la matriz de pasode B a B1 .

(c.3) Encontrar la matriz de T en la base B1 aplicando el teorema de semejanza.

5.48 Sea T : IR3 −→ IR2 una aplicacion lineal tal que:

(i) ker(T ) ={

x + 2y + z = 02x + y + z = 0 (ii) T

001

=

(01

)(iii) T

101

=

(21

)

Prof: Jose Antonio Abia Vian I.T.I. en Electricidad

60 – Matematicas I : Algebra Lineal 5.4 Ejercicios

a) Obtener una matriz asociada a T , indicando respecto a que bases.

b) Calcular las ecuaciones parametricas de la imagen del subespacio x + y + z = 0.

5.49 Sean Bp ={

p1 , p2 , p3 , p4

}una base de P3[X] (polinomios de grado menor o igual a 3), B1 =

{v1 =

(0, 1, 0), v2 =(1, 1, 1), v3 =(0, 0, 1)}

una base de IR3 y f :P3[X] −→ IR3 una aplicacion lineal verificando:

(i) f(p1)=f(2p2+p4)=f(p2−p3) (ii) f(p2)=v1+v3−v2 (iii) f(p4)=(3, 3, 2)

a) Encontrar Ap1 la matriz de la aplicacion f en las bases Bp y B1 .

b) ¿Es

−1 1 01 0 0−1 0 1

la matriz de paso, Pc1 , de la base canonica de IR3 a B1 ? Justificar la respuesta

y, en caso negativo, hallar Pc1 .

c) Sea Bq ={

q1 = X−X3, q2 = X2−1, q3 = 1−X, q4 = X2 +X}

otra base de P3[X] para la cual, las

matrices Mqp =

2 0 0 01 3 2 0−1 −2 −1 00 0 0 −1

y Aq1 =

6 5 3 03 1 0 −33 3 2 1

son respectivamente, la matriz de

paso de Bq a Bp y la matriz de f en las bases Bq y B1 . Con estos nuevos datos, ¿como se puedecomprobar que la matriz Ap1 calculada antes es la correcta?

d) Hallar bases de ker(f) e Img(f), obteniendo los vectores concretos que las forman.

e) Probar que B2 ={

w1 = (−1, 2, 1), w2 = (0,−1,−1), w3 = (2, 1, 0)}

es base de IR3 y obtener lamatriz de paso, P21 , de la base B2 en la base B1 .

f) A partir de las matrices anteriores, dar la expresion del calculo de las matrices:

? Ap2 de la aplicacion f en las bases Bp y B2

? Mpq de paso de la base Bp en la base Bq

? Aq2 de la aplicacion f en las bases Bq y B2

g) ¿Pueden conocerse los vectores que forman Bp ? ¿Como?, de ser posible o, ¿por que no?

Prof: Jose Antonio Abia Vian I.T.I. en Electricidad

61 – Matematicas I : Algebra Lineal

Tema 6

Diagonalizacion

6.1 Valores y vectores propios

6.1.1 Planteamiento del problema

Problema general de diagonalizacion Dado un operador lineal f sobre un espacio vectorial V , nosplanteamos el problema de cuando es posible encontrar una base de V respecto de la cual la matriz de f seadiagonal. Si A es la matriz del operador f con respecto a una determinada base B , el planteamiento anteriores equivalente a preguntarse cuando existe un cambio de base tal que la matriz del operador en la nueva baseB∗ sea diagonal. Esa nueva matriz viene dada por P−1AP , donde P es la matriz de paso de la nueva base B∗a la base B (Teorema de Semejanza).

Problema de la diagonalizacion ortogonal Dado un operador lineal f sobre un espacio vectorial V conproducto interior, nos planteamos el problema de cuando es posible encontrar una base ortonormal de V respectode la cual la matriz de f sea diagonal. Si V es un espacio con producto interior y las bases son ortonormalesentonces se tendra que P sera ortogonal.

Podemos pues formular los dos problemas anteriores en terminos de matrices.

1.- Dada una matriz cuadrada A , ¿existe una matriz P inversible tal que P−1AP sea diagonal?

2.- Dada una matriz cuadrada A , ¿existe una matriz ortogonal P tal que P tAP sea diagonal?

Definicion 146.- Se dice que una matriz A cuadrada es diagonalizable si existe una matriz P inversible talque P−1AP es diagonal. En ese caso se dice que P diagonaliza a la matriz A .

Si existe una matriz ortogonal P tal que P−1AP es diagonal, entonces se dice que A es diagonalizableortogonalmente y que P diagonaliza ortogonalmente a A .

6.1.2 Valores y vectores propios

Supongamos que la matriz An×n es diagonalizable y sea D la matriz diagonal. Entonces:∃P inversible tal que P−1AP = D o, equivalentemente, ∃P inversible tal que AP = PD

Si denotamos por p1 , p2 , . . . , pn a las columnas de P , las matrices son

AP = A

(p1 p2 · · · pn

)=

(Ap1 Ap2 · · · Apn

)

PD =

p11 p12 · · · p1n

p21 p22 · · · p2n

......

. . ....

pn1 pn2 · · · pnn

λ1 0 · · · 00 λ2 · · · 0...

.... . .

...0 0 · · · λn

=

λ1p11 λ2p12 · · · λnp1n

λ1p21 λ2p22 · · · λnp2n

......

. . ....

λ1pn1 λ2pn2 · · · λnpnn

=

(λ1p1 λ2p2 · · · λnpn

)

y, como son iguales: Api = λi pi , para todo i = 1, . . . , n . Es decir, han de existir n vectores linealmenteindependientes pi (P es inversible) y n numeros λi que lo verifiquen.

Definicion 147.- Si A es una matriz de orden n , diremos que λ es un valor propio, valor caracterıstico,eigenvalor o autovalor de A si existe algun p ∈ IRn , p 6= 0 , tal que Ap = λp .

Del vector p diremos que es un vector propio, vector caracterıstico, eigenvector o autovector deA correspondiente al valor propio λ .

Del comentario anterior, obtenemos la primera caracterizacion para la diagonalizacion de la matriz:

Teorema 148.- Sea A una matriz de orden n , entonces:A es diagonalizable ⇐⇒ A tiene n vectores propios linealmente independientes

Prof: Jose Antonio Abia Vian I.T.I. en Electricidad

62 – Matematicas I : Algebra Lineal 6.2 Diagonalizacion

Demostracion:Por lo anterior, se tiene que: A es una matriz diagonalizable ⇐⇒⇐⇒ ∃P inversible y D diagonal tal que AP = PD

⇐⇒ ∃P inversible y D diagonal tal que

AP =(

Ap1 Ap2 · · · Apn

)=

(λ1p1 λ2p2 · · · λnpn

)= PD

⇐⇒ existen n vectores linealmente independientes tales que Ap1 = λ1p1 , . . . , Apn = λn pn

⇐⇒ A tiene n vectores propios linealmente independientes

En consecuencia, el problema de la diagonalizacion se reduce a la busqueda de los vectores propios de lamatriz, y comprobar si de entre ellos pueden tomarse n linealmente independientes.

6.2 Diagonalizacion

La primera simplificacion de la busqueda se produce, no sobre los vectores propios, sino sobre los autovalorescorrespondientes:

Teorema 149.- Si A es una matriz de orden n , las siguientes proposiciones son equivalentes:

a) λ es un valor propio de A .

b) El sistema de ecuaciones (λI −A)x = 0 tiene soluciones distintas de la trivial.

c) det(λI −A) = 0.

Demostracion:λ es un valor propio de A ⇐⇒ existe un vector x ∈ IRn , x 6= 0 , tal que Ax = λx ⇐⇒ el sistemaλx −Ax = (λI −A)x = 0 tiene soluciones distintas de la trivial ⇐⇒ |λI −A| = 0

Definicion 150.- Sea A una matriz de orden n . Al polinomio en λ de grado n , P(λ) = |λI − A| , se ledenomina polinomio caracterıstico de la matriz A .

Si λ un valor propio de A , llamaremos espacio caracterıstico de A correspondiente a λ al conjuntoV (λ) =

{x ∈ IRn : (λI −A)x = 0

}. Es decir, V (λ) es el conjunto formado por todos los vectores propios de

A correspondientes a λ , mas el vector cero.

Ası pues, los autovalores son las raices del polinomio caracterıstico y los vectores propios, los vectoresdistintos de cero del espacio caracterıstico asociado.

Observacion 151.- V (λ) es un subespacio y dim V (λ) ≥ 1:En efecto, es un subespacio por ser el conjunto de soluciones de un sistema homogeneo y como λ es valorpropio de A , existe x 6= 0 en V (λ), luego lin{x} ⊆ V (λ) y 1 = dim(lin{x}) ≤ dim V (λ).

Ademas, dim V (λ) = dim{

x ∈ IRn : (λI −A)x = 0}

= n− rg(λI −A).

Antes de seguir: en el estudio realizado hasta ahora, hemos buscado la diagonalizacion de matrices, separandolodel operador lineal que aparece en el planteamiento inicial del problema. Sin embargo, todo lo anterior (y losiguiente) es valido y aplicable en los terminos del operador. Pueden verse los resultados que lo justifican en elAnexo 1, pag 78.

Teorema 152.- Sean v1 , v2 , . . . , vk vectores propios de una matriz A asociados a los valores propios λ1 ,λ2 , . . . , λk respectivamente, siendo λi 6= λj , ∀ i 6= j . Entonces el conjunto de vectores {v1 , v2 , . . . , vk } eslinealmente independiente. .

Corolario 153.- Una matriz de orden n con n autovalores distintos, es diagonalizable.

Demostracion:Si la matriz tiene n autovalores distintos λ1 , λ2 , . . . , λn y de cada espacio caracterıstico V (λk) podemostomar un vector propio vk 6= 0 , tenemos n vectores propios, v1 , v2 , . . . , vn que son, por el resultadoanterior, linealmente independientes.

Prof: Jose Antonio Abia Vian I.T.I. en Electricidad

63 – Matematicas I : Algebra Lineal 6.2 Diagonalizacion

Proposicion 154.- Sea A de orden n y λk un autovalor de A de multiplicidad mk . Entonces

1 ≤ dim V (λk) ≤ mk. .

Teorema fundamental de la diagonalizacion 155.- Sea A una matriz de orden n . Entonces A es diagonali-zable si y solo si se cumplen las condiciones:

1.- El polinomio caracterıstico tiene n raices reales. Es decir, |λI − A| = (λ − λ1)m1 · · · (λ − λk)mk conm1 + m2 + · · ·+ mk = n .

2.- Para cada espacio caracterıstico V (λi), se cumple que dim V (λi) = mi . .

Aunque omitimos aquı la demostracion por ser demasiado tecnica (puede verse en el Anexo 2), en ella se aportael metodo para encontrar los n vectores propios linealmente independientes necesarios en la diagonalizacion:

Si dim V (λi) = mi para todo i = 1, . . . , k y m1 + · · · + mk = n , podemos tomar de cada V (λi) los mi

vectores de una base para conseguir el total de n vectores.

Ejemplo 156 Para la matriz A =

0 0 40 4 04 0 0

, su polinomio caracterıstico es:

P (λ) = |λI −A| =∣∣∣∣∣∣

λ 0 −40 λ− 4 0−4 0 λ

∣∣∣∣∣∣= (λ− 4)

∣∣∣∣λ −4−4 λ

∣∣∣∣ = (λ− 4)(λ2 − 42) = (λ− 4)2(λ + 4)

luego los autovalores de A son λ1 = 4 con m1 = 2 y λ2 = −4 con m2 = 1. Como λ1, λ2 ∈ IR y m1 + m2 =2 + 1 = 3 = n , se cumple la primera condicion del Teorema.

Veamos el punto 2: como 1 ≤ dim V (−4) ≤ m2 = 1 la condicion dim V (−4) = 1 se cumple de manerainmediata (y se cumple siempre para cualquier autovalor con multiplicidad 1). Para el otro autovalor, λ1 = 4:

dim V (4) = 3− rg(4I −A) = 3− rg

4 0 −40 0 0−4 0 4

= 3− rg

4 0 −40 0 00 0 0

= 3− 1 = 2 = m1

luego tambien se cumple y, en consecuencia, la matriz diagonaliza.Como los elementos de V (4) son las soluciones del sistema homogeneo (4I − A)X = 0, tenemos que

V (4) = lin{(1, 0, 1), (0, 1, 0)} ; y los elementos V (−4) las soluciones del sistema (−4I − A)X = 0, tenemosque V (−4) = lin{(1, 0,−1)} . En consecuencia, los tres vectores son autovectores y linealmente independientes,cumpliendose que:

P−1AP =

1 0 10 1 01 0 −1

−1

0 0 40 4 04 0 0

1 0 10 1 01 0 −1

=

4 0 00 4 00 0 −4

= D 4

Ejemplo La matriz A =

0 2 40 4 04 2 0

tiene por polinomio caracterıstico P (λ) = (λ− 4)2(λ + 4), luego tiene

por autovalores λ1 = 4 con m1 = 2 y λ2 = −4 con m2 = 1.Como m1 + m2 = 2 + 1 = 3 se cumple el primer punto; y por ser m2 = 1, tambien se cumple que

dim V (−4) = 1. Veamos para el otro autovalor:

rg(4I−A) = rg

4 −2 −40 0 0−4 −2 4

= rg

4 −2 −40 0 00 −4 0

= 2 = 3−dim V (4) luego dim V (4) = 3−2 = 1 6= m1 = 2.

En consecuencia, la matriz A no diagonaliza.(Si dim V (4) = 1 y dim V (−4) = 1 de cada uno de ellos podemos conseguir, a lo mas, un vector propio lineal-

mente independiente; luego en total, podremos conseguir a lo mas dos autovectores linealmente independientes.No conseguimos los tres necesarios, luego no diagonaliza.) 4

Prof: Jose Antonio Abia Vian I.T.I. en Electricidad

64 – Matematicas I : Algebra Lineal 6.3 Diagonalizacion ortogonal

6.3 Diagonalizacion ortogonal

Teorema 157.- Sea A una matriz de orden n , entonces son equivalentes:

1.- A es diagonalizable ortogonalmente.

2.- A tiene un conjunto de n vectores propios ortonormales.

Demostracion:En efecto, A es diagonalizable ortogonalmente ⇐⇒ existe P ortogonal tal que P tAP = D (con D diagonal)⇐⇒ existe P ortogonal tal que AP = PD .

Si llamamos p1 , p2 , . . . , pn a los vectores columnas de P , estos vectores son ortonormales y lo anterior es

lo mismo que escribir Ap1 = λ1p1 , . . . , Apn = λn pn , supuesto que D =

λ1 0 · · · 00 λ2 · · · 0...

.... . .

...0 0 · · · λn

, y como al ser

P inversible se tiene que p1 , p2 , . . . , pn son linealmente independientes y por tanto no nulos ⇐⇒ A tienen vectores propios ortonormales.

Lema 158.- Si A es una matriz simetrica, entonces los vectores propios que pertenecen a valores propiosdistintos son ortogonales.

Demostracion:Sean λ1 y λ2 valores propios distintos de una matriz simetrica A y sean u y v vectores propios correspon-dientes a λ1 y λ2 respectivamente.

Tenemos que probar que u t v = 0. (Notar que u tAv es un escalar).Se tiene que u tAv = (u tAv )t = v tAu = v tλ1 u = λ1v t u = λ1 u t v ,y por otra parte que u tAv = u tλ2v = λ2 u t v ,por tanto λ1 u t v = λ2u t v ⇒ (λ1 − λ2)u t v = 0 y como λ1 − λ2 6= 0, entonces u t v = 0.

Teorema fundamental de la diagonalizacion ortogonal 159.- Una matriz A de orden n es diagonalizableortogonalmente si y solo si A es simetrica. .

El Lema 158 y el resaltado que apostilla el Teorema fundamental de diagonalizacion 155 nos indican la manerade encontrar los n vectores propios ortonormales linealmente independientes:

Si tomamos en cada V (λi) los vectores de una base ortonormal, conseguiremos el total de n vectoresortonormales.

Ejemplo La matriz A =

0 0 40 4 04 0 0

del Ejemplo 156, es simetrica luego diagonaliza ortogonalmente y

V (4) = lin{(1, 0, 1), (0, 1, 0)} y V (−4) = lin{(1, 0,−1)} .Si tomamos una base ortonormal en cada uno de ellos, por ejemplo V (4) = lin{( 1√

2, 0, 1√

2), (0, 1, 0)} y

V (−4) = lin{( 1√2, 0, −1√

2)} , los tres vectores juntos forman un conjunto ortonormal, cumpliendose que:

P tAP =

1√2

0 1√2

0 1 01√2

0 −1√2

t

0 0 40 4 04 0 0

1√2

0 1√2

0 1 01√2

0 −1√2

=

4 0 00 4 00 0 −4

= D 4

6.4 Ejercicios

6.50 Hallar los polinomios caracterısticos, los valores propios y bases de los espacios caracterısticos de lassiguientes matrices:

a)( −2 −7

1 2

)b)

5 6 20 −1 −81 0 −2

c)

4 0 1−2 1 0−2 0 1

Prof: Jose Antonio Abia Vian I.T.I. en Electricidad

65 – Matematicas I : Algebra Lineal 6.4 Ejercicios

6.51 Sea T : M2×2 −→ M2×2 el operador lineal definido por:

T

(a bc d

)=

(2c a + c

b− 2c d

)

Hallar los valores propios de T y bases para los subespacios caracterısticos de T .

6.52 Demostrar que λ = 0 es un valor propio de una matriz A si y solo si A es no inversible.

6.53 Probar que el termino constante del polinomio caracterıstico P (λ) = |λI −A| de una matriz A de ordenn es (−1)n det(A).

6.54 Demostrar que si λ es un valor propio de A entonces λ2 es un valor propio de A2 . Demostrar porinduccion que, en general, λn es un valor propio de An , ∀n ∈ IN .

6.55 Estudiar si son o no diagonalizables las siguientes matrices y en caso de que lo sean hallar una matriz Ptal que P−1AP = D con D matriz diagonal:

a)

3 0 00 2 00 1 2

b)

( −14 12−20 17

)c)

−1 4 −2−3 4 0−3 1 3

6.56 Sea T : IR3 −→ IR3 el operador lineal T

x1

x2

x3

=

2x1 − x2 − x3

x1 − x3

−x1 + x2 + 2x3

. Hallar una base de IR3 respecto

de la cual la matriz de T sea diagonal.

6.57 Sea P1(x) el espacio vectorial de los polinomios de grado menor o igual a 1. Sea T : P1(x) −→ P1(x) eloperador lineal T (a0 + a1x) = a0 + (6a0 − a1)x . Hallar una base de P1(x) respecto de la cual la matrizde T sea diagonal.

6.58 Sea A una matriz de orden n y P una matriz inversible de orden n . Demostrar por induccion que(P−1AP )k = P−1AkP , ∀k ∈ IN .

6.59 Calcular A40 siendo A =(

1 0−1 2

).

6.60 Estudiar la diagonalizabilidad de la matriz A , dada en funcion de los parametros a y b , siendo A =

5 0 00 −1 a3 0 b

. En los casos posibles diagonalizarla.

6.61 Sea A una matriz de orden 2 tal que A2 = I . Probar que A es diagonalizable.

6.62 Hallar una matriz P que diagonalice ortogonalmente a A y calcular P−1AP para cada una de lassiguientes matrices:

a)( −7 24

24 7

)b)

2 −1 −1−1 2 −1−1 −1 2

c)

5 −2 0 0−2 2 0 00 0 5 −20 0 −2 2

6.63 a) Demostrar que si D es una matriz diagonal con elementos no negativos entonces existe una matrizS tal que S2 = D .

b) Demostrar que si A es una matriz diagonalizable con valores propios no negativos entonces existeuna matriz S tal que S2 = A .

6.64 Probar que A y At tienen los mismos valores propios siendo A una matriz de orden n .

6.65 Sea A una matriz de orden n y P (λ) = |λI−A| . Probar que el coeficiente de λn−1 en P (λ) es el opuestode la traza de A .

6.66 Sea A una matriz de orden n inversible, demostrar que los valores propios de A−1 son los inversos de losvalores propios de A .

6.67 Sea A una matriz de orden n ortogonal, probar que todos los valores propios de A son uno o menos uno.

Prof: Jose Antonio Abia Vian I.T.I. en Electricidad

66 – Matematicas I : Algebra Lineal 6.4 Ejercicios

6.68 Se sabe que (1, 0, 0), (1, 1, 0), (0, 1, 0) y (0, 0, 1) son vectores propios de una matriz de orden 3 y que hayvectores de IR3 que no lo son. Calcular todos los vectores propios de la matriz.

6.69 Se dan las siguientes ecuaciones de recurrencia:{

un = 3un−1 + 3vn−1

vn = 5un−1 + vn−1. Utilizar la diagonalizacion para

calcular un y vn en funcion de n , sabiendo que u0 = v0 = 1.

6.70 Los dos primeros terminos de una sucesion son a0 = 0 y a1 = 1. Los terminos siguientes se generan apartir de ak = 2ak−1 + ak−2; k ≥ 2. Hallar a127 .

6.71 El propietario de una granja para la crıa de conejos observo en la reproduccion de estos que:

i). Cada pareja adulta (con capacidad reproductora) tiene una pareja de conejos cada mes.

ii). Una pareja recien nacida tarda dos meses en tener la primera descendencia.

Si partimos de una pareja adulta y siendo an el numero de parejas nacidas en el n-esimo mes (a0 = 0),se pide:

a) Obtener una formula recurrente para an en funcion de terminos anteriores.

b) Probar que an =(1 +

√5)n − (1−√5)n

2n√

5

c) Calcular, si existe: lımn→∞

an+1

an.

6.72 Sea el determinante n×n siguiente:

Dn =

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

3 1 0 0 · · · 0 01 3 1 0 · · · 0 00 1 3 1 · · · 0 00 0 1 3 · · · 0 0...

......

.... . .

......

0 0 0 0 · · · 3 10 0 0 0 · · · 1 3

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

Dar una expresion de Dn en funcion de los determinantes de tamano menor que n y obtener las ecuacionesde recurrencia para hallar su valor.

6.73 Determinar para que valores de a , b y c son diagonalizables simultaneamente las matrices

A =

1 a b0 2 c0 0 2

y B =

1 a b0 1 c0 0 2

6.74 Estudiar para que valores de a , b y c es diagonalizable la matriz A =

c 2a 0b 0 a0 2b −c

6.75 Dada la matriz A =

a −a 0−a a 0b 0 2b

. Estudiar para que valores de a y b la matriz A es diagonalizable.

6.76 Sea f : IR3 −→ IR3 el operador lineal cuya matriz asociada a la base canonica es:

A =

m 0 00 m 11 n m

a) Determinar para que valores de m y n existe una base de IR3 de tal forma que la matriz en esa basesea diagonal. En los casos que f sea diagonalizable calcular una base en la cual la matriz de f seadiagonal.

b) Si n = 0, observando la matriz A y sin hacer ningun calculo, determinar un valor propio y un vectorpropio asociado a dicho valor propio, razonando la respuesta.

Prof: Jose Antonio Abia Vian I.T.I. en Electricidad

67 – Matematicas I : Algebra Lineal 6.4 Ejercicios

6.77 Dada la matriz A =

−1 0 0 0a −1 0 0b d 1 1c e f 1

. Encontrar para que valores de los parametros a, b, c, d, e, f ∈ IR

la matriz A es diagonalizable. Para dichos valores encontrar las matrices P y D tales que P−1AP = D ,donde D es una matriz diagonal.

6.78 En IR4 consideramos el subconjunto: S = {(x1, x2, x3, x4) / x2− x4 = 0} . Sea T : IR4 −→ IR4 el operadorlineal que verifica:

(i) ker(T ) = {x ∈ IR4 / < x , y >= 0, ∀y ∈ S} .

(ii) T (1, 0, 0, 0) = (−1, 3, 1,−2).

(iii) T (1, 1, 1, 1) = (−3,m, n, p).

(iv) El subespacio solucion del sistema:{

x1 + x2 + x3 + x4 = 0x2 + 2x3 + 2x4 = 0 es el conjunto de vectores propios

correspondientes a un mismo valor propio de T.

Se pide:

a) Probar que S es un subespacio vectorial de IR4 .

b) Hallar ker(T ).

c) Encontrar una base para el subespacio de vectores propios de la propiedad (iv).

d) Una matriz de T , indicando las bases de referencia.

6.79 Sean f : IR4 −→ IR4 un operador lineal, y B = {e1, e2, e3, e4} la base canonica de IR4 , verificando losiguiente:

(i) f(e1) ∈ H = {x ∈ IR4 / x2 = 0}(ii) f(e2) ∈ S = {x ∈ IR4 / x2 = 1 y x4 = 0}(iii) f(e3) = (α, β, 1,−2); f(e4) = (1, 0,−2, γ)

(iv) ker f es el conjunto de soluciones del sistema:

2x1 + x2 + 2x3 − 2x4 = 03x1 + 3x2 + x3 + x4 = 0x1 − x2 − x3 + 3x4 = 0

(v) Las ecuaciones implıcitas de la imagen de f son y1 − 2y3 − y4 = 0.

(vi) El operador f es diagonalizable.

Hallar una matriz de f , indicando las bases de referencia.

Prof: Jose Antonio Abia Vian I.T.I. en Electricidad

68 – Matematicas I : Algebra Lineal

Tema 7

Formas cuadraticas

Aunque, pueda parecernos que vamos a estudiar un nuevo concepto, un caso particular de las formas cudraticasya ha sido estudiado, pues el cuadrado de la norma de un vector no es mas que una forma cuadratica (comoveremos definida positiva). Aquı, las estudiaremos de forma general.

Definicion 160.- Sean V un espacio vectorial de dimension n y B una base V . Si (x1, . . . , xn) = [x]tB yaij ∈ IR , con 1≤ i, j≤n , se denomina forma cuadratica sobre V a toda funcion polinomica Q: V −→ IR dela forma

Q(x) =n∑

i,j=1

aijxixj =(

x1 x2 · · · xn

)

a11 a12 · · · a1n

a21 a22 · · · a2n

......

. . ....

an1 an2 · · · ann

x1

x2

...xn

= [x]tB A [x]B

Es decir, una forma cuadratica es un polinomio homogeneo de grado 2 y n variables.

La escritura de Q en la forma Q(x) = [x ]tB A [x ]B se denomina expresion matricial de la forma cuadratica.De hecho, se puede expresar siempre mediante una matriz simetrica ya que

[x ]tB A [x ]B =n∑

i,j=1

aijxixj = [x ]tBA+At

2 [x ]B

y la matriz S = A+At

2 es simetrica (St = (A+At

2 )t = At+(At)t

2 = At+A2 = S). En efecto:

Si en la expresion de la forma cuadratica, Q(x) =n∑

i,j=1

aijxixj , consideramos los pares de sumandos de la

forma aijxixj y ajixjxi , se tiene que

aijxixj + ajixjxi = (aij + aji)xixj =aij + aji

2xixj +

aij + aji

2xjxi = sijxixj + sjixjxi

Luego hemos probado el siguiente resultado:

Proposicion 161.- Toda forma cuadratica Q sobre V , se puede expresar matricialmente como

Q(x) = [x]tBA[x]B

donde A es una matriz simetrica.

La matriz simetrica A , se denomina matriz asociada a la forma cuadratica Q en la base B .

Ejemplo Para la forma cuadratica Q(x) = x2 + 2xy + 2y2 + 3yz + 5z2 tambien tenemos queQ(x) = x2 + 2xy + 2y2 + 3yz + 5z2 = x2 + xy + yx + 2y2 + 3

2yz + 32zy + 5z2

luego

Q(x) = (x, y, z)

1 2 00 2 30 0 5

xyz

= (x, y, z)

1 1 01 2 3

20 3

2 5

xyz

= [x ]tB A [x ]B

y la matriz simetrica A es la matriz de Q en la base B . 4

Teorema 162.- Sean B y B′ dos bases de V , P la matriz de paso de B′ a B y A la matriz simetrica de Qen la base B . Entonces, la matriz de Q en la base B′ , A′ , se obtiene de

A′ = P tAP

Prof: Jose Antonio Abia Vian I.T.I. en Electricidad

69 – Matematicas I : Algebra Lineal 7.1 Diagonalizacion de una forma cuadratica

Demostracion:Como P es matriz de cambio de base verifica que [x]B = P [x]B′ , y , sustituyendo en Q , tenemos que

Q(x) = [x]tBA[x]B = (P [x]B′)tA(P [x]B′) = [x]tB′(PtAP )[x]B′ x ∈ V

luego A′ = P tAP y es tambien simetrica A′t = (P tAP )t = P tAt(P t)t = P tAP = A′ .

Definicion 163.- Dos matrices simetricas se dice que son congruentes cuando son matrices asociadas a lamisma forma cuadratica en distintas bases.

Es decir, A y A′ simetricas son congruentes, si existe P inversible tal que A′ = P tAP .

Nota: Las matrices congruentes no son, en general, semejantes (solo coinciden congruencia y semejanza cuandola matriz P es ortogonal, P t = P−1 ).

7.1 Diagonalizacion de una forma cuadratica

La matriz asociada a una forma cuadratica es simetrica, y una matriz simetrica es diagonalizable ortogonalmente,luego siempre podemos obtener una matriz congruente con la inicial que sea diagonal.

7.1.1 Diagonalizacion ortogonal

Sea B una base de V y Q(x) = [x]tB A [x]B la expresion matricial de una forma cuadratica sobre V . Puestoque A es simetrica, existe una base B∗ tal que la matriz P de cambio de base de B∗ a B es ortogonal y

D = P−1AP = P tAP , con D diagonales decir, que D y A son congruentes (ademas de semejantes). Luego en B∗ , se tiene que

Q(x) = [x]tB∗ P tAP [x]B∗ = [x]tB∗ D [x]B∗ = λ1y21 + . . . + λny2

n

es decir, la forma cuadratica se expresara como una suma de cuadrados, donde (y1, . . . , yn) = [x]tB∗ y λ1, . . . , λn

son los valores propios de A .

Ejemplo 164 Reducir a suma de cuadrados la forma cuadratica Q(x) = xy + yz .

Q(x) = (x, y, z)

0 12 0

12 0 1

20 1

2 0

xyz

y |λI −A| =

∣∣∣∣∣∣

λ − 12 0

− 12 λ − 1

20 − 1

2 λ

∣∣∣∣∣∣= (λ− 1√

2)(λ + 1√

2)λ

luego 1√2, −1√

2y 0 son los valores propios de A . Entonces, A es congruente con D =

1√2

0 00 −1√

20

0 0 0

, y existira,

por tanto, una base B∗ en la cual Q(x) = [x ]tB∗D[x ]B∗ = 1√2x2∗ − 1√

2y2∗. 4

7.1.2 Diagonalizacion mediante operaciones elementales

La diagonalizacion ortogonal, propuesta para hallar una matriz asociada a la forma cuadratica que sea diagonal,puede ser dificil de llevar a cabo (o imposible en ocasiones) pues supone encontrar las raices de un polinomio.Sin embargo, como se buscan matrices diagonales que sean congruentes y no es necesario que tambien seansemejantes, es posible disponer de otros metodos mas sencillos pero igualmente eficaces para obtener una matrizdiagonal.

El mas interesante para nosotros, se basa de nuevo en hacer operaciones elementales sobre la matriz. La ideadel metodo es la siguiente: haciendo operaciones elementales en las filas de la matriz podemos conseguir unamatriz triangular inferior, pero como necesitamos que la matriz obtenida sea simetrica (debe ser congruentecon la inicial), despues de cada operacion que hagamos en las filas repetiremos la misma operacion sobre lascolumnas. Tras cada doble paso (operacion sobre las filas y misma operacion sobre las columnas) la matrizobtenida sera simetrica y congruente con la inicial y, al final obtendremos la matriz diagonal.

Prof: Jose Antonio Abia Vian I.T.I. en Electricidad

70 – Matematicas I : Algebra Lineal 7.2 Rango y signatura de una forma cuadratica. Clasificacion

La justificacion no es dificil si usamos las matrices elementales que representan a cada operacion elemental(ver la subseccion 2.2.1 sobre matrices elementales en la pagina 17), pues: si E es una matriz elemental, lamatriz EA realiza la operacion elemental sobre las filas de A y tomando la traspuesta de A , EAt realiza laoperacion sobre las columnas de A . Entonces: la matriz E(EA)t realiza la operacion sobre las columnas de lamatriz en la que ya hemos realizado la operacion de las filas; pero como E(EA)t = EAtEt = EAEt (por serA simetrica), esta matriz es simetrica y congruente con A (pues E es inversible). Luego repitiendo el procesohasta obtener una matriz diagonal:

D = EkEk−1 · · ·E1 AEt1 · · ·Et

k−1Etk = (EkEk−1 · · ·E1)A (EkEk−1 · · ·E1)t = P tA(P t)t = P tAP

que sera congruente con A pues P es inversible al ser producto de inversibles.

Podemos utilizar el siguiente procedimiento para diagonalizar la matriz A y obtener la matriz del cambiode base simultaneamente.

Diagonalizacion congruente mediante operaciones elementales 165.- Se situa a la derecha de A la matrizI del mismo orden que A , (A | I) y efectuamos en A las mismas operaciones elementales en sus filas y en suscolumnas y en la matriz identidad solo en sus columnas, al cabo de un numero finito de pasos obtendremos(D | P ).

(Si en I efectuamos las operaciones en las filas, al final obtendremos (D | P t) en lugar de P .)

Ejemplo 166 Se considera Q(x) = 2x2 +2xy+2yz +3z2 una forma cuadratica sobre IR3 , reducir Q a sumade cuadrados y hallar la matriz del cambio de base.

Solucion: Si x = (x, y, z), se tiene que A=

2 1 01 0 10 1 3

, es la matriz de Q en la base canonica. Para obtener

una matriz congruente con A que sea diagonal, hacemos el proceso de (A|I) → (D|P ), detallando la primeravez como deben darse los pasos de efectuar cada operacion:

(A|I)=

(2 1 0 1 0 01 0 1 0 1 00 1 3 0 0 1

)→

{F A

2 − 12F A

1

}→

(2 1 0 1 0 00 −1

21 0 1 0

0 1 3 0 0 1

)→

{CA

2 − 12CA

1

}→

(2 0 0 1 0 00 −1

21 0 1 0

0 1 3 0 0 1

)

→{CI

2 − 12CI

1

}→

(2 0 0 1 −1

20

0 −12

1 0 1 00 1 3 0 0 1

)→

F A3 + 2F A

2

CA3 + 2CA

2

CI3 + 2CI

2

(2 0 0 1 −1

2−1

0 −12

0 0 1 20 0 5 0 0 1

)=(D|P )

Tenemos entonces la matriz diagonal, D =

2 0 00 − 1

2 00 0 5

, y la matriz, P =

1 − 12 −1

0 1 20 0 1

, de paso de

la base B∗ ={

(1, 0, 0), (−12 , 1, 0), (−1, 2, 1)

}a la canonica, que verifican que P tAP = D . Por tanto, si

(x∗, y∗, z∗) = [x]tB∗ , se tiene que Q(x) = 2x2∗ − 1

2y2∗ + 5z2

∗ . 4

7.2 Rango y signatura de una forma cuadratica. Clasificacion

Hemos visto distintos metodos de encontrar matrices diagonales asociadas a una forma cuadratica, por lo queexistiran tambien distintas matrices diagonales. Sin embargo, todas ellas tienen algunas cosas en comun: tienenel mismo numero de elementos distintos de cero en la diagonal (el mismo rango) y tienen el mismo numero deelementos positivos y de elementos negativos en la diagonal (la misma signatura).

En este capıtulo veremos como estos valores permanecen invariantes para cualquier diagonalizacion quehagamos, lo que nos permitira, posteriormente, dar una clasificacion de las formas cuadraticas.

Teorema 167.- Dos matrices congruentes tienen el mismo rango.

Demostracion:Sea A una matriz simetrica de rango n y A′ = P tAP con P inversible. Consideremos la aplicacion linealf : IRn −→ IRn dada por f(x) = Ax , luego A es la matriz de f en la base canonica, Bc . Como P es inversible,sus columnas forman una base B′ de IRn y P es la matriz de cambio de base de B′ a Bc ; y como (P t)−1 esinversible, sus columnas forman una base B′′ de IRn y (P t)−1 es la matriz de cambio de base de B′′ a Bc , porlo que P t es la matriz de paso de Bc a B′′ .

Prof: Jose Antonio Abia Vian I.T.I. en Electricidad

71 – Matematicas I : Algebra Lineal 7.2 Rango y signatura de una forma cuadratica. Clasificacion

Entonces, la matriz A′ = P tAP es la matriz de la aplicacion f asociada a las bases B′ y B′′ , pues

A′[x ]B′ = P tAP [x ]B′ = P tA[x ]Bc = P t[f(x)]Bc = [f(x)]B′′

por lo que A′ y A son matrices asociadas a la misma aplicacion lineal, luego rg(A) = rg(A′).

Definicion 168.- Llamaremos rango de una forma cuadratica, al rango de cualquier matriz simetrica asociadaa la forma cuadratica en alguna base.

Observacion:Del teorema anterior, se deduce entonces que dos cualesquiera matrices diagonales asociadas a la misma formacuadratica tienen el mismo numero de elementos en la diagonal distintos de cero, –pues este numero es el rangode la matriz diagonal–.

Teorema de Sylvester o Ley de inercia 169.- Si una forma cuadratica se reduce a la suma de cuadrados endos bases diferentes, el numero de terminos que aparecen con coeficientes positivos, ası como el numero determinos con coeficientes negativos es el mismo en ambos casos. .

Definicion 170.- Sea Q una forma cuadratica y D una matriz diagonal asociada a Q . Se define comosignatura de Q al par Sig(Q) = (p, q) donde p es el numero de elementos positivos en la diagonal de D y qes el numero de elementos negativos de la misma.

7.2.1 Clasificacion de las formas cuadraticas

Definicion 171.- Se dice que una forma cuadratica Q es

a) Nula si Q(x) = 0 para todo x .

b) Definida positiva si Q(x) > 0, para todo x no nulo.

c) Semidefinida positiva si Q(x) ≥ 0, para todo x y Q no es nula ni definida positiva.

d) Definida negativa si Q(x) < 0, para todo x no nulo.

e) Semidefinida negativa si Q(x) ≤ 0, para todo x y Q no es nula ni definida negativa.

f) Indefinida si Q(x) alcanza tanto valores positivos como negativos, es decir, si ∃ x1 6= 0 tal queQ(x1 ) > 0 y ∃ x2 6= 0 tal que Q(x2 ) < 0.

Para las formas cuadraticas sobre IR2 , podemos dar una representacion de ellas usando superficies en IR3

asignando a z el valor de la forma cuadratica en (x, y), es decir, haciendo z = d1x2 +d2y

2 . Con estas premisas,hemos realizado la figura 7.1 que aparece en la pagina 72.

Teorema de clasificacion 172.- Sea Q una forma cuadratica en un espacio vectorial de dimension n . Severifica:

a) Q es nula ⇐⇒ Sig(Q) = (0, 0)

b) Q es definida positiva ⇐⇒ Sig(Q) = (n, 0).

c) Q es semidefinida positiva ⇐⇒ Sig(Q) = (p, 0) con 0 < p < n .

d) Q es definida negativa ⇐⇒ Sig(Q) = (0, n).

e) Q es semidefinida negativa ⇐⇒ Sig(Q) = (0, q) con 0 < q < n .

f) Q es indefinida ⇐⇒ Sig(Q) = (p, q) con 0 < p, q . .

Ejemplo Las formas cuadraticas de los ejemplos 164 y 166 anteriores son ambas indefinidas, pues en elprimer ejemplo Q(x) = 1√

2x2∗ − 1√

2y2∗ en una base, luego Sig(Q) = (1, 1). En el segundo ejemplo, se escribe

Q(x) = 2x2∗ − 1

2y2∗ + 5z2

∗ en una base y Sig(Q) = (2, 1).

Prof: Jose Antonio Abia Vian I.T.I. en Electricidad

72 – Matematicas I : Algebra Lineal 7.3 Ejercicios

Fig. 7.1. Graficas de las formas cuadraticas de IR2 : definida positiva, definida negativa, indefinida, semidefinida positiva,semidefinida negativa y nula

Un ejemplo de forma cuadratica definida positiva, lo tenemos con el cuadrado de la norma de un vector(ver la observacion de la pagina 47 sobre la expresion matricial de un producto interior), pues se verifica queQ(v ) = ‖v‖2 = 〈v , v 〉 > 0 si v 6= 0 . 4Para finalizar –y aunque puede obtenerse sin mucho coste una matriz diagonal mediante operaciones elementales–damos, sin demostracion, una proposicion que puede ser util por su version practica, pues engloba variosresultados para clasificar una forma cuadratica usando la matriz inicial:

Proposicion 173.- Sea Q una forma cuadratica y A su matriz asociada. Denotemos por ∆k , el k -esimomenor principal de A , para cada 1 ≤ k ≤ n :

∆1 = |a11| ∆2 =∣∣∣∣a11 a12

a21 a22

∣∣∣∣ · · · ∆k =

∣∣∣∣∣∣∣

a11 · · · a1k

.... . .

...ak1 · · · akk

∣∣∣∣∣∣∣· · · ∆n = |A|

Entonces:

a) Q es definida positiva si, y solo si, ∆k > 0, para 1 ≤ k ≤ n .

b) Q es definida negativa si, y solo si, (−1)k∆k > 0, para 1 ≤ k ≤ n .

c) Si ∆n = det(A) 6= 0 y no se esta en alguno de los casos anteriores, entonces Q es indefinida.

d) Si existe i tal que aii ≤ 0 (resp. aii ≥ 0 ), entonces Q no es definida positiva (resp. no es definidanegativa).

e) Si existen i y j , con i 6= j , tales que aii = 0 y aij 6= 0, entonces Q es indefinida.

7.3 Ejercicios

7.80 Clasificar cada una de las formas cuadraticas siguientes, y reducir a suma de cuadrados:

Prof: Jose Antonio Abia Vian I.T.I. en Electricidad

73 – Matematicas I : Algebra Lineal 7.3 Ejercicios

a) Q(x) = x2 + y2 + z2 − (xz + xy + yz).

b) Q(x) = x2 + y2 + z2 − 4(xz + xy + yz).

c) Q(x) = 8x2 + 6y2 + 3z2 + 4xy + 8xz + 4yz .

d) Q(x) = x2 + 2y2 + z2 + 2xy + xz .

e) Q(x) = x2 + 2xy + 3y2 + 4xz + 6yz + 5z2 .

f) Q(x) = 3x2 + 4y2 + 5z2 + 4xy − 4yz .

g) Q(x) = 2x2 + 5y2 + 5z2 + 4xy − 4yz − 8zx .

h) Q(x) = x2 + y2 + 2z(x cosα + y sen α).

7.81 Sean las formas cuadraticas Qi: IRn −→ IR dadas por Qi(x) = x tAi x , con x = (x1, . . . , xn), siendo

A1 =

1 1 01 0 1−1 0 0

A2 =

3 −2 11 6 2−3 0 7

A3 =

5 −2 0 −1−2 2 0 10 3 1 −20 0 −2 2

A4 =

2 0 0 01 3 2 0−1 −2 −1 00 0 0 −1

Obtener, para cada Qi , la matriz asociada a la base canonica del espacio correspondiente, una matrizdiagonal congruente y la base respecto de la que es diagonal.

7.82 Sean B1 y B2 bases respectivas de los espacios V y W y sea A =

6 5 3 03 1 0 −33 3 2 1

la matriz de una aplica-

cion lineal f : V −→ W en las bases B1 y B2 . Tomemos Q: V −→ IR dada por Q(v ) = [f(v )]tB2[f(v )]B2 .

a) ¿Cuales son las dimensiones de V y W ?

b) Obtener la matriz de Q en la base B1 y comprobar que es una forma cuadratica.

c) ¿Cual es su clasificacion?

7.83 Clasificar, segun los valores de m , la familia de formas cuadraticas:

Q(x) = x2 + y2 + z2 + 2m(xy + xz).

7.84 Se considera la familia de formas cuadraticas Q(x) = xtAx , siendo A =

a 0 c0 a + c 0c 0 a

. Utilizando dos

metodos diferentes, expresar Q como suma de cuadrados.

7.85 Sea A =

a 1 11 a 11 1 a

.

a) Para a = 3, encontrar P que diagonalice a A .

b) Para a = 3, calcular (5A)10 .

c) Sea Q(x) = xtAx , clasificar Q segun los valores de a .

7.86 Sean A =

a b 0b a b0 b a

y B =

{v1 =(1, 1, 1), v2 =(1,−1, 0), v3 =(0, 1,−1)

}. Se pide

a) Clasificar la forma cuadratica Q(x) = [x]tBA[x]B , segun los valores de a y b .

b) Para a = 0 y b = 1, hallar una base B′ tal que Q(x) = [x]tB′D[x]B′ , con D diagonal.

7.87 Sea A =

a 0 b0 a 0b 0 a

a) ¿Para que valores de a y de b es Q(x) = xtAx > 0, ∀x 6= 0 ?

b) Si a = −1 y ∀ b , reducir Q a suma de cuadrados.

c) Si a = −1, ¿para que valores de b es Q(x) < 0, ∀x 6= 0 ?

Prof: Jose Antonio Abia Vian I.T.I. en Electricidad

74 – Matematicas I : Algebra Lineal 7.3 Ejercicios

7.88 Sea Q: IRn −→ IR una forma cuadratica no nula cuya matriz asociada en la base canonica es A .

a) Si λ ∈ IR− {0} , probar que Q(x) y Q(λx) tienen el mismo signo.

b) Para que valores de λ ∈ IR es cierto que Q(λx) = λQ(x).

c) Deducir de lo anterior, que en general no es cierta la igualdad Q(x + y ) = Q(x) + Q(y ).

d) Si la forma cuadratica Q′: IRn −→ IR tiene a A′ como matriz en la base canonica, ¿cual sera la matrizde la forma cuadratica (Q + Q′)(x) = Q(x) + Q′(x)?

7.89 Sea A la matriz de orden n asociada a una forma cuadratica definida positiva y P una matriz de ordenn .

a) Si P es inversible, probar que la matriz P tAP es definida positiva.

b) Si P es no inversible, probar que la matriz P tAP es semidefinida positiva.

Prof: Jose Antonio Abia Vian I.T.I. en Electricidad

75 – Matematicas I : Algebra Lineal

Anexo 1: Demostraciones

Espacios vectoriales

Demostracion de: Propiedades 89 de la pagina 41

Propiedades 89.- Algunas propiedades que se deducen de las anteriores son:

(i) 0u = 0 . (ii) k0 = 0 . (iii) (−1)u = −u .

(iv) ku = 0 ⇐⇒ k = 0 o u = 0 .

(v) El vector cero de un espacio vectorial es unico.

(vi) El vector opuesto de cada vector del espacio vectorial es unico.

Demostracion:

(i) Como 0u = (0 + 0)u = 0u + 0u , si sumamos a cada lado de la igualdad el opuesto de 0u , tenemos que0u + (−0u) = 0u + 0u + (−0u) luego 0 = 0u + 0 = 0u .

(ii) Como k0 = k(0 + 0) = k0 + k0 , si sumamos a cada lado de la igualdad el opuesto de k0 , tenemos quek0 + (−k0) = k0 + k0 + (−k0) luego 0 = k0 + 0 = k0 .

(v) Si w verifica que w + u = u , entonces w + u + (−u) = u + (−u) de donde w + 0 = 0 y w = 0 .En consecuencia, el vector cero es unico.

(vi) Si w verifica que w + u = 0 , entonces w + u +(−u) = 0 +(−u) de donde w + 0 = −u y w = −u .En consecuencia, el vector opuesto es unico.

(iii) Veamos que (−1)u es el opuesto u : u + (−1)u = 1u + (−1)u = (1 + (−1))u = 0u = 0 .

(iv) Si ku = 0 y k 6= 0, entonces 1kku = 1

k 0 = 0 . Luego 0 = 1kku = ( 1

kk)u = 1u = u .

La implicacion en el otro sentido es evidente por (i) y (ii).

Demostracion de: Lema 96 de la pagina 43

Lema 96.- Si S es un conjunto linealmente independiente de vectores de V y v ∈ V −linS , entonces S∪{v}es linealmente independiente.

Demostracion:Sea S = {u1 , u2 , . . . , ur } es un conjunto linealmente independiente de vectores V y sea v ∈ V que nopertenece a lin S . Entonces, en la igualdad vectorial

λ1 u1 + λ2u2 + · · ·+ λr ur + λv = 0 〈7.1〉el coeficiente λ debe ser cero, pues si no lo es, podemos despejar v = −λ1

λ u1 − λ2λ u2 − · · · − λr

λ ur y vestarıa generado por los vectores de S , lo que no es cierto. Ahora bien, como λ = 0, la ecuacion 7.1 se reducea λ1 u1 + λ2u2 + · · ·+ λr ur = 0 y en consecuencia, todos los λi son cero por ser los vectores ui linealmenteindependientes.

Demostracion de: Lema 97 de la pagina 43

Prof: Jose Antonio Abia Vian I.T.I. en Electricidad

76 – Matematicas I : Algebra Lineal Anexo 1

Lema 97.- Sean V un espacio vectorial y B una base de V formada por n vectores. Entonces cualquierconjunto {v1 , v2 , . . . , vm} de vectores de V , con m > n , es linealmente dependiente.

Demostracion:Sea B = {w1 , w2 , . . . , wn } la base de V . Cada vector vk del conjunto {v1 , v2 , . . . , vm } puede expresarsecomo combinacion lineal de los vectores de B , en la forma

vk = ak1w1 + ak2w2 + · · ·+ akn wn , para cada k = 1, . . . ,mEl conjunto es linealmente dependiente si la ecuacion λ1v1 + λ2 v2 + · · · + λm vm = 0 tiene multiples

soluciones. Sustituyendo:

0 = λ1(a11w1 + a12w2 + · · ·+ a1nwn) + λ2(a21w1 + a22w2 + · · ·+ a2nwn)+ · · ·+ λm(am1w1 + am2w2 + · · ·+ amnwn)

= (λ1a11 + λ2a21 + · · ·+ λmam1)w1 + (λ1a12 + λ2a22 + · · ·+ λmam2)w2

+ · · ·+ (λ1a1n + λ2a2n + · · ·+ λmamn)wn

Como B es un conjunto linealmente independiente de vectores, se tiene el sistema lineal

λ1a11 + λ2a21 + · · ·+ λmam1 = 0λ1a12 + λ2a22 + · · ·+ λmam2 = 0

· · · · · · = 0λ1a1n + λ2a2n + · · ·+ λmamn = 0

que tiene m incognitas (los λk ) y n ecuaciones, con m > n , por lo que no tiene solucion unica.

Demostracion de: Proposicion 101 de la pagina 43

Proposicion 101.- Si V es un espacio vectorial, con dim V = n . Entonces, un conjunto de n vectores de V esbase de V ,

a) si el conjunto es linealmente independiente, o b) si genera a V .

Demostracion:Sea S el conjunto de n vectores.

Si S es linealmente independiente, tiene que generar V , pues si no: podrıan anadirse vectores linealmenteindependientes con lo anteriores hasta formar una base de V (existirıa al menos un vector vn+1 ∈ V − lin S ,tal que S ∪ {vn+1 } es linealmente independiente, ver comentarios previos al Lema 97 anterior) que tendrıa almenos n + 1 vectores, lo que es absurdo.

Analogamente si S genera V , tiene que ser linealmente independiente, pues si no: podrıan eliminarsevectores dependientes de S hasta conseguir una base que tendrıa menos de n vectores (Lema 94), lo quetambien es absurdo.

Demostracion de: Desigualdad de Cauchy-Schwarz 111 de la pagina 47

Desigualdad de Cauchy-Schwarz 111.- Para todo u , v ∈ V, espacio con producto interior, se tiene

〈u , v 〉2 ≤ ‖u‖2 ‖v‖2 o en la forma |〈u , v 〉| ≤ ‖u‖ ‖v‖ .

Demostracion:Si v = 0 , es claro que 0 = 〈u , 0〉2 ≤ ‖u‖2 ‖0‖2 = 0, ∀ u ∈ V .Si v 6= 0 , para todo k ∈ IR , se verifica que

0 ≤ ‖u − kv‖2 = 〈u − kv , u − kv 〉 = 〈u , u〉 − 2k〈u , v 〉+ k2〈v , v 〉

en particular, para k = 〈u, v〉〈v, v〉 . Luego

0 ≤ 〈u,u〉 − 2〈u, v〉〈v, v〉 〈u, v〉+

〈u,v〉2〈v, v〉2 〈v,v〉= 〈u,u〉 − 2

〈u, v〉2〈v, v〉 +

〈u, v〉2〈v, v〉

= 〈u,u〉 − 〈u, v〉2〈v, v〉 = ‖u‖2 − 〈u,v〉2

‖v‖2

Prof: Jose Antonio Abia Vian I.T.I. en Electricidad

77 – Matematicas I : Algebra Lineal Anexo 1

de donde 〈u, v〉2‖v‖2 ≤ ‖u‖2 y por consiguiente 〈u,v〉2 ≤ ‖u‖2 ‖v‖2 .

Demostracion de: Teorema 119 de la pagina 48

Teorema 119.- Si S = {v1 , v2 , . . . , vk } un conjunto finito de vectores no nulos, ortogonales dos a dos, entoncesS es linealmente independiente.

Demostracion:Veamos que en la igualdad λ1v1 + · · ·+ λi vi + · · ·+ λk vk = 0 , cada λi tiene que ser cero:

0 = 〈vi,0〉= 〈vi, λ1v1 + · · ·+ λivi + · · ·+ λkvk〉 = λ1〈vi,v1〉+ · · ·+ λi〈vi, vi〉+ · · ·+ λk〈vi, vk〉= 0 + · · ·+ λi〈vi, vi〉+ · · ·+ 0 = λi ‖vi‖2

como vi 6= 0 , su norma no es cero por lo que tiene que ser λi = 0.

Demostracion de: Lema 124 de la pagina 49

Lema 124.- Sean V un espacio vectorial con producto interior, W un subespacio de V y B una base ortonormalde W . Entonces para cada v ∈ V , el vector v−ProyW (v ) es ortogonal a cada vector de W .

Demostracion:Por la Proposicion 118, para probar que un vector es ortogonal a todos los vectores de un subespacio, bastaprobarlo para los vectores de una base. Sea B = {w1 , w2 , . . . , wk } , para cada wi de B , por ser B ortonormal,〈wi , wi 〉 = 1 y 〈wi , wj 〉 = 0, si i 6= j , entonces

〈v−ProyW (v), wi〉= 〈v − 〈v,w1〉w1 − · · · − 〈v, wi〉wi − · · · − 〈v,wk〉wk, wi〉= 〈v, wi〉 − 〈v,w1〉〈w1,wi〉 − · · · − 〈v,wi〉〈wi, wi〉 − · · · − 〈v, wk〉〈wk, wi〉= 〈v, wi〉 − 0− · · · − 〈v, wi〉 · 1− · · · − 0 = 〈v, wi〉 − 〈v, wi〉 = 0

Luego es ortogonal a los vectores de B y, por consiguiente, a todos los vectores de W .

Unicidad de la proyeccion ortogonal.- Sea V un espacio con producto interior y W un subespacio de V . Paracada v ∈ V , la proyeccion ortogonal de v en W no depende de la base ortonormal elegida.

Es decir, si B1 = {u1 , u2 , . . . , uk } y B2 = {v1 , v2 , . . . , vk } son dos bases ortonormales de W , entonces,para cada v ∈ V , los vectores

Proy(1)W (v) = w1 = 〈v, u1〉u1 + 〈v,u2〉u2 + · · ·+ 〈v,uk〉uk

Proy(2)W (v) = w2 = 〈v, v1〉v1 + 〈v, v2〉v2 + · · ·+ 〈v, vk〉vk

son el mismo.Demostracion:Como w1 es una proyeccion ortogonal de v sobre W , el vector w1 ∈ W y el vector v−w1 es ortogonal aW y, por la misma razon, el vector w2 ∈ W y el vector v−w2 es ortogonal a W .

Entonces, el vector (v − w1 ) − (v − w2 ) = w2 − w1 cumple que: es ortogonal a todos los vectores deW por ser diferencia de dos vectores ortogonales a W ; y tambien es un vector de W por ser diferencia de dosvectores de W . En consecuencia, es ortogonal a si mismo y 〈w2 − w1 , w2 − w1 〉 = 0, luego es el vector 0 ;por lo que w1 = w2 y la proyeccion ortogonal no depende de la base.

Aplicaciones lineales

Justificacion del metodo descrito en la Observacion 136, de la pagina 56

Usaremos en la justificacion el mismo ejercicio del ejemplo, pero la prueba es valida en cualquier caso.Haciendo las operaciones elementales sobre la matriz At , que tiene por filas las [f(vi )]B2 , hemos obtenido la

matriz que tiene por filas

[f(v1)]B2

[f(v6 − v1)]B2

[f(v5 − v6 + v1)]B2

[f(v4 + 12v1 − 3

2v6 − 3

2v5)]B2

[f(v3 + v6 + 2v5)]B2

[f(v2 − 2v6 − v5)]B2

. Luego si repetimos las mismas operaciones

Prof: Jose Antonio Abia Vian I.T.I. en Electricidad

78 – Matematicas I : Algebra Lineal Anexo 1

sobre la matriz J que tiene por filas

[v1]B1

[v2]B1

[v3]B1

[v4]B1

[v5]B1

[v6]B1

obtendrıamos K =

[v1]B1

[v6 − v1]B1

[v5 − v6 + v1]B1

[v4 + 12v1 − 3

2v6 − 3

2v5]B1

[v3 + v6 + 2v5]B1

[v2 − 2v6 − v5]B1

.

Ahora bien, como la matriz J es la identidad, que tiene rango 6, la matriz K tambien tiene rango 6, por loque sus filas son linealmente independientes y en consecuencia los tres ultimos vectores (los vectores de ker(f))tambien son linealmente independientes.

Diagonalizacion

Justificacion de la observacion en Antes de seguir de la pagina 62

Definicion.- Sea f : V −→ V un operador lineal, diremos que un escalar λ es un valor propio de f si existeun vector v ∈ V , diferente de cero, tal que f(v) = λv .

Al vector v se le denomina vector propio de f correspondiente a λ .

Teorema.- Sea f : V −→ V un operador lineal, siendo V un espacio vectorial de dimension n . Entonces,existe una base de V con respecto a la cual la matriz de f es diagonal si y solo si f tiene n vectores propioslinealmente independientes.

Demostracion:Si la matriz de f en la base B = {v1 , v2 , . . . , v1} es D diagonal, los mismos vectores de la base son vectorespropios y son linealmente independientes, pues:

([f(v1)]B [f(v2)]B · · · [f(vn)]B

)= D =

λ1 0 · · · 00 λ2 · · · 0...

.... . .

...0 0 · · · λn

=

(λ1[v1]B λ2[v2]B · · · λn[vn]B

)

Recıprocamente, si tenemos n vectores propios linealmente independientes, la matriz de f respecto de la baseformada con ellos es diagonal.

([f(v1)]B [f(v2)]B · · · [f(vn)]B

)=

(λ1[v1]B λ2[v2]B · · · λn[vn]B

)=

λ1 0 · · · 00 λ2 · · · 0...

.... . .

...0 0 · · · λn

Teorema.- Sean V un espacio vectorial de dimension n , f :V −→ V un operador lineal y A la matriz de f conrespecto a una base B = {v1, v2, . . . , vn} . Entonces:

a) Los valores propios de f son los valores propios de A

b) Un vector v ∈ V es un vector propio de f correspondiente al valor propio λ si y solo si su matriz decoordenadas [v]B es un vector propio de A correspondiente a λ .

Demostracion:a) Sea λ un valor propio de f , es decir, ∃v ∈ V , distinto de 0 , tal que f(v) = λv =⇒ [f(v)]B = [λv]B

=⇒ A[v]B = λ[v]B , luego λ es un valor propio de A al ser [v]B 6= 0 .

Sea λ un valor propio de A , entonces ∃x ∈ IRn , x 6= 0 tal que Ax = λx . Si tomamos x∗ = x1v1 + · · ·+xnvn , siendo x = (x1, . . . , xn), lo anterior quiere decir que A[x∗]B = λ[x∗]B ⇒ [f(x∗)]B = [λx∗]B ⇒f(x∗) = λx∗ y λ es un valor propio de f ya que x∗ 6= 0

b) v es un vector propio de f correspondiente a λ si y solo sif(v) = λv ⇐⇒ [f(v)]B = [λv]B ⇐⇒ A[v]B = λ[v]B

si y solo si [v]B es un vector propio de A correspondiente a λ .

Prof: Jose Antonio Abia Vian I.T.I. en Electricidad

79 – Matematicas I : Algebra Lineal Anexo 1

Teorema.- Los vectores propios de f correspondientes al valor propio λ , son los vectores distintos de cero delnucleo de la aplicacion λId − f (denotamos por Id la aplicacion identidad, Id(v ) = v ).

Llamaremos a dicho nucleo, espacio caracterıstico de f correspondiente al valor propio λ .

Demostracion:v un vector propio correspondiente a λ ⇐⇒ f(v) = λv ⇐⇒ f(v) = λId(v) ⇐⇒ λId(v) − f(v) = 0 ⇐⇒(λId − f)(v) = 0 ⇐⇒ v ∈ ker(λId − f).

Demostracion de: Teorema 152 de la pagina 62

Teorema 152.- Sean v1 , v2 , . . . , vk vectores propios de una matriz A asociados a los valores propios λ1 ,λ2 , . . . , λk respectivamente, siendo λi 6= λj , ∀ i 6= j . Entonces el conjunto de vectores {v1 , v2 , . . . , vk } eslinealmente independiente.

Demostracion:Supongamos que v1 , v2 , . . . , vk son linealmente dependientes.

Por definicion, un vector propio es distinto de cero, luego el conjunto {v1 } es linealmente independiente.Sea r el maximo entero tal que {v1 , v2 , . . . , vr } es linealmente independiente. Puesto que hemos supuestoque {v1 , v2 , . . . , vk } es linealmente dependiente, r satisface que 1 ≤ r < k . Ademas, por la manera en quese definio r , {v1 , v2 , . . . , vr , vr+1} es linealmente dependiente. Por tanto, existen escalares c1, c2, . . . , cr+1 ,al menos uno diferente de cero, tales que

c1v1 + c2v2 + · · ·+ cr+1 vr+1 = 0 . 〈7.2〉

Multiplicando en ambos lados de la igualdad por A y haciendo las sustitucionesAv1 = λ1 v1 , Av2 = λ2v2 , . . . , Avr+1 = λr+1vr+1

se obtienec1λ1v1 + c2λ2v2 + · · ·+ crλr vr + cr+1λr+1 vr+1 = 0 〈7.3〉

Multiplicando los dos lados de (7.2) por λr+1 y restandole a (7.3) la ecuacion resultante se obtendra

c1(λ1 − λr+1)v1 + c2(λ2 − λr+1)v2 + · · ·+ cr(λr − λr+1)vr = 0 .

Y dado que los vectores v1 , v2 , . . . , vr son linealmente independientes, necesariamentec1(λ1 − λr+1) = c2(λ2 − λr+1) = · · · = cr(λr − λr+1) = 0

Como los λ1, λ2, . . . , λr+1 son distintos entre si, se deduce que c1 = c2 = · · · = cr = 0.Sustituyendo estos valores en (7.2) resulta que cr+1 vr+1 = 0 , y como vr+1 6= 0 se deduce que cr+1 = 0,

lo que contradice el hecho de que al menos uno de los escalares c1, c2, . . . , cr+1 debıa de ser distinto de cero.Luego los vectores v1 , v2 , . . . , vk han de ser linealmente independientes, que prueba el teorema.

Demostracion de: Proposicion 154 de la pagina 63

Proposicion 154.- Sea A de orden n y λk un autovalor de A de multiplicidad mk . Entonces

1 ≤ dim V (λk) ≤ mk.

Demostracion:Como ya observamos anteriormente, dim V (λi) ≥ 1.

Supongamos que dim V (λk) = d , y consideremos el operador lineal f : IRn −→ IRn definido por f(v ) = Av .Sea {v1 , . . . , vd } una base del espacio caracterıstico V (λk), que podemos completar hasta obtener una basede IRn , B = {v1 , . . . , vd , vd+1 , . . . , vn } . La matriz A′ , del operador en la base B , sera de la forma

A′ =

([f(v1)]B · · · [f(vd)]B [f(vd+1)]B · · · [f(vn)]B

)

=

(λk[v1]B · · · λk[v2]B [f(vd+1)]B · · · [f(vn)]B

)=

λk · · · 0...

. . .... A′12

0 · · · λk

0 · · · 0... · · ·

... A′220 · · · 0

Prof: Jose Antonio Abia Vian I.T.I. en Electricidad

80 – Matematicas I : Algebra Lineal Anexo 1

de donde |λI−A′| = (λ−λk)d|λI−A′22| . Pero como A y A′ son matrices semejantes, tienen el mismo polinomiocaracterıstico, y (λ−λk)d|λI−A′22| = |λI−A′| = |λI−A| = (λ−λk)mkQ(λ), de donde se obtiene que d ≤ mk ,pues mk es la multiplicidad de la raız.

Demostracion de: Teorema fundamental de la diagonalizacion 155 de la pagina 63

Teorema fundamental de la diagonalizacion 155.- Sea A una matriz de orden n . Entonces A es diagonali-zable si y solo si se cumplen las condiciones:

1.- El polinomio caracterıstico tiene n raices reales. Es decir, |λI − A| = (λ − λ1)m1 · · · (λ − λk)mk conm1 + m2 + · · ·+ mk = n .

2.- Para cada espacio caracterıstico V (λi), se cumple que dim V (λi) = mi .

Demostracion:=⇒ Si A es diagonalizable, la matriz diagonal D y A son semejantes (D = P−1AP ) y por tanto poseen

el mismo polinomio caracterıstico, luego P (λ) = |λI − A| = |λI − D| = (λ − λ1)m1 · · · (λ − λk)mk , donde losλi ∈ IR son los valores de la diagonal de D y mi el numero de veces que se repite. Por tanto, P (λ) tiene todassus raices reales y, por ser de grado n , m1 + m2 + · · ·+ mk = n .

Ademas, por ser A y D matrices semejantes, tambien lo son λI − A y λI − D , para todo λ ∈ IR , puesP−1(λI−A)P = λP−1IP −P−1AP = λI−D , de donde rg(λI−A) = rg(λI−D), para todo λ . Entonces, paracada autovalor λi se tiene que rg(λiI −A) = rg(λiI −D) = n−mi y, en consecuencia, que dim V (λi) = mi .

⇐= Si |λI − A| = (λ − λ1)m1 · · · (λ − λk)mk , con m1 + m2 + · · · + mk = n , y dim V (λi) = mi para cadai = 1, . . . , k , consideremos en cada V (λi) una base Bi , de la forma

B1 ={

p, . . . , pm

}, B2 =

{p, . . . , pm

}, . . . , Bk =

{pk, . . . , pkmk

}

Tomemos entonces B = B1∪B2∪· · ·∪Bk , un conjunto de n vectores propios de A , si vemos que son linealmenteindependientes, tendremos que A es diagonalizable.

Planteemos una combinacion lineal igualada a cero:

0 = β11p + · · ·+ β1m1pm + β21p + · · ·+ β2m2pm + · · ·+ βk1pk + · · ·+ βkmkpkmk

= (β11p + · · ·+ β1m1pm) + (β21p + · · ·+ β2m2pm) + · · ·+ (βk1pk + · · ·+ βkmkpkmk

)= v1 + v2 + · · ·+ vk

siendo vj = βj1pj + · · ·+ βjmj pjmj∈ V (λj), para cada j = 1, . . . , k .

Los vectores v1 , v2 , . . . , vk son vectores de espacios caracterısticos correspondientes, respectivamente, alos valores propios distintos λ1 , λ2 , . . . , λk y por tanto, si no son cero, son linealmente independientes. Perola combinacion lineal v1 + v2 + · · · + vk = 0 nos indicarıa que son dependientes, luego la unica forma deeliminar esa contradiccion es que vj = 0 , ∀j = 1, 2, . . . , k ; de donde, si 0 = vj = βj1pj + · · · + βjmj pjmj

,han de ser todos βj1 = βj2 = · · · = βjmj = 0 por ser Bj una base. Como es cierto para cada j , se tiene queβji = 0, ∀ i, j , con lo que B es linealmente independiente.

Demostracion de: Teorema fundamental de la diagonalizacion ortogonal 159 de la pagina 64

Teorema fundamental de la diagonalizacion ortogonal 159.- Una matriz A de orden n es diagonalizable or-togonalmente si y solo si A es simetrica. .

Demostracion:=⇒ A es diagonalizable ortogonalmente =⇒ ∃P ortogonal y D diagonal tal que P tAP = D =⇒ ∃P

ortogonal y D diagonal tal que A = PDP t =⇒ At = (PDP t)t = PDP t = A =⇒ A es simetrica.⇐= Sea A simetrica, veamos que es diagonalizable. Primero, que todos los valores propios de A son reales:

Sea λ ∈ C un valor propio de A , entonces existe x = (x1, . . . , xn) 6= 0 (xj ∈ C) tal que Ax = λx . Porser A real, su polinomio caracterıstico es real y el conjugado de λ , λ , es tambien autovalor de A ; ademas,tomando conjugados en la igualdad anterior, se tiene que Ax = Ax = λx . Entonces, son iguales los valores

xtAx = xt(Ax) = xt(λx) = λxtx = λ

n∑

j=1

xjxj = λ

n∑

j=1

|xj |2

xtAx = (xtA)x = (xtAt)x = (Ax)tx = (λx)tx) = λxtx = λ

n∑

j=1

|xj |2

Prof: Jose Antonio Abia Vian I.T.I. en Electricidad

81 – Matematicas I : Algebra Lineal Anexo 1

y, al ser x 6= 0 ,n∑

j=1

|xj |2 6= 0 por lo que λ = λ y λ ∈ IR . En consecuencia, si todos los autovalores de A son

reales, el polinomio caracterıstico de A tiene las n raices reales.Veamos ahora que para cada λj se verifica que dim V (λj) = mj .

Sean dim V (λj) = d y Bj = {x1 , . . . , xd } una base ortonormal de V (λj) que ampliamos hasta una baseortonormal de IRn , B = {x1 , . . . , xd , xd+1 , . . . , xn } .

Consideremos el operador lineal f : IRn −→ IRn dado por f(x) = Ax , luego A es la matriz de f en la basecanonica que es ortonormal y si A′ es la matriz de f en la base B y P la matriz de paso de B a la canonica,P es ortogonal y A′ = P tAP . Como A es simetrica, A′ tambien lo sera pues (A′)t = (P tAP )t = P tAt(P t)t =P tAP = A′ .

A′ =(

[f(x1)]B · · · [f(xd)]B [f(xd+1)]B · · · [f(xn)]B)

=(

λj [x1]B · · · λj [x2]B [f(xd+1)]B · · · [f(xn)]B)

=

λj · · · 0...

. . .... A′12

0 · · · λj

0 · · · 0... · · · ... A′220 · · · 0

donde A′12 = 0, puesto que A′ es simetrica y A′22 cuadrada de orden n − d . Luego la matriz λjI − A′ nosqueda

λjI −A′ =

λj − λj · · · 0...

. . .... 0

0 · · · λj − λj

0 · · · 0... · · · ... λjI −A′220 · · · 0

=

0 · · · 0...

. . .... 0

0 · · · 00 · · · 0... · · · ... λjI −A′220 · · · 0

por lo que rg(λjI−A′) = rg(λjI−A′22). Por ser A y A′ semejantes rg(λjI−A)=rg(λjI−A′) (ver demostraciondel Teorema 155), y se tiene que rg(λjI−A′22) = rg(λjI−A) = n−dim V (λj) = n−d por lo que |λjI −A′22| 6= 0.

Entonces, |λI −A| = |λI −A′| = (λ− λj)d |λI −A′22| , con |λjI −A′22| 6= 0, luego d = mj .En resumen, A diagonaliza, y tomando una base ortonormal de cada uno de los espacios caracterısticos,

tendremos n vectores propios de norma 1 y, que por el Lema 158, son ortogonales entre sı.

Formas cuadraticas

Demostracion de: Teorema de Sylvester o Ley de inercia 169 de la pagina 71

Teorema de Sylvester o Ley de inercia 169.- Si una forma cuadratica se reduce a la suma de cuadrados endos bases diferentes, el numero de terminos que aparecen con coeficientes positivos, ası como el numero determinos con coeficientes negativos es el mismo en ambos casos.

Demostracion:Supongamos que respecto a una base B1 = {b1 , b2 , . . . , bn } la matriz de la forma cuadratica Q es una matrizdiagonal y tiene p elementos positivos y s elementos negativos en su diagonal principal, luego la expresion dela forma cuadratica sera

Q(x) = a1x21 + · · ·+ apx

2p − ap+1x

2p+1 − · · · − ap+sx

2p+s

con ai > 0 para todo i , y (x1, . . . , xp, xp+1, . . . , xp+s, xp+s+1, . . . , xn) = [x ]tB1; y que respecto a otra base

B2 = {d1 , d2 , . . . , dn } la matriz de la forma cuadratica es tambien diagonal con q elementos positivos y rnegativos, por lo que Q se expresara en la forma

Q(x) = c1y21 + · · ·+ cqy

2q − cq+1y

2q+1 − · · · − cq+ry

2q+r

con ci > 0 para todo i , e (y1, . . . , yq, yq+1, . . . , yq+r, yq+r+1, . . . , yn) = [x ]tB2.

Prof: Jose Antonio Abia Vian I.T.I. en Electricidad

82 – Matematicas I : Algebra Lineal Anexo 1

Por el teorema 167 anterior, sabemos que las matrices congruentes tienen el mismo rango, luego tienen queser p + s = q + r . Veamos que p = q , con lo que tendremos tambien que s = r .

Si p 6= q , uno de ellos es mayor que el otro, supongamos que es p > q y consideremos los conjuntos devectores {b1 , . . . , bp } y {dq+1 , . . . , dn } . Si p > q , el conjunto {b1 , . . . , bp , dq+1 , . . . , dn } tiene p+(n−q) =n + (p− q) > n vectores y, por lo tanto, es un conjunto linealmente dependiente y en la igualdad

λ1b1 + · · ·+ λp bp + µq+1 dq+1 + · · ·+ µn dn = 0

alguno de los coeficientes no es cero. Entonces, el vector

λ1 b1 + · · ·+ λp bp = −µq+1dq+1 − · · · − µn dn = x

no es el cero (si es cero, todos los λi son cero por ser los bi de B1 , y todos los µj = 0 por ser los dj ∈ B2 ),con algun λi y algun µj distintos de cero. Tenemos ası que

[x ]tB1= (λ1, . . . , λp, 0, . . . , 0) y [x ]tB2

= (0, . . . , 0,−µq+1, . . . ,−µn)

pero calculando Q(x) respecto a las dos bases obtenemos

Q(x) = a1λ21 + · · ·+ apλ

2p − ap+10− · · · − ap+s0 = a1λ

21 + · · ·+ apλ

2p > 0

Q(x) = c10 + · · ·+ cq0− cq+1(−µq+1)2 − · · · − cq+r(−µq+r)2 + 0(−µq+r+1)2 + · · ·+ 0(−µn)2

=−cq+1(−µq+1)2 − · · · − cq+r(−µq+r)2 ≤ 0

lo que no puede ser. Por tanto deben ser p = q y s = r , es decir, las dos matrices diagonales tienen el mismonumero de elementos positivos y negativos.

Demostracion de: Teorema de clasificacion 172 de la pagina 71

Teorema de clasificacion 172.- Sea Q una forma cuadratica en un espacio de dimension n . Se verifica:

a) Q es nula ⇐⇒ Sig(Q) = (0, 0)

b) Q es definida positiva ⇐⇒ Sig(Q) = (n, 0).

c) Q es semidefinida positiva ⇐⇒ Sig(Q) = (p, 0) con 0 < p < n .

d) Q es definida negativa ⇐⇒ Sig(Q) = (0, n).

e) Q es semidefinida negativa ⇐⇒ Sig(Q) = (0, q) con 0 < q < n .

f) Q es indefinida ⇐⇒ Sig(Q) = (p, q) con 0 < p, q .

Demostracion:Sea B = {v1 , . . . , vn } una base en la cual, la expresion de Q es Q(x) = d1x

21 + d2x

22 + · · ·+ dnx2

n

donde (x1, . . . , xn) = [x ]tB . Luego, Q(vi ) = di , para todo i = 1, . . . , n , ya que los vectores de B tiene porcoordenadas [v1 ]tB = (1, 0, 0, . . . , 0), [v2 ]tB = (0, 1, 0, . . . , 0), . . . , [vn ]tB = (0, 0, 0, . . . , 1). Entonces:

a) Si Q(x) = 0, para todo x , se tiene que di = Q(vi ) = 0, para todo i , luego Sig(Q) = (0, 0).Reciprocamente, si di = 0 para todo i , entonces Q(x) = 0 para todo x .

b) Si Q(x) > 0 para todo x 6= 0 , se tiene que di = Q(vi ) > 0, para todo i , luego Sig(Q) = (n, 0).Recıprocamente, si di > 0 para todo i , entonces Q(x) > 0 para todo x 6= 0 .

c) Si Q(x) ≥ 0 para todo x 6= 0 , es di = Q(vi ) ≥ 0 para todo i . Como no es nula existe algun dj > 0 ycomo no es definida positiva existe algun dk = 0, luego Sig(Q) = (p, 0) con 0 < p < n .Recıprocamente, si di ≥ 0 para todo i , con algun dj > 0 y algun dk = 0, se tiene que Q(x) ≥ 0 paratodo x , que Q(vj ) = dj > 0, por lo que no es nula, y que Q(vk ) = dk = 0, por lo que no es definidapositiva.

d) y e) Analogos a los casos de definida y semidefinida positiva.

f) Por ser indefinida, Q(x) 6≥ 0 para todo x , luego di 6≥ 0 para todo i , por lo que existira un dj < 0y Q(x) 6≤ 0 para todo x , luego di 6≤ 0 para todo i por lo que existira un dk > 0. En consecuencia,Sig(Q) = (p, q) con p, q > 0.Recıprocamente, si existe dj < 0 y dk > 0, seran Q(vj ) = dj < 0 y Q(vk ) = dk > 0, luego es indefinida.

Prof: Jose Antonio Abia Vian I.T.I. en Electricidad