gm algebralineal

38
Apuntes de Matemáticas II Grado Ingeniería Mecánica Parte I: Álgebra Lineal Mª Cruz Parra Dpto. de Matemática Aplicada

Upload: charlie

Post on 17-Dec-2015

229 views

Category:

Documents


0 download

DESCRIPTION

Algebra lineal matematicas II

TRANSCRIPT

  • Apuntes de Matemticas IIGrado Ingeniera Mecnica

    Parte I: lgebra Lineal

    M Cruz ParraDpto. de Matemtica Aplicada

  • Algebra lineal

    Previos 3

    Matrices 5

    Determinantes 7

    Rango de una matriz 11

    Sistemas de ecuaciones lineales 17

    Espacios vectoriales 19

    Aplicaciones lineales 25

    Diagonalizacion 29

    Formas bilineales y formas cuadraticas 33

    1

  • Previos

    1 Aplicaciones.

    Dados dos conjuntos A y B, una aplicacion f de A en B es una ley o criterio que asocia acada elemento de A uno y solo uno de B.

    Si f : A B, es una aplicacion y a 7 b = f(a), se dice que b es la imagen por f de a y que aes una antiimagen de b, o un original de b, por f .

    Se dice que una aplicacion es inyectiva si elementos de A distintos tienen imagenes distintas,es decir: a1, a2 A, a1 6= a2 f(a1) 6= f(a2)o, equivalentemente, a1, a2 A tales que f(a1) = f(a2) a1 = a2.

    Se dice que una aplicacion es suprayectiva si cada elemento de B tiene por lo menos unaantiimagen, es decir: b B, a A, b = f(a).

    Una aplicacion se dice biyectiva si es inyectiva y suprayectiva.

    2 Relaciones binarias.

    Dados dos conjuntos A y B, una relacion binaria < entre A y B es una ley que permite decir,para todo par (a, b) AB, si a esta relacionado con b o no, mediante

  • 4 Matematicas II, MECANICA

    4 Estucturas algebraicas.

    Grupo. Sea G un conjunto sobre el que esta definida una LCI, . Se dice que (G, ) tieneestructura de grupo si se verifica

    es asociativa, a, b, c G, a (b c) = (a b) c. Existe elemento neutro, e G 3 a G, a e = e a = a. Todo elemento posee simetrico, para cada a G a G, a a = a a = e.

    Si ademas la operacion es conmutativa, a, b G, a b = b a, se dice que (G, ) es un grupoabeliano o conmutativo.

    Cuando la operacion sea una suma, se denota por el smbolo habitual +, el grupo (G,+)se dice aditivo, el elemento neutro se denota por 0 y se le dice nulo o cero y al simetrico de unelemento a lo llamaremos opuesto de a y lo denotaremos por a, es decir, a+(a) = (a)+a = 0.Si la operacion es un producto, se suele denotar por el smbolo , el grupo (G, ) se dice multi-plicativo, el elemento neutro se denota por 1 y se le dice unidad o identidad y al simetrico de unelemento a lo llamaremos inverso de a y lo denotaremos por a1, as, a.a1 = a1.a = 1.

    En un grupo (G, ) se puede establecer la siguiente aplicacion : GG G, (a, b) 7 x = ba,donde b es el simetrico de b, que define una LCI sobre G a la que llamamos operacion inversa de. Si el grupo es aditivo, la operacion inversa se dice sustraccion o diferencia : GG G,

    (a, b) 7 x = b+ a

    y, si el grupo es multiplicativo, cociente / : GG G,

    (a, b) 7 x = b1 a

    Anillo. Sea A un conjunto sobre el que estan definidas dos operaciones + y , ambas LCI sobreA. Se dice que (A,+, ) tiene estructura de anillo si se verifica

    (A,+) es grupo abeliano. La operacion es asociativa, a, b, c A, a (b c) = (a b) c. La operacion es doblemente distributiva respecto de +,

    a, b, c A,{

    a (b+ c) = (a b) + (a c),(a+ b) c = (a c) + (b c).

    Si ademas la operacion es conmutativa, a, b A, a b = b a, se dice que (A,+, ) es un anilloconmutativo.El anillo se dice unitario si existe elemento neutro para la operacion

    e A 3 a A, a e = e a = a.

    El anillo tiene divisores de cero si

    a, b A, a 6= 0, b 6= 0 3 a b = 0,

    donde 0 representa el elemento neutro para la +. Dos elementos a y b verificando la condicionanterior, se dicen divisores de cero.

    Sea (A,+, ) un anillo. Entonces, para todo a A, a 0 = 0 a = 0, donde 0 representa elneutro de +.Cuerpo. Llamaremos cuerpo a un anillo (IK,+, ) conmutativo, unitario y en el que todo ele-mento, excepto el neutro de + es simetrizable respecto de la operacion producto.

    Teorema Un cuerpo no posee divisores de cero.

  • Matrices

    SUMA

    Definicion 1. Dadas A = (aij), B = (bij) Mmn(IK). La matriz (aij + bij) Mmn(IK) se dicesuma de A con B y se denota por A+B.

    Propiedades(Mmn(IK),+) es grupo abeliano. La matriz O = (0) Mmn(IK) es el elemento neutro y se dicematriz nula de dimensiones m n. Para cada A = (aij) Mmn(IK) la matriz A = (aij) Mmn(IK) es su opuesta.

    PRODUCTO

    Definicion 2. Sean A = (aij) Mmn(IK) y B = (bij) Mnp(IK). Se llama matriz productode A por B, y se escribe A.B, a la matriz (

    nk=1 aikbkj) Mmp(IK)

    a11 a12 . . . a1n...

    ......

    ai1 ai2 . . . ain...

    ......

    am1 am2 . . . amn

    b11 . . . b1j . . . b1pb21 . . . b2j . . . b2p...

    ......

    ......

    bn1 . . . bnj . . . bnp

    =

    c11 . . . c1j . . . c1p...

    ......

    ......

    ci1 . . .

    nk=1

    aikbkj . . . cip

    ......

    ......

    ...cm1 . . . cmj . . . cmp

    .

    PropiedadesSean A Mmn(IK), B Mnp(IK) y C Mpq(IK) entonces, (AB)C = A(BC).Sean A,B Mmn(IK) y C Mnp(IK) entonces, (A+B)C = AC +BC.Sean A Mmn(IK) y B,C Mnp(IK) entonces, A(B + C) = AB + AC.(Mn(IK),+, ) es anillo unitario. Para n = 1 conmutativo sin divisores de cero y para n > 1 noconmutativo y con divisores de cero. La matriz

    In =

    1 0 . . . 00 1 . . . 0...

    .... . .

    ...0 0 . . . 1

    verifica AIn = InA = A, para toda A Mn(IK). In se dice matriz unidad o matriz identidad deorden n.

    Elementos inversibles

    Definicion 3. A Mn(IK) se dice inversible o regular si existe B Mn(IK) tal que AB = BA =In. En este caso, la matriz B se dice inversa de A y se denota por A

    1.

    5

    UsuarioRectngulo

    UsuarioRectngulo

    UsuarioRectngulo

  • 6 Matematicas II, MECANICA

    Si A y B son dos matrices de Mn(IK) inversibles, entonces la matriz AB tambien es inversibley (AB)1 = B1A1.

    PRODUCTO DE UNA MATRIZ POR UN ELEMENTO

    Definicion 4. Sean A = (aij) Mmn(IK) y IK. A la matriz (aij) Mmn(IK) lallamaremos matriz producto de la matriz A por el elemento y se escribe A.

    PropiedadesDistributiva respecto a la suma matricial. IK, A,B Mmn(IK), (A+B) = A+ B.Distributiva respecto a la suma de elementos y a la suma de matrices., IK, A Mmn(IK), (+ )A = A+ A.Asociativa respecto al producto de elementos., IK, A Mmn(IK), (A) = ()APara toda A Mmn(IK) se verifica que 1A = A.

    TRASPUESTA DE UNA MATRIZ

    Definicion 5. Sea A = (aij) Mmn(IK). A la matriza11 . . . ai1 . . . am1a12 . . . ai2 . . . am2a13 . . . ai3 . . . am3...

    ......

    a1n . . . ain . . . amn

    Mnm(IK)

    se le dice traspuesta de A y se representa por AT .

    Propiedades(AT )T = A.A,B Mmn(IK), (A+B)T = AT +BT .A Mmn(IK),B Mnp(IK), (AB)T = BTAT .Sea A Mn(IK) inversible entonces, (A1)T = (AT )1.Definicion 6. Una matriz A se dice simetrica si cumple AT = A.

    Definicion 7. Una matriz A se dice antisimetrica si verifica AT = A.Definicion 8. Se dice que una matriz A Mn(IR) es ortogonal si ATA = AAT = In.

  • Determinantes

    PERMUTACIONESPermutacion de orden n es cada una de las aplicaciones biyectivas de los elementos del conjuntoAn = {1, 2, . . . , n} en s mismo. Se observa que cualquier aplicacion de An en An que sea inyectivao suprayectiva es tambien biyectiva. Designaremos por Sn al conjunto de todas las permutacionesde orden n. Una permutacion Sn se representa por el cuadro siguiente(

    1 2 3 . . . n(1) (2) (3) . . . (n)

    )aunque podemos referirnos y utilizar una permutacion sustituyendola por su correspondiente or-denacion (1)(2) . . . (n). El numero de permutaciones de orden n es n!.

    Clase de una permutacion. Dada una permutacion diremos que los elementos (i), (j)forman una inversion si (i) (j) tiene distinto signo que i j. Observando el cuadro con elque representamos una permutacion se comprueba que los elementos de la primera fila aparecenen orden creciente por lo que la diferencia i j entre uno de ellos i y cada j de los que tiene a suderecha es siempre negativa, de este modo, el par (i), (j) formara una inversion si (i) (j)es positivo. Entonces, para contar el numero total de inversiones que hay en una permutacion,basta contar en la ordenacion correspondiente el numero de pares de elementos que no estan enorden natural.

    Se llama signatura de , y lo escribiremos (), al numero () = (1)I(), donde I() denotael numero total de inversiones que forman los diferentes pares de elementos de . Se dice que lapermutacion es de clase par si () = 1 y de clase impar cuando esta sea 1. Para n 2, lamitad de las permutaciones de orden n son de clase par y la otra mitad de clase impar.

    DETERMINANTE DE UNA MATRIZ CUADRADA

    Definicion 9. Sea A Mn(IK), se dice determinante de A, y se denota por |A| al elemento deIK dado por

    (1) |A| =Sn

    ()a1(1)a2(2) . . . an(n).

    Los n! terminos de la suma (1) se dicen terminos del determinante, segun que la permutacion sea par o impar el termino correspondiente se dice positivo o negativo, respectivamente. As,para n 2, la mitad de los terminos son positivos y la otra mitad negativos.

    Orden, elementos, filas, columnas, lneas de |A| son, respectivamente, el orden, los elementos,las filas, las columnas y las lneas de A.Desarrollo de los determinantes de orden n 3 Sea A Mn(IK).Si n = 1, A = (a11) y S1 = {1}. La unica permutacion existente es par, y (1) queda |A| = a11.

    Si n = 2, A =

    (a11 a12a21 a22

    ), las permutaciones de orden 2 son S2 = {12, 21} de las que P2 = {12}

    es par e I2 = {21} impar. Entonces, de (1) se obtiene |A| = a11a22 a12a21. Lo que se recuerdafacilmente con el siguiente esquema

    7

  • 8 Matematicas II, MECANICA

    Termino positivoa21 a22

    a11 a12@@@

    Termino negativo

    a21 a22

    a11 a12

    Si n = 3, A =

    a11 a12 a13a21 a22 a23a31 a32 a33

    , las permutaciones de orden 3 son S3 = {123, 132, 213, 231,312, 321} de las que P3 = {123, 231, 312} son pares e I3 = {132, 213, 321} impares. Entonces, de(1) se obtiene ahora

    |A| = a11a22a33 + a12a23a31 + a13a21a32 a11a23a32 a12a21a33 a13a22a31,

    resultado que se recuerda con el siguiente esquema (Regla nemotecnica de Sarrus)

    Terminos positivos

    a31 a32 a33

    a21 a22 a23

    a11 a12 a13@@@@@@

    @@@

    @@@

    Terminos negativos

    a31 a32 a33

    a21 a22 a23

    a11 a12 a13

    HHHHHH

    AAAAAA

    HHHHHH

    AAAAAA

    Para n > 3, la expresion (1) no resulta comoda para calcular el determinante y tampoco hayuna regla facil de memorizar que nos permita obtenerlo, inconveniente que aumenta conforme lohace n. Para reducir el calculo de determinantes de orden superior a 3 al calculo de determinantesde orden inferior, daremos algunas propiedades de los determinantes.

    PROPIEDADES

    Teorema 10. |A| = |AT |.Como consecuencia del Teorema 10 resulta que cualquier propiedad que se enuncie para las

    filas de un determinante es igualmente valida para columnas. As, por brevedad, en lo que siguese enunciaran unicamente las propiedades correspondientes a filas.

    Teorema 11. Si se cambian entre s dos filas de un determinante, el determinante obtenido tomael valor opuesto al dado.

    Corolario 12. Un determinante con dos filas iguales es nulo.

    Teorema 13. Si en un determinante multiplicamos todos los elementos de una fila por un mismoelemento, el determinante queda multiplicado por ese elemento.

    Corolario 14. Un determinante con dos filas proporcionales es nulo.

    Teorema 15. Si los elementos de una fila son binomios, se puede descomponer el determinante ensuma de dos determinantes que tienen las restantes filas iguales y en lugar de aquella la formadapor los primeros, segundos terminos del binomio, respectivamente.

    Corolario 16. Si los elementos de una fila son polinomios de r sumandos, se puede descomponerel determinante en suma de r determinantes que tienen las restantes filas iguales y en lugar deaquella la formada por los primeros, segundos, . . . , r-esimos sumandos, respectivamente.

    Corolario 17. Un determinante no vara al sumar a los elementos de una fila los correspondientesde otra multiplicados por un mismo elemento.

  • 9Corolario 18. Si una fila de un determinante es combinacion lineal de otras el determinante esnulo.

    MENOR COMPLEMENTARIO Y ADJUNTO DE UN ELEMENTO

    Definicion 19. Dado un determinante de orden n > 1, |A| = |aij|, si suprimimos en la matriz Ala fila que ocupa el lugar h y la columna que ocupa el lugar k, se obtiene una matriz de ordenn 1 a cuyo determinante, hk, llamamos menor complementario del elemento ahk en |A|.Definicion 20. Si en el desarrollo de un determinante sacamos factor comun el elemento ahk entodos los terminos en los que figura, aparece ese elemento multiplicado por un polinomio que sellama adjunto de ahk y que se representa por Ahk.

    Teorema 21. Ahk = (1)h+khk.

    DESARROLLO DE UN DETERMINANTE por los elementos de una lnea

    Teorema 22. El desarrollo de un determinante es igual a la suma de los productos de los elementosde una cualquiera de sus lneas por sus respectivos adjuntos.

    Teorema 23. La suma de los productos de los elementos de una lnea cualquiera de un determi-nante por los adjuntos de los elementos correspondientes de otra paralela a ella es igual a cero.

  • 10 Matematicas II, MECANICA

  • Rango de una matriz

    PRIMERAS DEFINICIONES

    Definicion 24. Llamamos menor de orden h de una matriz A al determinante de la matrizcuadrada de orden h formada por los elementos de A pertenecientes a h filas y h columnascualesquiera de la misma.

    Definicion 25. Rango o caracterstica de una matriz no nula es el orden maximo de sus menoresno nulos.

    Puede asegurarse que el rango de una matriz es h si existe un menor de orden h no nulo y sonnulos todos los menores de orden h+ 1 que pueden formarse.

    Por convenio, el rango de la matriz nula es cero. El rango de una matriz A lo denotaremospor rgA.

    De las definiciones anteriores se deduce trivialmente que:A Mmn(IK), rgA = 0 A = O.A Mmn(IK), rgA = rgAT .A Mn(IK), rgA = n| A |6= 0.

    OPERACIONES ELEMENTALES

    Son operaciones elementales por filas (columnas, respectivamente) en una matriz cada una delas siguientes:

    1. Multiplicar una fila (columna) por un elemento constante no nulo.

    2. Cambiar entre s dos filas (columnas).

    3. Sumar a una fila (columna) cualquier multiplo de otra.

    Teorema 26. El rango de una matriz no se altera al efectuar en ella cualquier operacion elemental.

    Definicion 27. Se dice que una matriz tiene forma escalonada por filas si se verifica:

    La columna que contiene al primer elemento no nulo de cada fila no nula tiene nulos todoslos elementos siguientes a este.

    El primer elemento no nulo de cada fila no nula esta a la derecha de los elementos inicialesno nulos de las filas anteriores.

    Las filas que solo tienen ceros aparecen despues de todas las filas con algun elemento no nulo.

    Teorema 28. Toda matriz no nula puede transformarse en una matriz que tiene forma escalonadapor filas efectuando en ella operaciones elementales por filas.

    11

  • 12 Matematicas II, MECANICA

    Sea A Mmn(IK). Para pasar a una matriz escalonada por filas basta seguir el siguienteproceso: Sea j1 la primera columna de A no formada por todo ceros. Intercambiando filas, sifuese necesario, podramos conseguir que el primer elemento de esa columna, a1, sea no nulo. Losrestantes elementos de la columna j1 se hacen cero sin mas que sumar sucesivamente un multiploapropiado de la primera fila a cada una de las restantes filas. Procedemos de igual forma con lamatriz resultante de prescindir en la anterior de su primera fila. Continuando con este proceso,hasta agotar las filas u obtener una matriz nula, se obtiene una matriz que tiene forma escalonadapor filas.

    Teorema 29. El rango de una matriz que tiene forma escalonada por filas es igual al numero defilas no nulas que posee.

    MATRICES ELEMENTALES

    Asociaremos a continuacion una matriz a cada una de las operaciones elementales senaladasanteriormente.

    Matriz elemental de primer genero y orden n. Sea i {1, . . . , n} y sea 0 6= IK. Denota-mos por Pi() la matriz obtenida al efectuar en In la siguiente operacion elemental: multiplicarla fila i por , es decir,

    Pi() =

    1 0 . . . 0 . . . 00 1 . . . 0 . . . 0...

    .... . .

    ......

    0 0 . . . . . . 0...

    ......

    . . ....

    0 0 . . . 0 . . . 1

    .

    Esta misma matriz se hubiera obtenido igualmente si la operacion elemental efectuada en Inhubiera sido multiplicar por la columna i.

    In multiplicar la{

    filacolumna

    }i por Pi().

    Esta matriz cumple las siguientes propiedades:

    1. Es simetrica pues P Ti () = Pi().

    2. Su determinante es no nulo ya que |Pi()| = |In| = .

    3. Si A Mnm(IK), la matriz Pi()A tiene sus filas iguales a las de A salvo la iesima que haquedado multiplicada por .

    4. Si A Mmn(IK), la matriz APi() tiene sus columnas iguales a las de A salvo la iesimaque ha quedado multiplicada por .

    5. Si A Mn(IK),|Pi()A| = |A| = |Pi()||A|,

    |APi()| = |A| = |A| = |A||Pi()|.

    6. Es inversible pues Pi()Pi(1/) = Pi(1/)Pi() = In y as, su inversa es Pi()1 = Pi(1/).

  • 13

    Matriz elemental de segundo genero y orden n. Sean i, j {1, . . . , n}, i 6= j. Denotamos porPij la matriz obtenida al efectuar en In la siguiente operacion elemental: cambiar entre s las filasi y j, es decir,

    Pij =

    1 0 . . . 0 . . . 0 . . . 00 1 . . . 0 . . . 0 . . . 0...

    .... . .

    ......

    ...0 0 . . . 0 . . . 1 . . . 0...

    ......

    . . ....

    ...0 0 . . . 1 . . . 0 . . . 0...

    ......

    .... . .

    ...0 0 . . . 0 . . . 0 . . . 1

    .

    Esta misma matriz se hubiera obtenido igualmente si la operacion elemental efectuada en Inhubiera sido cambiar entre s las columnas i y j.

    In intercambiar las{

    filascolumnas

    }i y j Pij.

    Esta matriz cumple las siguientes propiedades:

    1. Es simetrica, es decir, P Tij = Pij.

    2. Su determinante es no nulo, pues |Pij| = |In| = 1.3. Si A Mnm(IK), la matriz PijA tiene sus filas iguales a las de A salvo la iesima y la

    jesima que han cambiado entre s.

    4. Si A Mmn(IK), la matriz APij tiene sus columnas iguales a las de A salvo la iesima yla jesima que han cambiado entre s.

    5. Si A Mn(IK),|PijA| = 1|A| = |Pij||A|,

    |APij| = 1|A| = |A|(1) = |A||Pij|.6. Es inversible pues PijPij = In y as, su inversa es ella misma, P

    1ij = Pij.

    Matriz elemental de tercer genero y orden n. Sean i, j {1, . . . , n}, i 6= j y sea IK. Deno-tamos por Pij() la matriz obtenida al efectuar en In la siguiente operacion elemental: sumar ala fila i la j multiplicada por , es decir,

    Pij() =

    1 0 . . . 0 . . . 0 . . . 00 1 . . . 0 . . . 0 . . . 0...

    .... . .

    ......

    ...0 0 . . . 1 . . . . . . 0...

    ......

    . . ....

    ...0 0 . . . 0 . . . 1 . . . 0...

    ......

    .... . .

    ...0 0 . . . 0 . . . 0 . . . 1

    .

    Esta misma matriz se hubiera obtenido igualmente si la operacion elemental efectuada en Inhubiera sido sumar a la columna j la columna i multiplicada por .

    In sumar a la{

    fila icolumna j

    }la

    {fila j

    columna i

    }multiplicada por Pij().

    Esta matriz cumple las siguientes propiedades:

  • 14 Matematicas II, MECANICA

    1. Su traspuesta es otra matriz elemental del mismo genero, Pij()T = Pji().

    2. Su determinante es no nulo, pues |Pij()| = |In| = 1.

    3. Si A Mnm(IK), la matriz Pij()A tiene sus filas iguales a las de A salvo la iesima a laque se le ha sumado la jesima multiplicada por .

    4. Si A Mmn(IK), la matriz APij() tiene sus columnas iguales a las de A salvo la jesimaa la que se le ha sumado la iesima multiplicada por .

    5. Si A Mn(IK),|Pij()A| = |A| = |Pij()||A|,|APij()| = |A| = |A||Pij()|.

    6. Es inversible pues Pij()Pij() = Pij()Pij() = In, es decir, Pij()1 = Pij().

    En resumen, las matrices elementales verifican las siguientes propiedades: La traspuesta es tambienuna matriz elemental y del mismo genero. Tienen determinante distinto de 0. Multiplicar a laizquierda/derecha de una matriz A por una matriz elemental equivale a efectuar en A una opera-cion elemental por filas/columnas (la misma que haya sido necesario hacer en las filas/columnas dela identidad para pasar a esa matriz elemental) y, por ello, no se altera el rango de A. El determi-nante del producto de una matriz cuadrada por una elemental es el producto de los determinantes.Es inversible siendo su inversa otra matriz elemental del mismo genero.

    MATRIZ CANONICA de dimensiones m n y rango h

    Definicion 30. Se dice matriz canonica de dimensiones m n y rango h a la matriz(Ih 00 0

    )Mmn(IK).

    Se observa que si h = m = n la matriz anterior es In.

    Teorema 31. De toda matriz no nula se puede pasar, efectuando operaciones elementales, a lamatriz canonica de las mismas dimensiones y el mismo rango.

    La matriz canonica resulta de efectuar un producto de la forma Pr . . . P2P1AQ1Q2 . . . Qs donde Pison matrices elementales de orden m y Qi son matrices elementales de orden n. De aqu resultaque,

    A = P11 . . . P1r

    (Ih 00 0

    )Q1s . . . Q

    11 .

    En el caso particular en el que A es cuadrada de orden n y rango n, se obtendra que

    A = P11 . . . P1r InQ

    1s . . . Q

    11 ,

    por lo que A es producto de matrices elementales, es decir:

    Teorema 32. Toda matriz cuadrada, con determinante distinto de 0 puede ponerse como productode matrices elementales.

  • 15

    Ademas, teniendo en cuenta que Q1 . . . QsPr . . . P1A = In, se observa que en este caso, sepuede pasar de A a su canonica efectuando unicamente operaciones elementales por filas. En lapractica, el metodo mas sencillo y breve para pasar de A a In es el siguiente: En primer lugar,operando con filas, presentaremos ceros en todos los elementos de cada columna que estan pordebajo de la diagonal principal, comenzando por la primera columna. Luego (operando siemprecon filas) presentaremos ceros por encima de la diagonal principal comenzando por la ultimacolumna. Finalmente en la matriz diagonal obtenida, multiplicando cada fila por un elementoadecuado, haremos 1 los elementos diagonales.

    Rango y Determinante del producto

    Teorema 33. Sean A Mmn(IK), B Mnp(IK). Entonces, rg(AB) rgA y rg(AB) rgB.Teorema 34. Sean A,B Mn(IK). Entonces, |AB| = |A||B| .

    MATRICES INVERSIBLES

    Teorema 35. La condicion necesaria y suficiente para que una matriz cuadrada sea inversible esque su determinante sea distinto de cero.

    Ademas, si A es inversible, |A1| = |A|1.Sabemos ya que si A es inversible, existen matrices elementales P1, . . . , Ps, tales que Ps . . . P1A = Inpor lo que la matriz Ps . . . P1In es la inversa de A. Es decir, la sucesion de operaciones elementalespor filas que transforman la matriz A en la matriz In es la misma sucesion que transforma la matrizIn en A

    1. Este es el fundamento para el calculo de la inversa por el metodo de GaussJordan.

    Teorema 36. Elementos de la matriz inversa. Si A = (aij) Mn(IK) es una matriz inversible,A1 = (Aji/|A|).

    MATRICES ORTOGONALES

    Proposicion 37. Una condicion necesaria para una matriz A sea ortogonal es que |A| = 1.Como consecuencia de la Definicion 8 y del Teorema 35 se verifica trivialmente que

    A es ortogonal A Mn(IR), ATA = AAT = In

    (2) A Mn(IR), ATA = In

    m

    (3) A Mn(IR), AAT = In.

    Por otra parte, la condicion (2) equivale a

    (4)

    i, j = 1, . . . , n, aij IR,i, j = 1, . . . , n, i 6= j,

    nk=1

    akiakj = 0,

    i = 1, . . . , n,n

    k=1

    a2ki = 1.

  • 16 Matematicas II, MECANICA

    mientras que la condicion (3) equivale a

    (5)

    i, j = 1, . . . , n, aij IR,i, j = 1, . . . , n, i 6= j,

    nk=1

    aikajk = 0,

    i = 1, . . . , n,n

    k=1

    a2ik = 1.

    Siendo (2) y (3) condiciones equivalentes, tambien lo son las condiciones (4) y (5).

  • Sistemas de ecuaciones lineales

    PRIMERAS DEFINICIONES

    Definicion 38. Se llama ecuacion lineal en IK a toda ecuacion del tipo

    (6) a1x1 + a2x2 + . . .+ anxn = b,

    en la que a1, a2, . . . , an, b son elementos determinados de IK y x1, . . . , xn, son variables (incognitaso indeterminadas). Los elementos a1, a2, . . . , an reciben el nombre de coeficientes de las incognitasy b el de termino independiente de las mismas. La ecuacion (6) se dice homogenea si b = 0.

    Definicion 39. Si al reemplazar en la igualdad formal (6) las variables x1, x2, . . . , xn, respecti-vamente, por los elementos de IK, c1, c2, . . . , cn, resulta cierta la igualdad, esto es, a1c1 + a2c2 +. . .+ ancn = b, diremos que (c1, c2, . . . , cn) es solucion de (6).

    Definicion 40. Sistema de ecuaciones lineales es todo conjunto no vaco de ecuaciones lineales.Solucion de un sistema de ecuaciones lineales es toda solucion comun a todas las ecuaciones quelo forman. Un sistema de ecuaciones se dice homogeneo si los terminos independientes de todaslas ecuaciones que lo forman son nulos.

    Designaremos por S al conjunto formado por todas las soluciones del sistema E. Entonces,el sistema E se dice incompatible si carece de solucion, es decir, si S = . Cuando S 6= elsistema se dice compatible y, en este caso, segun que el cardinal de S sea 1 o mayor que 1, se diradeterminado o indeterminado.

    Definicion 41. Estudiar un sistema es resolverlo, es decir, hallar todas sus soluciones.

    ECUACION MATRICIAL ASOCIADADado un sistema E, formado por m ecuaciones lineales con n incognitas

    (7)

    a11x1 + a12x2 + . . . + a1nxn = b1a21x1 + a22x2 + . . . + a2nxn = b2.......................................................................am1x1 + am2x2 + . . . + amnxn = bm

    ,le asociamos la ecuacion matricial

    (8)

    a11 a12 . . . a1na21 a22 . . . a2n...

    ......

    am1 am2 . . . amn

    x1x2...xn

    =

    b1b2...bm

    en la que X es una matriz indeterminada, es decir, sus elementos son variables. Entonces,(c1, c2, . . . , cn) es solucion de (7) si y solo si la matriz C = (ci) Mn1(IK) es solucion de (8). Enconsecuencia, estudiar el sistema E es equivalente a estudiar la ecuacion matricial asociada.

    17

  • 18 Matematicas II, MECANICA

    La matriz A = (aij) Mmn(IK), se dice matriz de coeficientes y B = (bi) Mm1(IK) matrizde terminos independientes. La matriz de coeficientes y la matriz IB Mmn+1(IK), que resultade ampliar la anterior con la columna que forman los terminos independientes de las incognitas,

    IB = (A|B) =

    a11 a12 . . . a1n b1a21 a22 . . . a2n b2...

    ......

    ...am1 am2 . . . amn bm

    reciben el nombre de matrices asociadas a E.

    SISTEMAS EQUIVALENTES

    Definicion 42. Se dice que el sistema de ecuaciones E2 es equivalente al E1 si E2 tiene las mismassoluciones que E1.

    Se consideran operaciones elementales con las ecuaciones de un sistema las siguientes:1- Multiplicar por un elemento no nulo los dos miembros de una ecuacion,2- Intercambiar dos ecuaciones,3- Sumar miembro a miembro a una ecuacion otra previamente multiplicada por un elemento.Se observa que efectuar operaciones elementales con las ecuaciones de E es equivalente a realizarla correspondiente operacion elemental en las filas de las matrices A y B, es decir, en IB.

    Teorema 43. Al efectuar operaciones elementales con las ecuaciones de un sistema se obtieneotro equivalente al dado.

    Teorema 44. Si en un sistema hay una ecuacion que es combinacion lineal de otras al suprimirlaobtenemos un sistema equivalente.

    TEOREMA DE ROUCHE`FROBENIUS

    Teorema 45. La condicion necesaria y suficiente para que un sistema de ecuaciones linealessea compatible es que sus matrices asociadas tengan igual rango y, en este caso, segun que elrango comun de las matrices sea igual o menor que el numero de incognitas sera determinado oindeterminado, respectivamente.

    En resumen, este teorema clasifica los sistemas, segun los rangos de sus matrices asociadas:rgA 6= rgIB, S. Incompatible

    rgA = rgIB =

    h < n

    h = n

    S.Compatible Indeterminado

    S. CompatibleDeterminado

    donde n es el numero de incognitas del sistema. En el caso de sistema compatible indeterminado,se obtiene la solucion de h variables, llamadas principales, en funcion de las n h restantes quehacen el papel de parametros.Sistemas homogeneos. En el caso particular en el que el sistema sea homogeneo, es decir conB = 0, siempre es rgA = rgIB y por tanto compatible. La solucion trivial es (0, 0, . . . 0), pudiendotener otras o no segun sea indeterminado o determinado.

    REGLA DE CRAMER

    Teorema 46. Un sistema formado por tantas ecuaciones lineales como incognitas tenga, en el casode ser no nulo el determinante de la matriz de coeficientes, es compatible determinado. El valorde la incognita iesima se obtiene dividiendo por ese determinante el que se obtiene al sustituiren el la columna i-esima por la que forman los terminos independientes de las incognitas.

    Para la Factorizacion LU ver la Practica 2 y para Metodos iterativos la Practica 3.

  • Espacios vectoriales

    DEFINICION. PRIMERAS PROPIEDADES

    Definicion 47. Se dice que un conjunto E, a cuyos elementos llamaremos vectores, es un espaciovectorial sobre el cuerpo (IK,+, ), cuyos elementos llamaremos escalares, si sobre E estan definidasdos operaciones tales que

    I) Una de ellas es una LCI sobre E, llamada suma de vectores y denotada por el signo +, demodo que (E,+) es un grupo abeliano, es decir, que verifica las propiedades:

    I-a) Asociativa, a, b, c E, a+ (b+ c) = (a+ b) + c.I-b) Conmutativa, a, b E, a+ b = b+ a.I-c) Existe elemento neutro, 0 E, a E, a + 0 = 0 + a = a. El elemento neutro recibe

    el nombre de vector nulo.

    I-d) Todo vector tiene opuesto, para cada a E, b E, a + b = b + a = 0. El elemento bse dice opuesto de a y se denota por a.

    II) La otra operacion es una LCE sobre E con el dominio de operadores IK, llamada productode un vector por un escalar y denotada por el signo , que verifica las siguientes propiedades:II-a) Asociativa respecto del producto de escalares,

    a E, , IK, () a = ( a).II-b) Distributiva respecto de la suma de vectores,

    a, b E, IK, (a+ b) = a+ b.II-c) Distributiva respecto de la suma de escalares y la suma de vectores,

    a E, , IK, ( + ) a = a+ a.II-d) Para todo a E, 1 a = a.

    La estructura algebraica de espacio vectorial (en adelante E .V .) se representa por (E,+, IK).Primeras propiedades. Dado un E .V . (E,+, IK), se verifica:

    1 a E, 0 a = 0.2 IK, 0 = 0.3 IK, a E, ( a) = () a = (a).4 a E, a = (1) a.5 IK, a, b E, a b = (a b).6 , IK, a E, a a = ( ) a.7 IK, a E tales que a = 0, entonces = 0 o a = 0.8 0 6= IK, a, b E tales que a = b, entonces a = b.9 , IK, 0 6= a E tales que a = a, entonces = .

    19

  • 20 Matematicas II, MECANICA

    SISTEMAS DE VECTORES. COMBINACIONES LINEALES

    Definicion 48. Sistema de vectores de un E .V . E es todo subconjunto no vaco de E.

    Si A es un sistema de vectores de E, todo subconjunto 6= B A se dice subsistema de A ytodo conjunto C E tal que A C, decimos que es una ampliacion de A.

    Llamaremos orden de un sistema finito al numero de vectores que lo forman y, cuando este nosea finito, diremos que es de orden infinito.

    Definicion 49. Se dice que un vector a es combinacion lineal de los vectores del sistema A ={a1, a2, . . . , an} si existen unos escalares 1, 2, . . . , n IK tales que

    a = 1a1 + 2a2 + . . .+ nan.

    Los escalares 1, 2, . . . , n reciben el nombre de coeficientes de la combinacion.

    Proposicion 50. Si un vector es combinacion lineal de los vectores de un sistema A, tambien escombinacion lineal de los vectores de cualquier ampliacion de A.

    Proposicion 51. Si un vector a es combinacion lineal de los vectores de un sistema A y, a su vez,cada vector de A es combinacion lineal de los vectores un sistema B entonces, a es combinacionlineal de los vectores de B.

    VECTORES LINEALMENTE DEPENDIENTES

    Definicion 52. Se dice que el sistema A = {a1, a2, . . . , an} es ligado o que sus vectores sonlinealmente dependientes si existen unos escalares no todos nulos 1, 2, . . . , n, tales que

    1a1 + 2a2 + . . .+ nan = 0.

    Es decir, si se puede formar una combinacion lineal nula con los vectores de A sin ser nulos todoslos coeficientes.

    Proposicion 53. Todo sistema que contiene al vector nulo es ligado.

    Proposicion 54. Toda ampliacion de un sistema ligado es tambien un sistema ligado.

    Proposicion 55. La condicion necesaria y suficiente para que un sistema de orden mayor queuno sea ligado es que, al menos, uno de sus vectores sea combinacion lineal de los demas.

    Proposicion 56. La condicion necesaria y suficiente para que un sistema de orden 1 sea ligadoes que el unico vector que lo forma sea el nulo.

    VECTORES LINEALMENTE INDEPENDIENTES

    Definicion 57. Se dice que el sistema A = {a1, a2, . . . , an} es libre o que sus vectores son lineal-mente independientes si A no es ligado o, equivalentemente, si los vectores de A no son linealmentedependientes. Es decir, la unica combinacion lineal nula que puede formarse con los vectores deeste sistema es la que tiene nulos todos sus coeficientes.

    Proposicion 58. Si a 6= 0, A = {a} es libre.Proposicion 59. Todo vector perteneciente a un sistema libre es no nulo.

    Proposicion 60. Todo subsistema de uno libre es tambien libre.

  • 21

    Proposicion 61. Si al ampliar un sistema libre con un nuevo vector se obtiene un sistema ligado,el vector anadido es combinacion lineal de los restantes.

    ESPACIOS VECTORIALES DE TIPO FINITO

    Sistemas generadores

    Definicion 62. Se dice que un E .V . es de tipo finito si existe en el un sistema finito de vectorestal que cada vector del espacio es una combinacion lineal de los vectores de ese sistema. Todosistema que verifique esta condicion se dice sistema generador del E .V .

    De esta definicion se sigue que, decir que A es un sistema generador de E, equivale a decir queE es el conjunto formado por todas las combinaciones lineales de los vectores de A.

    Proposicion 63. Toda ampliacion con vectores de E de un sistema generador del espacio vectorialE es tambien un sistema generador de E.

    Proposicion 64. Si en un sistema generador hay un vector que es combinacion lineal de losdemas, al suprimirlo se obtiene otro sistema generador.

    Proposicion 65. Si en un sistema generador sustituimos uno de sus vectores por una combinacionlineal de todos los del sistema tal que el coeficiente que acompana al vector sustituido sea no nulo,entonces se obtiene otro sistema generador.

    Proposicion 66. El orden de un sistema libre no supera al de un sistema generador.

    Base de un espacio vectorial

    Definicion 67. Base de un espacio vectorial es, si existe, un sistema de vectores de ese espacioque sea generador, libre y este ordenado.

    En lo que sigue, cuando supongamos que un sistema de vectores A = {a1, . . . , an} esta ordenadolo denotaremos por A = (a1, . . . , an).

    Si un espacio vectorial se reduce al vector nulo, E = {0}, el unico sistema posible es ligadopor lo que no existe base.

    Teorema 68. De un sistema generador de un E .V . de tipo finito no nulo siempre se puede extraeruna base.

    Al limitar nuestro estudio a un E .V . de tipo finito si E 6= {0}, siempre existe un sistemagenerador finito y, por la proposicion anterior, de el podemos extraer una base por lo que siempreexiste una base.

    Teorema 69. Todas las bases de un mismo E .V . E 6= {0} tienen el mismo orden.Definicion 70. Dimension de un espacio vectorial de tipo finito, no nulo, es el orden de unacualquiera de sus bases. Se conviene en decir que un E .V . nulo tiene dimension 0.

    En lo que sigue, escribiremos En para indicar que el E .V . E tiene dimension n.

    Rango de un sistema de vectores

    Definicion 71. Rango de un sistema de vectores que no se reduce unicamente al vector nulo esel orden maximo de sus subsistemas libres. Se conviene en que el sistema {0} tenga rango 0.

  • 22 Matematicas II, MECANICA

    De esta definicion resulta obvio que para {0} 6= A = {a1, a2, . . . , an} es 1 rgA n as comoque rgA = 0 si y solo si A = {0}.Proposicion 72. La dimension de un E .V . coincide con su rango.

    Corolario 73. En un E .V . de dimension n 6= 0, todo sistema libre de orden n, ordenado, es unabase.

    Corolario 74. En un E .V . de dimension n 6= 0, todo sistema generador de orden n, ordenado,es una base.

    Teorema 75. Teorema de la base incompleta. En un espacio vectorial de dimension n 6= 0, todosistema libre de orden inferior a n es parte de una base.

    Coordenadas Sea En un espacio vectorial y sea BE = (u1, . . . , un) una base de E. Por ser BEsistema generador de E, cada vector x E se puede poner como combinacion lineal de los vectoresde BE, es decir, existen x1, . . . , xn IK tales que

    x = x1u1 + . . .+ xnun.

    Si tambien fuera x = y1u1 + . . .+ ynun, para algunos y1, . . . , yn IK, se verificara quex = x1u1 + . . .+ xnun = y1u1 + . . .+ ynun

    de donde(x1 y1)u1 + . . .+ (xn yn)un = 0

    y, por ser BE libre, necesariamente xi = yi, i = 1, . . . , n. De lo anterior resulta que cada vectorde E se puede poner de forma unica como combinacion lineal de los vectores de la base BE. Loscoeficientes (x1, . . . , xn) de esta unica combinacion se dicen coordenadas de x en BE.

    Si a cada vector de E le asociamos la ntupla formada por sus coordenadas respecto de BEqueda definida una aplicacion : E IKn, x 7 (x1, . . . , xn) que es biyectiva. As, parareferirnos a un vector de E podemos referirnos a sus correspondientes coordenadas respecto de labase fijada en E.

    Cambio de base Sea En un espacio vectorial y sean BE = (u1, . . . , un) y BE = (u

    1, . . . , u

    n) dos

    bases de E, siendo

    (9)

    u1 = 11u1 + 21u2 + . . .+ n1unu2 = 12u1 + 22u2 + . . .+ n2un.....................................................un = 1nu1 + 2nu2 + . . .+ nnun

    .Si x E tiene por coordenadas (x1, . . . , xn) en BE y (x1, . . . , xn) respecto de BE se verificara

    x = x1u1 + . . .+ xnun = x1u1 + . . .+ x

    nu

    n =

    y por (9)= x1(11u1 + 21u2 + . . .+ n1un) + x

    2(12u1 + 22u2 + . . .+ n2un) + . . .+ x

    n(1nu1 + 2nu2 +

    . . .+nnun) = (11x1+12x

    2+ . . .+1nx

    n)u1+ (21x

    1+22x

    2+ . . .+2nx

    n)u2+ . . .+ (n1x

    1+

    n2x2 + . . .+ nnx

    n)un.

    De donde, por la unicidad de coordenadas respecto de una base, queda

    (10)

    x1 = 11x1 + 12x

    2 + . . .+ 1nx

    n

    x2 = 21x1 + 22x

    2 + . . .+ 2nx

    n

    .....................................................xn = n1x

    1 + n2x

    2 + . . .+ nnx

    n

  • 23

    que en forma matricial puede escribirse

    (11)

    x1x2...xn

    =

    11 12 . . . 1n21 22 . . . 2n...

    ... . . ....

    n1 n2 . . . nn

    x1x2...xn

    y denotando por X = (xi) Mn1(IK), X = (xi ) Mn1(IK) y A = (ij) Mn(IK) queda

    X = AX.

    Se observa que la columna iesima de la matriz de cambio de base A esta formada por las coorde-nadas respecto de BE del iesimo vector de B

    E. Analogamente se puede obtener X

    = BX, dondela matriz B tiene la columna iesima formada por las coordenadas respecto de BE del iesimovector de BE.

    Segun hemos visto

    {X = AX = A(BX) = (AB)XX = BX = B(AX) = (BA)X

    }de donde se obtiene

    {InX = (AB)XInX

    = (BA)X

    }para todo

    {XX

    }Mn1(IK), lo que implica que

    {AB = InBA = In

    }. Es decir, B = A1.

    Subespacios vectoriales Sea (E,+, IK) un espacio vectorial.Definicion 76. Se dice que un subconjunto no vaco de E, S es un subespacio vectorial si esestable respecto de las operaciones de E y con las restricciones de esas operaciones es tambien unespacio vectorial.

    Aunque por definicion, se exige que se verifiquen las propiedades:[i] 6= S E,

    [ii] a1, a2 S, a1 + a2 S,[iii] IK, a S, a S,[iv] (S,+, IK) es un E .V .

    la cuarta es consecuencia de las tres anteriores y as, la condicion necesaria y suficiente para queun conjunto 6= S E, sea subespacio vectorial es que verifique las condiciones

    (12)

    1. a1, a2 S, a1 + a2 S,2. IK, a S, a S,equivalentes a la condicion

    (13) 1, 2 IK, a1, a2 S, 1a1 + 2a2 S.

    Por lo anterior, la condicion necesaria y suficiente para que un conjunto 6= S E, sea subespaciovectorial es que toda combinacion lineal de vectores de S pertenezca a S.

    Lo que hemos visto hasta ahora de subespacios es independiente de si E es de tipo finito ono. Si ademas E es de tipo finito, el subespacio S tambien y dimS dimE, dandose la igualdadunicamente si E y S coinciden.

    Clausura lineal de un sistema Sea E un E .V . y sea A un sistema de vectores de E.

    Definicion 77. Llamamos clausura lineal de A al conjunto formado por todas las combinacioneslineales de vectores de A. Lo designaremos por K[A] o L [A].

    Proposicion 78. L [A] es un subespacio vectorial de E y A es un sistema generador de L [A].

  • 24 Matematicas II, MECANICA

    Teorema 79. dimL [A] = rgA.

    Suma e interseccion de subespacios Sean S1, S2 subespacios vectoriales de E.

    Definicion 80. Llamaremos suma de S1 y S2 al conjunto de todas las posibles sumas de un vectorde S1 con uno de S2, denotandose por S1 + S2, es decir,

    S1 + S2 = {v = a+ b | a S1, b S2}.Definicion 81. Llamaremos interseccion de los subespacios S1 y S2 a la interseccion de estos dosconjuntos, denotandose tambien por S1 S2, es decir,

    S1 S2 = {v E | v S1, v S2}.Proposicion 82. S1 + S2 y S1 S2 son subespacios vectoriales de E.Teorema 83. dim(S1 + S2) = dimS1 + dimS2 dim(S1 S2).

    La union de un sistema generador de S1 con uno de S2 nos proporciona un sistema generadorde S1 + S2. Si S1 S2 = {0} la suma de S1 y S2 se dice suma directa y se denota por S1 S2. Eneste caso, obviamente, dim(S1S2) = dimS1+dimS2 y la union de una base de S1 con una basede S2 es base de S1 S2.Rango de una matriz por filas y columnas Sea A = (aij) Mmn(IK).

    Sea En un E .V . sobre IK y sea BE = (u1, u2, . . . , un) una base cualquiera de E. Consideramosel sistema de vectores de E, Af = {af1 , . . . , afm} en el que

    af1 = a11u1 + a12u2 + . . .+ a1nun,

    af2 = a21u1 + a22u2 + . . .+ a2nun,...................................................afm = am1u1 + am2u2 + . . .+ amnun.

    Entonces, se define el rango por filas de A, se denota por rgfA, como el rango del sistema Af .

    Sea F un E .V . sobre IK de dimension m y sea BF = (v1, v2, . . . , vm) una base de F. Conside-ramos los vectores de F

    ac1 = a11v1 + a21v2 + . . .+ am1vm,ac2 = a12v1 + a22v2 + . . .+ am2vm,...................................................acn = a1nv1 + a2nv2 + . . .+ amnvm.

    Entonces, se define el rango por columnas de A, se denota por rgcA, como el rango del sistema devectores Ac = {ac1, . . . , acn}.Proposicion 84. rgfA = rgA = rgcA.

    Observacion Sea BE = (u1, . . . , un) una base de En, espacio vectorial sobre IK, y sea P Mn(IK) una matriz regular. Entonces, existe un base de E, B

    E, tal que la ecuacion del cambio de

    base es X = PX.En efecto pues, recordando que en tal caso la columna iesima de P estara formada por las

    coordenadas respecto de BE del iesimo vector de BE, si consideramos los vectores de E

    (14)

    u1 = p11u1 + p21u2 + . . .+ pn1unu2 = p12u1 + p22u2 + . . .+ pn2un.....................................................un = p1nu1 + p2nu2 + . . .+ pnnun

    y el sistema BE = (u

    1, . . . , u

    n), de la definicion de rango por columnas, resulta que

    rgBE = rgcP = rgP = n

    con lo que BE es libre y, por ello, una base de E.

  • Aplicaciones lineales

    DEFINICION. PRIMERAS PROPIEDADESSean E y F dos espacios vectoriales sobre el mismo cuerpo IK.

    Definicion 85. Aplicacion lineal de E en F es toda aplicacion f : E F que verifique laspropiedades:

    a, b E, f(a+ b) = f(a) + f(b) , IK, a E, f(a) = f(a) .

    Teorema 86. Caracterizacion de una aplicacion lineal. La condicion necesaria y suficiente paraque una aplicacion f : E F sea lineal es que verifique la siguiente propiedad

    , IK, a1, a2 E, f(a1 + a2) = f(a1) + f(a2) .

    Denotaremos por LIK(E,F ) el conjunto de todas las aplicaciones lineales de E en F y porLIK(E) el de las aplicaciones lineales de E en E.Primeras propiedades Sea f LIK(E,F ), entonces se verifica:

    1. f(0E) = 0F .

    2. a E, f(a) = f(a).3. a1, a2 E, f(a1 a2) = f(a1) f(a2).4. 1, 2 IK,a1, a2, E, f(1a1 2a2) = 1f(a1) 2f(a2)5. Si el sistema {a1, a2, . . . , ap} E es ligado tambien lo es {f(a1), f(a2), . . . , f(ap)} F .6. Si {f(a1), f(a2), . . . , f(ap)} F es libre tambien lo es el sistema {a1, a2, . . . , ap} E.

    IMAGEN DE UN SUBESPACIO. RANGO DE UNA APLICACION LINEALSea f LIK(E,F ) y sea S es un subespacio vectorial de E. Denotamos por f(S) el conjunto

    formado por todos los vectores de F que son imagen por f de algun vector de S.

    Teorema 87. f(S) es un subespacio vectorial de F .

    Teorema 88. Si A = {a1, a2, . . . , an} es un sistema generador de S entonces, el sistema f(A) ={f(a1), f(a2), . . . , f(an)} es un sistema generador de f(S).Observemos que, en particular, para todo sistema A de vectores de E se verifica f(L (A)) =L (f(A)).

    Imagen de una aplicacion lineal. El Teorema 87 en el caso particular S = E dice que f(E) esun subespacio vectorial de F . Este subespacio recibe el nombre de imagen de la aplicacion linealy se denota por Imf . A su dimension la llamamos rango de f y, evidentemente, se cumple quergf = dim Imf dimF .

    25

  • 26 Matematicas II, MECANICA

    IMAGEN RECIPROCA. NUCLEO DE UNA APLICACION LINEALSea f LIK(E,F ) y sea T es un subespacio vectorial de F . Denotamos por f1(T ) el conjunto

    formado por todos los vectores de E que son origen por f de algun vector de T , es decir, a laimagen recproca de T por f .

    Teorema 89. f1(T ) es un subespacio vectorial de E.

    Nucleo de una aplicacion lineal. La aplicacion del Teorema 89 al caso particular T = {0} diceque f1({0}) es un subespacio vectorial de E. Este subespacio, formado por todos los vectoresde E cuya imagen por f es el vector nulo de F , recibe el nombre de nucleo de la aplicacion linealy se denota por Kerf . A su dimension la llamamos nulidad de f y, evidentemente, Nulf =dimKerf dimE.Teorema 90. Una condicion necesaria y suficiente para que la aplicacion lineal f sea inyectivaes que Kerf = {0}.

    Originales de un elemento. Dado b F , denotamos por f1({b}) el conjunto formado por susoriginales. Obviamente, si b /Imf se tendra que f1({b}) = . Supongamos pues que b Imf yas, existe a E tal que f(a) = b, entonces, f1(b) = {a+ c | c Kerf}.ECUACIONES DE UNA APLICACION LINEAL

    Sea f LIK(En, Fm) y sean BE = (u1, u2, . . . , un) y BF = (v1, v2, . . . , vm) bases de E y F ,respectivamente. Supongamos ademas que

    (15)

    f(u1) = 11v1 + 21v2 + . . .+ m1vmf(u2) = 12v1 + 22v2 + . . .+ m2vm...........................................................f(un) = 1nv1 + 2nv2 + . . .+ mnvm

    Sea x = x1u1 + x2u2 + . . .+ xnun E y sea y = f(x) = y1v1 + y2v2 + . . .+ ymvm F. Entonces,

    y = f(x) = f(x1u1 + x2u2 + . . .+ xnun) = x1f(u1) + x2f(u2) + . . .+ xnf(un)

    y teniendo en cuenta las igualdades (15)

    y = x1(11v1 + . . .+ m1vm) + x2(12v1 + . . .+ m2vm) + . . .+ xn(1nv1 + . . .+ mnvm)

    lo que, sin mas que operar, puede escribirse como

    y = (11x1 + . . .+ 1nxn)v1 + (21x1 + . . .+ 2nxn)v2 + . . .+ (m1x1 + . . .+ mnxn)vm.

    Finalmente, recordando la unicidad de coordenadas de un vector respecto de una determinadabase, resulta

    (16)

    y1 = 11x1 + 12x2 + . . .+ 1nxny2 = 21x1 + 22x2 + . . .+ 2nxn.....................................................ym = m1x1 + m2x2 + . . .+ mnxn

    que son las llamadas ecuaciones coordenadas de la aplicacion lineal f respecto de las bases BE yBF . En forma matricial, (16) puede escribirse

    (17)

    y1y2...ym

    =

    11 12 . . . 1n21 22 . . . 2n...

    ... . . ....

    m1 m2 . . . mn

    x1x2...xn

  • 27

    y denotando por Y = (yi) Mm1(IK), X = (xi) Mn1(IK), A = (ij) Mmn(IK), escribire-mos

    Y = AX

    que es la llamada expresion coordenada def respecto de las bases BE y BF . La matriz A recibeel nombre de matriz coordenada de f respecto de las bases BE y BF . Se observa que la matrizcoordenada tiene dimensiones m n = dimF dimE y, recordando las igualdades (15), que lacolumna iesima de A esta formada por las coordenadas en BF de la imagen por f del iesimovector de BE.

    Si se suponen fijas las bases BE y BF , puede probarse que la correspondencia que a cadaelemento de LIK(En, Fm) le asocia en Mmn(IK) su matriz coordenada respecto de BE y BF esuna aplicacion biyectiva.

    SUMA DE APLICACIONES LINEALESSean f, g LIK(E,F ) y sea h la correspondencia de E en F dada por a E, h(a) =

    f(a) + g(a) es, evidentemente una aplicacion y puede probarse facilmente que es lineal. Estaaplicacion se dice suma de f y g y se denota por f + g, es decir,

    a E, (f + g)(a) = f(a) + g(a).

    As, resulta que la suma de aplicaciones lineales es una LCI sobre LIK(E,F ) y puede probarseque (LIK(E,F ),+) es un grupo abeliano. Si A1, A2 son las matrices coordenadas de f, g, respec-tivamente, respecto de las bases BE y BF . Entonces, la matriz coordenada de f + g, respecto deBE y BF , es A1 + A2.

    PRODUCTO DE UNA APLICACION LINEAL POR UN ELEMENTOSean IK, f LIK(E,F ) y sea h la correspondencia de E en F dada por a E, h(a) =

    f(a) es, evidentemente una aplicacion y puede probarse facilmente que es lineal. Esta aplicacionse dice producto de f por el elemento y se denota por f, es decir,

    a E, (f)(a) = f(a).

    As, el producto de una aplicacion lineal por un elemento es una LCE sobreLIK(E,F ) con dominiode operadores IK y puede probarse que (LIK(E,F ),+, IK) es un espacio vectorial de dimensionm n. Si A es la matriz coordenada de f , respecto de las bases BE y BF . Entonces, la matrizcoordenada de f, respecto de BE y BF , es A.

    APLICACION COMPUESTA O PRODUCTOSean En, Fm y Gp tres espacios vectoriales sobre IK y sean f LIK(En, Fm), g LIK(Fm, Gp).

    Para cada x En, f(x) = y F por lo que z = g(y) = g(f(x)) esta bien definido. Consideramosla correspondencia h de E en G dada por a E, h(a) = g(f(a)) que es, evidentemente, unaaplicacion y puede probarse facilmente que es lineal. Esta aplicacion se dice composicion o productode f y g y se denota por g f, es decir,

    a E, (g f)(a) = g(f(a)).

    En el caso particular E = F = G, el producto de aplicaciones lineales es una LCI sobre LIK(E)y puede probarse que (LIK(E,F ),+, ) es un anillo unitario. Si A Mmn(IK), B Mpm(IK)son las matrices coordenadas de f y g, respecto de las bases BE, BF y BF , BG, respectivamente,la matriz coordenada de g f, respecto de BE y BG, es BA.

  • 28 Matematicas II, MECANICA

    CAMBIO DE BASES Segun hemos dicho, cada aplicacion lineal tiene una unica matriz coorde-nada respecto de dos bases dadas pero al cambiar las bases de los espacios vectoriales la matrizpuede variar. En esta seccion se vera la relacion existente entre las distintas matrices coordenadasde la misma aplicacion lineal.

    Sea f LIK(En, Fm) la aplicacion lineal cuya matriz coordenada respecto de las bases BE =(u1, u2, . . . , un) y BF = (v1, v2, . . . , vm) es A = (aij) Mmn(IK). Como ya sabemos, esto significaque para x = x1u1 + x2u2 + . . .+ xnun E, y = f(x) = y1v1 + y2v2 + . . .+ ymvm F, se verifica

    Y = AX.

    Supongamos ahora que se toman dos nuevas bases de los espacios vectoriales En y Fm, BE =

    (u1, u2, . . . , u

    n) y B

    F = (v

    1, v

    2, . . . , v

    m), respectivamente. En este caso, siendo x, y de la forma

    x = x1u1 + x

    2u2 + . . .+ x

    nu

    n y = y

    1v1 + y

    2v2 + . . .+ y

    mv

    m y escribiendo Y

    = (yi ) Mm1(IK)y X = (xi ) Mn1(IK), se tendra que la expresion coordenada de f respecto de estas bases es

    Y = BX

    con B Mmn(IK). Por ser BE y BE bases del mismo E .V . existe una matriz P Mn(IK),regular, tal que X = PX es la ecuacion del cambio de base en E. Analogamente sera Y = QYcon Q Mm(IK) regular. Entonces,

    Y = QY = Q(AX) = QA(PX) = (QAP )X

    y, por la unicidad de la expresion coordenada respecto de dos bases dadas, resulta que

    B = QAP

    por lo que, cualquier otra matriz coordenada de f es de la forma QAP con P y Q matricesregulares. Recprocamente, si P Mn(IK) y Q Mm(IK) son matrices regulares, la matriz QAPes matriz coordenada de f respecto de algunas bases. Efectivamente, basta tomar en E la baseBE tal que la ecuacion del cambio sea X = PX

    y en F la base BF cuya ecuacion de cambio esY = QY y entonces, repitiendo el razonamiento anterior, resulta que QAP es matriz coordenadade f de respecto de BE y B

    F .

    De lo anterior se deduce que el conjunto formado por todas las matrices coordenadas de f es

    {QAP | P Mn(IK), |P | 6= 0, Q Mm(IK), |Q| 6= 0}.Una vez que hemos visto como son las distintas matrices coordenadas de una misma aplicacion,pasaremos a dar algunas de sus propiedades.Matrices equivalentes

    Definicion 91. Sean A,B Mmn(IK). Se dice que A es equivalente a B si existen P1 Mm(IK), P2 Mn(IK), regulares, tales que A = P1BP2.

    Segun hemos visto con el cambio de bases, dos matrices son equivalentes si y solo si son matricescoordenadas de una misma aplicacion lineal.

    Teorema 92. Dos matrices son equivalentes si y solo si se puede pasar de una a otra medianteoperaciones elementales.

    Teorema 93. Una condicion necesaria y suficiente para que dos matrices sean equivalentes esque tengan las mismas dimensiones y el mismo rango.

    Propiedades del rango de una aplicacion lineal

    Teorema 94. El rango de una aplicacion lineal coincide con el rango por columnas de su matrizcoordenada.

    Teorema 95. Sea f LIK(En, Fm). Entonces, dimKerf + dim Imf = dimE.

  • Diagonalizacion

    PRIMERAS DEFINICIONESSea (E,+, IK) un espacio vectorial de dimension n. Endomorfismo sobre E es toda aplicacion

    lineal de E en E. En todo lo que sigue, cuando convenga el uso de coordenadas fijaremos una baseBE de E y tanto las coordenadas del vector x E como las de su imagen por el endomorfismof , y = f(x) E, seran las relativas a esa base. Denotamos por End(E) el conjunto de todos losendomorfismos sobre E.

    Definicion 96. Sea f End(E). Se dice que el elemento IK es un valor propio de f , si existeun vector no nulo x E tal que f(x) = x. En este caso, decimos que x es un vector propioasociado al valor propio .

    Definicion 97. Sea A Mn(IK). Se dice que el elemento IK es un valor propio de A, si existeun vector no nulo (x1, . . . , xn) IKn tal que AX = X, donde X = (x1 . . . xn)T Mn1(IK). Eneste caso, decimos que x es un vector propio asociado al valor propio .

    EQUIVALENCIA DEL PROBLEMA CON ENDOMORFISMOS Y MATRICESSea f End(En). Fijamos una base cualquiera BE = (u1, u2, . . . , un) de E y sea A Mn(IK)

    la matriz coordenada de f respecto de BE. Si el vector de x E de coordenadas (x1, x2, . . . , xn)en BE es un vector propio de f asociado al valor propio , entonces el vector (x1, x2, . . . , xn) IKnes un vector propio de A asociado tambien al valor propio .

    Sea A Mn(IK). Consideramos un espacio vectorial sobre IK, E, de dimension n y fijamosuna base BE = (u1, u2, . . . , un) de E. Sea f End(E) el endomorfismo cuya matriz coordenadarespecto de BE es A Mn(IK). Si el vector (x1, x2, . . . , xn) IKn es un vector propio de Aasociado al valor propio , entonces el vector de E que tiene en BE coordenadas (x1, x2, . . . , xn)es un vector propio de f asociado tambien al valor propio .

    De lo anterior se deduce que

    Proposicion 98. Los valores propios de un endomorfismo coinciden con los valores propios desu matriz coordenada, respecto de cualquier base.

    Proposicion 99. Todas las matrices coordenadas de un endomorfismo tienen los mismos valorespropios.

    PROPIEDADES DE VALORES Y VECTORES PROPIOSI Condicion Necesaria y Suficiente para que un elemento sea valor propio. Poli-

    nomio caracterstico. Subespacios fundamentales

    Sea f End(En) y sea A Mn(IK) su matriz coordenada en BE = (u1, . . . , un) Para cada IKse define V () = {x E | f(x) = x}. Teniendo en cuenta las equivalencias x V () f(x) =x AX = X AX X = 0 AX InX = 0 (A In)X = 0

    (18)

    a11 a12 . . . a1na21 a22 . . . a2n...

    .... . .

    ...an1 an2 . . . ann

    x1x2...xn

    = 029

  • 30 Matematicas II, MECANICA

    resulta que V () es un subespacio vectorial, de dimension n rg(A In), que esta formado porlos vectores de En cuyas coordenadas en BE son solucion de (18). Si este subespacio es el nulo, elsistema (18) solo tiene la solucion trivial y no es valor propio de f. En cambio, si el subespaciono es el nulo, el sistema (18) tiene solucion distinta de la trivial y s es valor propio de f.

    En consecuencia, el elemento IK es valor propio de f si y solo si rg(AIn) < n, es decir,si y solo si |A In| = 0 o, lo que es lo mismo, si y solo si es raz del polinomio |A xIn| querecibe el nombre de polinomio caracterstico de f (respecto de BE.

    Definicion 100. Si es raz del polinomio caracterstico de multiplicidad h se dice que el valorpropio de f tiene multiplicidad algebraica h (respecto de BE)

    Definicion 101. Cuando es un valor propio de f, el subespacio V () de E recibe el nombre desubespacio fundamental. La dimension de este subespacio se dice multiplicidad geometrica de .

    La multiplicidad geometrica de un valor propio es siempre 1. Segun hemos dicho en la seccionanterior, los valores propios de un endomorfismo coinciden con los valores propios de cualquierade sus matrices coordenadas. Ademas, tambien coinciden sus multiplicidades geometricas. Portanto, las matrices coordenadas de un mismo endomorfismo tienen los mismos valores propios ycon las mismas multiplicidades geometricas. Los vectores propios de f asociados al valor propio son los vectores no nulos del subespacio V (). En el caso particular en el que la matriz seadiagonal, es inmediato verificar que los valores propios coinciden con los elementos diagonales.

    II Si 1 6= 2 V (1) V (2) = {0}.

    III Vectores propios asociados a valores propios diferentes entre s son linealmente indepen-dientes.

    IV Si B1, B2, . . . , Bm son bases de los subespacios fundamentales V (1), V (2), . . . , V (m),respectivamente, correspondientes a valores propios diferentes entre s, 1, 2, . . . , m, entoncesB1 B2 . . . Bm es base de V (1) + V (2) + . . .+ V (m).CAMBIO DE BASE Sea f End(En) y sea A Mn(IK) su matriz coordenada respecto de labase BE. Sea B

    E una nueva base de En. El cambio de base en endomorfismos es un caso particular

    del ya visto en Aplicaciones Lineales, basta tomar en el caso anterior: F = E, BF = BE yBF = B

    E. As, por ser BE y B

    E bases del mismo E .V . existe una matriz P Mn(IK), regular,

    tal que X = PX es la ecuacion del cambio de base, con lo que tambien sera Y = PY . Entonces,

    Y = P1Y = P1(AX) = P1A(PX) = (P1AP )X

    con lo que la matriz coordenada de f respecto de BE es B = P1AP. As, el conjunto formado

    por todas las matrices coordenadas de f es

    {P1AP | P Mn(IK), |P | 6= 0}.

    Matrices semejantes

    Definicion 102. Sean A,B Mn(IK). Se dice que B es semejante a A si existe P Mn(IK)regular tal que B = P1AP.

    Se comprueba trivialmente que la relacion definida es una relacion binaria de equivalencialogica sobre Mn(IK). Ademas, dos matrices son semejantes si y solo si son matrices coordenadasde un mismo endomorfismo.

    Teorema 103. Dos matrices semejantes tienen el mismo polinomio caracterstico.

  • 31

    Corolario 104. Dos matrices semejantes tienen los mismos valores propios con identicas multi-plicidades.

    Corolario 105. El polinomio caracterstico y la multiplicidad algebraica de los valores propios deun endomorfismo no dependen de la base que se considere.

    Corolario 106. Un endomorfismo tiene los mismos valores propios y con identicas multiplicidades(algebraica y geometrica) que una cualquiera de sus matrices coordenadas.

    Relacion entre las multiplicidades

    Teorema 107. La multiplicidad geometrica de un valor propio nunca supera a la algebraica.

    DIAGONALIZACION

    Definicion 108. Se dice que un endomorfismo f End(En) es diagonalizable si existe una basede En en la que la matriz coordenada de f es diagonal.

    Definicion 109. Se dice que una matriz A Mn(IK) es diagonalizable si es semejante a unamatriz diagonal.

    Sea f End(En) y sea A Mn(IK) su matriz coordenada respecto de cierta base de En.Entonces, de las definiciones anteriores resulta que f es diagonalizable si y solo si alguna de susmatrices coordenadas es diagonal, es decir, si y solo si alguna de las matrices semejantes a Aes diagonal, esto es, si y solo si A es diagonalizable. Es decir, un endomorfismo es diagonali-zable si y solo si su matriz coordenada es diagonalizable y, analogamente, una matriz cuadradaes diagonalizable si y solo si es diagonalizable cualquier endomorfismo que la tenga por matrizcoordenada.

    Dada la equivalencia entre el problema de diagonalizacion de matrices y el de endomorfis-mos, daremos unicamente condiciones de diagonalizacion para endomorfismos. Posteriormente, seindicara lo correspondiente para matrices.Condiciones necesarias y suficientes Sea f End(En).Teorema 110. Una CN y S para que f sea diagonalizable es que exista una base de E formadapor vectores propios de f .

    Teorema 111. Una CN y S para que f sea diagonalizable es que su polinomio caracterstico tengaen IK n races (contando cada una segun su correspondiente multiplicidad) y, para cada una deellas, coincidan sus multiplicidades algebraica y geometrica.

    La CN y S dada en el Teorema 110 es de escasa utilidad practica pues no nos dice cuandoexiste la base de vectores propios ni, en su caso, como obtenerla. La CN y S enunciada medianteel Teorema 111 nos resuelve ambas cuestiones. La base existira si el polinomio caracterstico def tiene en IK n races (no necesariamente diferentes) y, para cada una de ellas, coinciden susmultiplicidades. Suponiendo que somos capaces de hallar las races del polinomio caracterstico,es facil comprobar si estas condiciones se cumplen, en ese caso, tomamos de cada uno de lossubespacios fundamentales una base y su union es la base de E formada por vectores propios.En esa base, la matriz coordenada de f sera diagonal, los elementos diagonales seran los valorespropios de f y, cada uno de ellos, figura tantas veces como indique su multiplicidad.

    Teorema 112. Una condicion suficiente para que f sea diagonalizable es que su polinomio carac-terstico tenga en IK n races simples.

  • 32 Matematicas II, MECANICA

    Diagonalizacion de matrices Sea A Mn(IK). Se toma un IKE .V . cualquiera de dimension n,En, se fija una base de En, BE, y se considera el endomorfismo f End(En) cuya matriz coorde-nada respecto de BE sea A. Sabemos que A es diagonalizable si y solo si lo es f . Estudiamos lascondiciones de diagonalizacion dadas para endomorfismos en la subseccion anterior y, si determi-namos que f es diagonalizable, obtenemos una base de E, BE, formada por vectores propios def . Respecto de BE la matriz coordenada de f es una diagonal D. Entonces, si la ecuacion delcambio de base en E es X = PX, quedara que

    D = P1AP

    donde, recordemos que P es la matriz cuadrada de orden n, regular, cuya columna iesima estaformada por las coordenadas en BE del iesimo vector de B

    E.

    Una vez obtenidas las matrices P y D, tenemos la matriz diagonal semejante a A y la matrizregular que nos permite el paso de A a D, siendo indiferentes el espacio E y la base BE conside-rados. Por ello, lo habitual es tomar E = IKn y como base la canonica de este espacio, no siendonecesario especificarlo.

  • Formas bilineales y formas cuadraticas

    FORMAS BILINEALES Sea En un E .V . sobre IR.

    Definicion 113. Se dice forma bilineal sobre E a toda aplicacion de E E en IR que verifiquelas propiedades:

    , IR, u1, u2, v E f(u1 + u2, v) = f(u1, v) + f(u2, v) ,, IR, u, v1, v2 E f(u, v1 + v2) = f(u, v1) + f(u, v2) .

    De la definicion se sigue que f(h

    k=1

    kuk,

    kl=1

    lvl) =h

    k=1

    kl=1

    klf(uk, vl).

    Expresion matricial asociadaSea BE = (u1, u2, . . . , un) una base de E. Dados u = x1u1+ . . .+xnun, v = y1u1+ . . .+ynun E,

    f(u, v) =n

    k=1

    nl=1

    xkylf(uk, ul) = (x1 . . . xn)

    f(u1, u1) f(u1, u2) . . . f(u1, un)f(u2, u1) f(u2, u2) . . . f(u2, un)

    ...... . . .

    ...f(un, u1) f(un, u2) . . . f(un, un)

    y1y2...yn

    y denotando por X = (xi), Y = (yi) Mn1(IR) y A = (f(ui, uj)) Mn(IR), escribiremos

    f(u, v) = XTAY.

    A se dice matriz de la forma bilineal f respecto de BE.

    FORMAS CUADRATICASSea f una forma bilineal sobre E, se dice que f es simetrica si

    u, v E, f(u, v) = f(v, u).Si f es simetrica, su matriz asociada respecto de cualquier base sera simetrica.

    Dada una forma bilineal simetrica sobre E, le podemos asociar la siguiente aplicacion fc de Een IK

    fc(u) = f(u, u)

    que se dice forma cuadratica. La forma bilineal f se dice forma polar de la forma cuadratica fc.Dada la forma cuadratica, la forma polar asociada queda unvocamente determinada por

    f(u, v) =1

    2(fc(u+ v) fc(u) fc(v)) .

    Sea BE = (u1, u2, . . . , un) una base de E y sea A la matriz asociada a f en esta base. Parau = x1u1 + . . .+ xnun E se tiene que

    fc(u) = f(u, u) = XTAX.

    33

  • 34 Matematicas II, MECANICA

    Si ahora se toma una nueva base de E, BE = (u1, u

    2, . . . , u

    n), existe una matriz P Mn(IR),

    regular, tal que X = PX es la ecuacion del cambio de base. Entonces,

    fc(u) = f(u, u) = XTAX = (PX)TAPX = XT (P TAP )X,

    as, la matriz asociada a fc respecto de la nueva base es

    B = P TAP Mn(IR),

    las matrices A,B para las que existe una matriz regular P verificando que B = P TAP se dicencongruentes. Tomando determinantes resulta |B| = |P |2|A| y, por ser |P | 6= 0, si |A| = 0 tambiensera |B| = 0 y si |A| 6= 0 tambien |B| 6= 0. Cuando el determinante de sus matrices asociadas es 0la forma cuadratica se dice degenerada y en otro caso se dice ordinaria. Segun acabamos de ver,esto es independiente de la base considerada. Ademas, por ser P regular, A y B tienen el mismorango, este valor se dice rango de la forma cuadratica.

    DIAGONALIZACION DE FORMAS CUADRATICASDiagonalizar una forma cuadratica consiste en encontrar una base en la que la matriz asociadasea diagonal. La expresion asociada cuando la matriz es diagonal sera del tipo

    fc(u) = 1x21 + 2x

    22 + . . .+ nx

    2n.

    Si denotamos por p el numero de elementos i que son positivos y por q el numero de ellos que sonnegativos, se dice signatura de la forma cuadratica al par (p, q). La forma cuadratica fc se dice

    1. definida positiva cuando signaturafc = (n, 0),

    2. semidefinida positiva cuando signaturafc = (p, 0) con p < n,

    3. definida negativa cuando signaturafc = (0, n),

    4. semidefinida negativa cuando signaturafc = (0, q) con q < n,

    en cualquier otro caso se dice no definida.

    Supongamos que, en cierta base de E, la matriz asociada es la diagonal cuya diagonal principal es

    (1, . . . , p, p+1, . . . , p+q, 0, . . . , 0)

    con 1, . . . , p > 0 y p+1, . . . , p+q < 0. Entonces, considerando el cambio de coordenadas

    X = PX,

    con P la matriz diagonal cuya diagonal principal es

    (1, . . . ,

    p,p+1, . . . ,p+q, 1, . . . , 1)

    resulta que la matriz asociada a la forma cuadratica es la diagonal con diagonal principal

    (1, . . . , 1,1, . . . ,1, 0, . . . , 0)

    por lo que, la expresion de la forma cuadratica queda

    fc = 1x21 + . . .+ px

    2p + p+1x

    2p+1 + . . .+ p+qx

    2p+q = x

    21 + . . .+ x

    2p x2p+1 . . . x2p+q

  • 35

    esta expresion se dice ecuacion reducida.

    Diagonalizacion ortogonalToda matriz simetrica sobre IR puede diagonalizarse y sabemos que, si A es diagonalizable, existeuna matriz regular P tal que P1AP es diagonal. Nuestro cambio ahora tiene que ser de la formaP TAP por lo que tendremos el problema resuelto si conseguimos que P sea ortogonal, es decir,que las columnas de P verifiquen las condiciones (4). En este caso, la matriz diagonal estaraformada por los valores propios de A.

    Vamos a ver, con un ejemplo, como se pueden obtener matrices, P ortogonal y D diagonal, talesque P TAP = D. Sea fc la forma cuadratica sobre IR

    3 cuya matriz asociada respecto de la basecanonica es

    A =

    3 1 11 3 11 1 3

    .Se obtienen los valores propios de A y los subespacios fundamentales. El polinomio caractersticoes |A xI3| = x3 + 9x2 24x+ 20 = (x 2)2(x 5).

    V=5 (A 5I3)X = 0 2 1 1 01 2 1 0

    1 1 2 0

    ( 1 1 2 00 1 1 0

    )x1 = x2 = x3

    V=2 (A 2I3)X = 0 1 1 1 01 1 1 0

    1 1 1 0

    ( 1 1 1 0 ) x1 = x2 x3Si tomamos la matriz diagonal D =

    5 0 00 2 00 0 2

    , el primer vector de la base debera ser de V5,por tanto de la forma (x, x, x), y sus coordenadas nos proporcionaran la primera columna de P.Por las condiciones (4) se sabe que deberan cumplir x2 + x2 + x2 = 1 con lo que x2 = 1/3. Sitomamos, por ejemplo, x = 1

    3se obtiene

    u1 = (13,13,13)

    Los otros dos vectores, seran de V2, por tanto de la forma (y z, y, z). Vamos a fijar el primerode esos vectores, cuyas coordenadas nos proporcionaran la segunda columna de P. De (4) se sigueque

    (y z)2 + y2 + z2 = 113(y z) + 1

    3y + 1

    3z = 0

    }y siendo la segunda expresion una identidad, el sistema queda reducido a la condicion

    2yz + 2y2 + 2z2 = 1

    en la que si tomamos, por ejemplo, y = 0 se obtiene z2 = 12y podemos tomar z = 1

    2con lo que

    u2 = ( 12, 0,

    12).

    Para la tercera columna, el vector de la forma (y z, y, z) debe verificar(y z)2 + y2 + z2 = 1

    13(y z) + 1

    3y + 1

    3z = 0

    12(y z) + 1

    2z = 0

  • 36 Matematicas II, MECANICA

    de estas condiciones, la segunda es una identidad. Por lo que resulta

    2y2 + 2z2 + 2yz = 1y + 2z = 0

    }y = 2z

    8z2 + 2z2 4z2 = 1}z2 =

    1

    6

    as, podemos tomar z = 16con lo que y = 2

    6, x = y z = 1

    6y

    u3 = (16,26,16).

    As,

    P =

    1/3 1/2 1/61/3 0 2/61/3 1/

    2 1/

    6

    y P TAP = D.

    Las condiciones dadas en (4) sobre el producto de elementos de dos columnas distintas,

    i, j = 1, . . . , n, i 6= j,n

    k=1

    pkipkj = 0,

    se reducen a una identidad cuando esas columnas corresponden a vectores de distintos subespaciosfundamentales. As pues, aunque aqu las hemos escrito, no es necesario plantearlas. Es decir,para fijar los vectores de cada subespacio fundamental no es necesario tener en cuenta los vectoresque corresponden a otros subespacios fundamentales. Por el modo en el que hemos resuelto elproblema, queda claro que no hay unicidad, pudiendo elegir el orden de aparicion de los elementosen la diagonal de D as como distintas bases de los subespacios fundamentales, para las columnasde P .

    Diagonalizacion completando cuadrados

    Sea fc la forma cuadratica sobre IR3 cuya matriz asociada respecto de la base canonica es

    A =

    1 1 11 2 31 3 5

    ,con lo que

    fc((x, y, z)) = x2 + 2xy + 2xz + 2y2 + 6yz + 5z2.

    Se trata de escribir esta expresion como sumas o diferencias de cuadrados. Para ello, agruparemosen un primer cuadrado todos los terminos en los que aparece x

    x2 + 2xy + 2xz = (x+ y + z)2 y2 z2 2yz

    con lo que

    fc((x, y, z)) = (x+ y + z)2 y2 z2 2yz + 2y2 + 6yz + 5z2 = (x+ y + z)2 + y2 + 4yz + 4z2

    procediendo del mismo modo, agrupamos ahora todos los terminos en los que aparece y, excep-tuando el que ya hemos arreglado como un cuadrado,

    y2 + 4yz = (y + 2z)2 4z2

  • 37

    y as,

    fc((x, y, z)) = (x+ y + z)2 + (y + 2z)2 4z2 + 4z2 = (x+ y + z)2 + (y + 2z)2

    o lo que es lo mismofc((x, y, z)) = (x+ y + z)

    2 + (y + 2z)2 + 0z2

    Entonces, escribiendox = x+ y + zy = y + 2zz = z

    , es decir, xy

    z

    = 1 1 10 1 2

    0 0 1

    xyz

    resulta quefc((x, y, z)) = (x

    )2 + (y)2

    y, en esa base, la matriz asociada es

    B =

    1 0 00 1 00 0 0

    .El cambio de base que se ha hecho es X = QX y segun hemos visto antes necesitamos el cambioinverso, as calculamos P = Q1 obteniendo

    P =

    1 1 10 1 20 0 1

    que es la matriz regular tal que P TAP = B. Es obvio que la matriz obtenida ahora no es ortogonal.

    Vamos a considerar una forma cuadratica sobre IR3 en cuya expresion no aparece ningun terminode segundo grado. Para ello, la matriz asociada debe tener nulos todos sus elementos diagonales

    A =

    0 1 11 0 11 1 0

    ,con lo que

    fc((x, y, z)) = 2xy + 2xz + 2yz

    para escribir esta expresion como sumas o diferencias de cuadrados, haremos dos cambios devariable, el primero para introducir cuadrados en la expresion y el otro similar al realizado en el

    ejemplo anterior. Escribiendox = x+ yy = x yz = z

    resulta fc((x, y, z)) = 2(x+ y)(x y) + 2(x+ y)z +2(x y)z = 2x2 2y2 + 2xz + 2yz + 2xz 2yz = 2x2 + 4xz 2y2 = (2x + 2

    2z)2 2z2 2y2

    con lo que escribiendo

    x =2x+

    2z

    y =2y

    z =2z

    quedafc((x, y, z)) = x

    2 y2 z2

    Los cambios de variable han sido X = QX y X = RX con lo que

    X = QX = QR1 X

  • 38 Matematicas II, MECANICA

    con lo que

    P =

    1 1 01 1 00 0 1

    2 0 20 2 00 0

    2

    1 = 1 1 01 1 0

    0 0 1

    1/2 0 1/20 1/2 00 0 1/

    2

    = 1/2 1/2 1/21/2 1/2 1/2

    0 0 1/2

    y P TAP =

    1 0 00 1 00 0 1

    .