notas del curso de Álgebra lineal ii

233
Álgebra Lineal Semestre Enero - Mayo, 2014 Notas de Curso José Alejandro Lara Rodríguez Facultad de Matemáticas Universidad Autónoma de Yucatán 9 de enero de 2014 Estas notas están basadas en el libro de Álgebra Lineal  de los autores J.A. Lara Rodríguez y C.J. Rubio Barrios [ 12]. Las notas incorporan ejemplos de cómo realizar algunos cálculos usando el software libre para matemáticas llamado  Sage  (www.sagemath.org) [22]. También se incluyen respuestas a ejercicios seleccionados.

Upload: jose-ponce

Post on 19-Oct-2015

185 views

Category:

Documents


4 download

TRANSCRIPT

  • lgebra LinealSemestre Enero - Mayo, 2014

    Notas de Curso

    Jos Alejandro Lara Rodrguez

    Facultad de Matemticas

    Universidad Autnoma de Yucatn9 de enero de 2014

    Estas notas estn basadas en el libro delgebra Lineal de los autoresJ.A. Lara Rodrguez y C.J. Rubio Barrios [12]. Las notas incorporanejemplos de cmo realizar algunos clculos usando el software librepara matemticas llamado Sage (www.sagemath.org) [22]. Tambinse incluyen respuestas a ejercicios seleccionados.

  • ii

  • ndice general

    ndice general iii

    ndice de figuras vii

    Notaciones frecuentemente usadas ix

    1. Sistemas de ecuaciones lineales 11.1. Ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

    1.1.1. Representaciones matriciales . . . . . . . . . . . . . . . . . . . . . . . . . 41.1.2. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

    1.2. Tcnicas de eliminacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91.2.1. Forma escalonada y el mtodo de Gauss . . . . . . . . . . . . . . . . . . . 131.2.2. La forma escalonada reducida y el mtodo de Gauss-Jordan . . . . . . . . 171.2.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

    1.3. Rango y consistencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221.3.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

    1.4. Sistemas homogneos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271.4.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

    1.5. Sistemas no homogneos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281.5.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

    1.6. Clculo de los cuatro espacios fundamentales . . . . . . . . . . . . . . . . . . . . 321.7. Descomposiciones LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

    1.7.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

    2. Determinantes 432.1. Existencia de una funcin determinante . . . . . . . . . . . . . . . . . . . . . . . 43

    2.1.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 472.2. Permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48

    2.2.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 512.3. Unicidad de la funcin determinante . . . . . . . . . . . . . . . . . . . . . . . . . 52

    2.3.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 582.4. Determinantes y sistemas de ecuaciones . . . . . . . . . . . . . . . . . . . . . . . 61

    2.4.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 622.5. Clculo de determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63

    2.5.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65

    iii

  • iv NDICE GENERAL

    2.6. reas y volmenes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 672.6.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72

    3. Espacios vectoriales 753.1. Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75

    3.1.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 773.2. Subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78

    3.2.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 813.3. Dependencia e independencia lineal . . . . . . . . . . . . . . . . . . . . . . . . . . 83

    3.3.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 873.4. Bases y dimensin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89

    3.4.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 923.5. Bases y dimensin de los subespacios fundamentales . . . . . . . . . . . . . . . . 94

    3.5.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 963.6. Sumas directas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97

    3.6.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101

    4. Transformaciones lineales y matrices 1054.1. Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105

    4.1.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1094.2. El ncleo y la imagen de una transformacin lineal . . . . . . . . . . . . . . . . . 111

    4.2.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1134.3. Transformaciones lineales inyectivas y suprayectivas . . . . . . . . . . . . . . . . 114

    4.3.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1164.4. La matriz asociada a una transformacin lineal . . . . . . . . . . . . . . . . . . . 117

    4.4.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1214.5. El isomorfismo entre KdimWdimV y L(V,W ) . . . . . . . . . . . . . . . . . . . . 124

    4.5.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1254.6. Matrices asociadas a la misma transformacin lineal . . . . . . . . . . . . . . . . 125

    4.6.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1324.7. Operadores diagonalizables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134

    4.7.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1354.8. El espacio dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136

    4.8.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138

    5. Espacios producto interno 1415.1. Espacios producto interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142

    5.1.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1465.2. Ortogonalidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148

    5.2.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1505.3. El proceso de Gram - Schmidt y la descomposicin QR . . . . . . . . . . . . . . 152

    5.3.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1565.4. Proyecciones ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157

    5.4.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1625.5. Teorema de la descomposicin ortogonal . . . . . . . . . . . . . . . . . . . . . . . 163

    5.5.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1675.6. Mnimos cuadrados y sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . 167

    5.6.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172

    A. Campos 175A.1. Definicin y propiedades bsicas . . . . . . . . . . . . . . . . . . . . . . . . . . . 175A.2. La caracterstica de un campo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178

  • NDICE GENERAL v

    B. Matrices 179B.1. Definiciones bsicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179B.2. El espacio vectorial de las matrices . . . . . . . . . . . . . . . . . . . . . . . . . . 183B.3. El anillo de las matrices cuadradas . . . . . . . . . . . . . . . . . . . . . . . . . . 185B.4. La transpuesta de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188B.5. Multiplicacin de matrices en bloques . . . . . . . . . . . . . . . . . . . . . . . . 193B.6. La traza de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195B.7. Matrices elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196B.8. Mtodo de eliminacin de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . 203B.9. Mtodo de eliminacin de Gauss-Jordan . . . . . . . . . . . . . . . . . . . . . . . 206B.10.Algoritmo de Gauss-Jordan para calcular la inversa . . . . . . . . . . . . . . . . . 207B.11.Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208

    C. Soluciones a ejercicios seleccionados 213

    Bibliografa 219

    ndice alfabtico 221

  • vi NDICE GENERAL

  • ndice de figuras

    1.1. Interpretacin geomtrica: Interseccin de rectas . . . . . . . . . . . . . . . . . . 71.2. Interpretacin geomtrica: Combinacin lineal de vectores . . . . . . . . . . . . . 81.3. Interpretacin funcional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

    2.1. El paralelogramo P (v, w) determinado por los vectores v y w. . . . . . . . . . . . 672.2. El paralelogramo P (nv,w) determinado por los vectores nv y w . . . . . . . . . . 682.3. El paralelogramo P (rv, w) determinado por rv y w . . . . . . . . . . . . . . . . . 692.4. Propiedades de volmenes y determinantes . . . . . . . . . . . . . . . . . . . . . 692.5. Paralelogramo determinado por v = (3 5)T y w = (1 2)T . . . . . . . . . . . . . 712.6. Paralelogramo determinado por (2 3)T , (5 5)T , (5 8)T y (2 10)T . . . . . . . . 72

    5.1. c es la componente de v2 a lo largo de v1. . . . . . . . . . . . . . . . . . . . . . . 1535.2. Mnimos cuadrados: recta que pasa cerca de todos los puntos . . . . . . . . . . 1685.3. Mnimos cuadrados: parbola que pasa cerca de todos los puntos . . . . . . . . 169

    vii

  • viii NDICE DE FIGURAS

  • Notaciones frecuentemente usadas

    Final de una demostracin.N Nmeros naturales.Z Nmeros enteros.Q Nmeros racionales.R Nmeros reales.C Nmeros complejos.R+ Nmeros reales positivos.Fq Un campo finito con q elementos.K Un campo arbitrario.(s1, . . . , sn) Vector rengln con entradas s1, . . . , sn.(s1, . . . , sn)

    T Transpuesto del vector rengln (s1 . . . sn).Kn {(x1 . . . xn)T | xi K, 1 i n}.Kmn Espacio de las matrices de m n.I Matriz identidad.In Matriz identidad de tamao n n.A = (aij) Matriz A con entradas aij .[A]ij La entrada (i, j) de la matriz A.Aj Columna j de una matriz A.Ai Rengln i de una matriz A.adj(A) Adjunta de la matriz A.AT Transpuesta de la matriz A o del operador A.A La conjugada de la matriz compleja A, A = (aij).A La transpuesta conjugada de la matriz compleja A, A = AT . Tambin

    indica el adjunto del operador A.[A | b] La matriz aumentada del sistema Ax = b.R (A) Espacio columna de la matriz A.N (A) Espacio nulo de la matriz A.N(AT)

    Espacio nulo izquierdo de la matriz A.R(AT)

    Espacio rengln de la matriz A.D(A),det(A), |A| Determinante de la matriz A.Sn El grupo de las permutaciones de n elementos.V Usualmente denota un espacio vectorial.V El espacio dual del espacio vectorial V .1V El operador identidad sobre el espacio vectorial V .S Subespacio vectorial generado por el conjunto S.W Complemento ortogonal del subespacio W .dimV Dimensin de V .| | Cardinalidad de un conjunto. Tambin indica valor absoluto.

    ix

  • x 0. Notaciones frecuentemente usadas

    v Norma del vector v.U W Suma directa de U y W .U W Producto cartesiano de U yW . Si U yW son espacios vectoriales, denota

    su producto directo.[v] Vector de coordenadas respecto de la base .K[t] El espacio vectorial de los polinomios en la variable t con coeficientes en

    K.K[t]n El espacio vectorial de los polinomios en la variable t con coeficientes en

    K, de grado menor que n.f Grado del polinomio f .kerT Ncleo de la transformacin lineal T .ImT Imagen de la transformacin lineal T .[T ] Matriz de T en las bases y .[1V ] Matriz cambio de base de la base a la base .L(V,W ) El espacio de las transformaciones lineales de V en W .L(V ) Espacio de las funciones lineales de V en V .Bil(U V,W ) Espacio de las funciones bilineales de U V en W .Bil(V ) Espacio de las formas bilineales de V .v, w Producto interno (escalar o hermitiano) de v y w.(A) Espectro de A, el conjunto de los valores propios de A.E Espacio propio correspondiente al valor propio .

  • CAPTULO 1

    Sistemas de ecuaciones lineales

    Este captulo est dedicado al estudio de la resolucin de los sistemas de ecuaciones lineales.Se analizan las diferentes maneras de interpretar un sistema de ecuaciones. Posteriormente, seintroducen las diferentes tcnicas de eliminacin para la resolucin de stos. Quiz las tcnicasms conocidas son las de Gauss y Gauss-Jordan, incluyendo su versin matricial que usa la de-nominada descomposicin LU . Se analiza la estructura del conjunto de soluciones de un sistema,estudiando primero los sistemas homogneos, que tienen estructura de espacio vectorial (en elCaptulo 3 se estudiarn los espacios vectoriales), y despus los sistemas generales. Asociado auna matriz hay cuatro subespacios vectoriales, denominados los espacios fundamentales, ya quecualquier subespacio de un espacio vectorial de dimensin finita se relaciona directamente conuno de stos.

    Las tcnicas que se desarrollarn en este captulo son indispensables para entender plenamen-te los conceptos abstractos de espacio y subespacio vectorial que se presentarn ms adelante.

    La teora se desarrollar sobre un campo arbitrario K. Sin embargo, si el lector lo prefiere,puede suponer que K es un subcampo del campo de los nmeros complejos (esto por supuestoincluye a Q, R y C). A los elementos de un campo se les llama escalares.

    1.1. Ecuaciones lineales

    El estudio de los sistemas de ecuaciones lineales es uno de los temas ms importantes dellgebra lineal. El estudio de estos sistemas est ntimamente ligado con el estudio de las matrices.

    Sea K un campo. Una ecuacin lineal con n incgnitas x1, . . . , xn es una ecuacin que sepuede escribir en la forma:

    a1x1 + a2x2 + + anxn = b, (1.1)

    donde a1, . . . , an, b son escalares (esto es, son elementos del campoK). Las xis son las incgnitas,las ais son los coeficientes y el escalar b se llama trmino constante o independiente.

    Si K = R, una ecuacin lineal con dos incgnitas representa una recta en el plano, en tantoque una ecuacin lineal con tres incgnitas representa un plano en el espacio (salvo algunasexcepciones).

    Las ecuaciones 5x + 2y = 3 y

    3x y = 2z pi son ecuaciones lineales, en tanto quex 3y2 = 0 y cosx+ y = 3 no lo son.

    1

  • 2 1. Sistemas de ecuaciones lineales

    Una matriz con exactamente una columna se llama vector columna, y una matriz con exac-tamente un rengln se llama vector rengln. El conjunto de todos los vectores columna conentradas en el campo K se denotar por Kn. Si x es un vector columna, entonces su transpues-ta1 es un vector rengln. Recprocamente, si x es un vector rengln su transpuesta es un vectorcolumna.

    Un vector (s1, . . . , sn)T Kn es una solucin de la ecuacin lineal (1.1) si a1s1 + a2s2 + + ansn = b. As, (1,1)T es una solucin de la ecuacin 5x+ 2y = 3, pues 5(1) + 2(1) = 3.Por otro lado, (1, 1)T no es solucin ya que 5(1) + 2(1) = 7 6= 3.

    Un sistema de m ecuaciones lineales con n incgnitas es un conjunto de m ecuaciones linealesque se puede escribir en la forma:

    a11x1 + a12x2 + + a1nxn = b1, (1.2)a21x1 + a22x2 + + a2nxn = b2,

    ...am1x1 + am2x2 + + amnxn = bm,

    donde las aij s y las bis (1 i m, 1 j n) son escalares. Cuando se tiene b1 = b2 = =bm = 0, se dice que el sistema es un sistema homogneo. De otra manera se dice que es nohomogneo. De acuerdo a esta definicin, el sistema:

    2x 3y + 7z = 0,x y z = 0,

    es homogneo, mientras que el sistema:

    2x 3y + 7z = 0,x y z = 3,

    es no homogneo.Un vector (s1, . . . , sn)T Kn es una solucin del sistema (1.2) si es solucin de cada una

    de las ecuaciones del sistema. Es claro que para un sistema de ecuaciones dado solo hay dosposibilidades: tiene solucin o no tiene solucin. Un sistema que tiene al menos una solucin sellama consistente; un sistema sin solucin se llama inconsistente. Para un sistema consistentese presentan dos posibilidades: o tiene solucin nica o tiene ms de una solucin. Un sistemaconsistente se llama determinado si tiene solucin nica e indeterminado si tiene ms de unasolucin.

    Sistema de ecuaciones

    Consistente{Determinado: Solucin nica.Indeterminado: Ms de una solucin.

    Inconsistente: Sin solucin.

    Veamos algunos ejemplos.

    Ejemplo 1.1.1. Una solucin del sistema:

    2x y = 1,x+ y = 2,

    es (1, 1)T . Ms an, se puede demostrar que es la nica solucin. En consecuencia, ste es unsistema consistente y determinado.

    1Si A = (aij) es una matriz de m n, su transpuesta denotada por AT es la matriz cuya (i, j)-sima entradaes aji.

  • 1.1. Ecuaciones lineales 3

    Ejemplo 1.1.2. Los vectores (1, 3, 2)T y (1, 7, 4)T son soluciones del sistema de ecuacio-nes:

    2x+ y z = 1,x y + 2z = 0.

    Este sistema es consistente, pero indeterminado.

    Ejemplo 1.1.3. El sistema de ecuaciones:

    x+ y = 1,

    x+ y = 2,

    es inconsistente sobre el campo de los nmeros reales. En efecto, si (s1, s2)T fuera una solucin

    del sistema, se tendra 1 = s1 + s2 = 2. As este sistema no tiene solucin.

    Una buena parte del estudio de los sistemas de ecuaciones lineales consiste en determinarsu consistencia o inconsistencia. La otra parte consiste en calcular la solucin si sta es nica obien describir el conjunto de todas las soluciones. Antes de analizar cmo resolver sistemas deecuaciones lineales es necesario familiarizarnos con las diferentes representaciones en trminosde matrices de stos.

    Ejemplo SAGE 1.1.4. Con la ayuda de Sage se pueden calcular las soluciones de los sistemasde ecuaciones de los ejemplos anteriores.

    sage: var(x y z)(x, y, z)sage: solve ([2*x-y ==1, x+y==2],x,y) # Determinado[[x == 1, y == 1]]sage: solve ([2*x+y-z==1, x-y+2*z==0],x,y,z) # Indeterminado[[x == -1/3*r1 + 1/3, y == 5/3*r1 + 1/3, z == r1]]sage: solve([x+y==1, x+y ==2],x,y) # Inconsistente[]

    Note que en el segundo caso, la solucin est dada en trminos de un parmetro r1. Se deja allector verificar que x = r1/3+1/3, y = 5r1/3+1/3 y z = r1, donde r1 es cualquier nmero reales solucin del sistema de ecuaciones del Ejemplo 1.1.2. Que haya una infinidad de soluciones sedebe a que la interseccin de dos planos no paralelos es una recta. En el ltimo caso el sistemano tiene solucin.

    De manera alterna se pueden almacenar las ecuaciones en variables.

    sage: e1 = 2*x-y ==1sage: e2 = x+y==2sage: e12*x - y == 1sage: e2x + y == 2sage: solve([e1 ,e2], x, y)[[x == 1, y == 1]]

  • 4 1. Sistemas de ecuaciones lineales

    1.1.1. Representaciones matricialesEs posible (y altamente recomendable) expresar un sistema de ecuaciones lineales en trminos

    matriciales. Consideremos el siguiente sistema de m ecuaciones lineales con n incgnitas:

    a11x1 + a12x2 + + a1nxn = b1,a21x1 + a22x2 + + a2nxn = b2,

    ...am1x1 + am2x2 + + amnxn = bm.

    Las matrices:

    A =

    a11 a12 . . . a1na21 a22 . . . a2n...

    .... . .

    ...am1 am2 . . . amn

    , b =b1b2...bm

    [A | b] =

    a11 a12 . . . a1na21 a22 . . . a2n...

    .... . .

    ...am1 am2 . . . amn

    b1b2...bm

    reciben los nombres de matriz de coeficientes, matriz (o vector) de trminos independientes ymatriz aumentada, respectivamente. Considerando la definicin de igualdad de matrices y lasoperaciones de suma y multiplicacin de matrices, podemos escribir el sistema dado como:

    Ax = b, donde x = (x1, . . . , xn)T.

    La multiplicacin Ax se puede realizar de dos maneras diferentes: por renglones o por columnas.En la multiplicacin por renglones tenemos:

    Ax =

    A1xA2x...

    Amx

    donde A1, A2, . . . , Am son los renglones de A. En la multiplicacin por columnas tenemos:

    b = Ax = x1A1 + x2A2 + + xnAn,

    donde A1, A2, . . . , An son las columnas de A. En la multiplicacin por columnas, se dice queb es combinacin lineal de las columnas de A.

    Sean B1, . . . , Bm son matrices del mismo tamao. Una combinacin lineal de las matricesBi es una matriz de la forma

    a1B1 + + amBm =mi=1

    aiBi

    donde a1, . . . , am son escalares. Una matriz B es una combinacin lineal de las matrices Bisi existen escalares a1, . . . , am tales que B =

    aiBi. Formar combinaciones lineales a partir

    de un conjunto de matrices dado es muy fcil; basta con elegir escalares arbitrarios y realizar

  • 1.1. Ecuaciones lineales 5

    las operaciones correspondientes. Consideremos por ejemplo las matrices B1 =(

    11

    )y B2 =(

    11

    ). Algunas combinaciones lineales de estas matrices son:

    B1 +B2 =

    (20

    ), 2B1 + 3B2 =

    (51

    ), 0B1 +B2 = B2, B1 + 0B2 = B1.

    Decidir si una matriz particular es combinacin lineal lineal de otras matrices no siempre

    resulta tan sencillo. Por ejemplo, es B =(

    35

    )una combinacin lineal de B1 y B2? Ms

    adelante se vern mtodos generales para responder a esta pregunta.

    Ejemplo 1.1.5. La matriz de coeficientes y el vector de trminos independientes del sistema:

    3x1 + 2x2 x3 + x4 = 1,x2 + x3 x4 = 2,

    2x1 + x2 3x3 + 5x4 = 8,

    son:

    A =

    3 2 1 10 1 1 12 1 3 5

    y b =12

    8

    ,respectivamente. El sistema se puede escribir de las siguientes maneras:

    3 2 1 10 1 1 12 1 3 5

    x1x2x3x4

    =12

    8

    ,x1

    302

    + x2 21

    1

    + x3113

    + x4 11

    5

    =12

    8

    .Una solucin de este sistema de ecuaciones lineales es s = (2 3 1 2)T . El vector b se puedeescribir como combinacin lineal de las columnas de A:

    2

    302

    + (3) 21

    1

    +113

    + 2 11

    5

    =12

    8

    .El siguiente teorema es consecuencia inmediata de las diferentes representaciones de un

    sistema de ecuaciones lineales.

    Teorema 1.1.6. Sea el sistema de ecuaciones lineales Ax = b, donde A Kmn y b Km.Las siguientes afirmaciones son equivalentes:

    a) El sistema de ecuaciones lineales tiene al menos una solucin.

    b) Existe al menos un vector en Kn que satisface simultneamente todas las ecuaciones delsistema.

    c) Es posible escribir al vector de trminos independientes b, como combinacin lineal de lascolumnas de la matriz A.

  • 6 1. Sistemas de ecuaciones lineales

    d) El vector b pertenece a la imagen de la funcin T : Kn Km definida por T (x) = Ax.

    Demostracin. a) b). Es por definicin de solucin de un sistema de ecuaciones. b) c) Seas = (s1, . . . , sn)

    T un vector que satisface simultneamente todas las ecuaciones del sistemaAx = b. Entonces As = b y

    b = As = s1A1 + + snAn. (1.3)

    c) d) Supongamos que existen escalares s1, . . . , sn tales que b se puede escribir de la forma(1.3), entonces b = As = T (s), donde s = (s1 . . . sn)T Kn y por lo tanto b ImT .

    d) a) Supongamos que b ImT . Por definicin de imagen, existe un s Kn tal queb = f(s) = As. Esto muestra que el sistema Ax = b tiene al menos una solucin.

    A la imagen de la funcin T definida en la proposicin anterior se le denomina espaciocolumna de la matriz A y se denota con el smbolo R(A):

    R (A) = ImT = {b Km | b = Ax para algn x Kn} .

    El espacio columna de A consta de todos aquellos vectores de Km que se pueden escribir comocombinacin lineal de las columnas de A, es decir, consta de todas las combinaciones lineales delas columnas de A. De acuerdo con la proposicin anterior podemos afirmar que:

    El sistema Ax = b tiene solucin si y slo si b R(A).

    En la siguiente seccin estudiaremos tcnicas para determinar cuando un sistema de ecuacionesdado tiene solucin.

    Ejemplo 1.1.7. La nica solucin del siguiente sistema de ecuaciones es s = (2, 3)T .

    2x y = 1, (1.4)x+ y = 5.

    El punto s satisface simultneamente las dos ecuaciones del sistema. La solucin es aquel puntodel plano donde las rectas se intersectan (Figura 1.1.1). Por otro lado, el vector de trminosindependientes b se escribe como combinacin de las columnas de la matriz asociada al sistema:

    2

    (21

    )+ 3

    ( 11

    )=

    (15

    )(Figura 1.2); observamos que para obtener el vector b se debe multi-

    plicar por 2 el vector(

    21

    ), por 3 el vector

    ( 11

    )y realizar la suma de los vectores resultantes.

    Finalmente, al considerar la funcin T : R2 R2 definida de la siguiente manera:

    T

    (xy

    )=

    (2 11 1

    )(xy

    )=

    (2x yx+ y

    ),

    notamos que y ImT = {y R2 | y = T (x) para algn x R2} = R(A), donde A es la matrizde coeficientes del sistema. Observe que en el espacio columna de la matriz A hay ms de un

    vector. Por ejemplo, el vector b1 =( 1

    2

    ) R(A) ya que A

    (11

    )= b1. Se deja de ejercicio al

    lector construir ms elementos que pertenezcan al espacio columna de la matriz A.

  • 1.1. Ecuaciones lineales 7

    x1 1 2 3 4 5 6

    y

    1

    1

    2

    3

    4

    5

    6 2x y = 1

    x+ y = 5

    (23

    )

    Figura 1.1: La solucin (2 3)T del sistema de ecuaciones lineales 1.4 interpretado como la inter-seccin de las rectas 2x y = 1 y x+ y = 5.

    1.1.2. Ejercicios1. Con la ayuda de Sage determine si el siguiente sistema de ecuaciones es determinado, inde-

    terminado o inconsistente.

    2x3 + 12x4 = 1,

    x1 2x4 2x5 = 114,

    2x1 + x2 + x5 = 2,

    2x3 x4 + x5 = 32.

    Escriba la matriz de coeficientes y el vector de trminos independientes.

    2. Con la ayuda de Sage determine si el siguiente sistema de ecuaciones es determinado, inde-terminado o inconsistente.

    x2 12x3 2x4 = 1

    4,

    2x3 x5 = 61,2x2 + 2x3 + x4 = 0,

    1

    2x3 1

    2x4 = 21,

    x1 + 2x3 12x4 = 4,

    2x2 12x3 = 3

    7.

  • 8 1. Sistemas de ecuaciones lineales

    x3 2 1 1 2 3 4

    y

    1

    2

    3

    4

    5

    vw

    2v

    3w

    b = 2v + 3w

    Figura 1.2: La solucin (2, 3)T del sistema de ecuaciones lineales 1.4 interpretada como unacombinacin lineal de los vectores v = (2, 1)T y w = (1, 1)T . El vector v se multiplica por2, el vector w se multiplica por 3. La suma de los vectores resultantes es el vector de trminosb = 2v + 3w.

    3. La matriz de coeficientes y el vector de trminos independientes de un sistema de ecuacionesson

    A =

    0 1 1 2 01 0 2 0 10 2 1 0 11 1 0 1 0

    1 1 1 0 0

    y b =2132 11201

    ,

    respectivamente. Determine si el sistema de ecuaciones es determinado, indeterminado oinconsistente.

    4. Con la ayuda de algn software, por ejemplo Sage, determine si el vector b =

    434

    escombinacin lineal de las matrices

    v1 =

    121

    , v2 = 12

    1

    , v3 = 11

    1

    .5. Determine cul o cules de los siguientes vectores pertenecen al espacio columna de la matriz

    A =

    1 1 11 1 12 1 1

    . 326

    , 666

    , 12

    5

    , 005

    1113

    .

  • 1.2. Tcnicas de eliminacin 9

    x1 1 2 3

    y

    1

    2

    3

    x1 1 2 3

    y

    1

    2

    3

    4

    5

    (23

    )(

    15

    )T

    Figura 1.3: La solucin s = (2 3)T del sistema de ecuaciones lineales 1.4 interpretado como aquelpunto del dominio de la funcin T : R2 R2 que satisface T (s) = b = (1 5)T .

    6. Considere el sistema de ecuaciones lineales Ax = b, donde

    [A | b] =

    0 0 2 2 2 2 41 0 1 0 6 4 10

    2 0 1 3 9 5 264 0 3 7 17 9 54

    .a) Escriba b, el vector de trminos independientes, como una combinacin lineal de las

    columnas de A.

    b) Sea T la funcin de R6 R4 definida por la matriz A. Proporcione al menos cincovectores b R4 que pertenezcan a la imagen de T .

    7. Pruebe que si un sistema de ecuaciones lineales con coeficientes en R tiene al menos dossoluciones diferentes, entonces tiene infinidad de soluciones. (Sugerencia. Si x1 6= x2 sonsoluciones del sistema Ax = b, demuestre que x1 +k(x1x2) tambin es solucin del sistemapara todo k R. Luego demuestre que cualesquiera dos de estas soluciones son distintas).

    8. Sean A y x matrices de nmeros reales positivos de tamaos n n y n 1 respectivamente.Demuestre que si A2x = x, entonces Ax = x.

    1.2. Tcnicas de eliminacin

    En esta seccin se estudiar el fundamento en que se basan los diferentes mtodos pararesolver sistemas de ecuaciones lineales. Estos mtodos nos permitirn describir el conjunto desoluciones de un sistema, o en su caso, determinar que el sistema dado no tiene solucin.

    La idea principal de estos mtodos es transformar un sistema de ecuaciones lineales enotro que sea ms fcil de resolver. Para llevar a cabo esta transformacin formaremos nuevasecuaciones lineales a partir de las ecuaciones del sistema dado; la caracterstica principal de lasnuevas ecuaciones es que cualquier solucin del sistema original tambin ser solucin de lasnuevas.

  • 10 1. Sistemas de ecuaciones lineales

    Consideremos el sistema de ecuaciones lineales:

    a11x1 + a12x2 + + a1nxn = b1, (1.5)a21x1 + a22x2 + + a2nxn = b2,

    ...am1x1 + am2x2 + + amnxn = bm.

    Diremos que la ecuacin lineal:

    1x1 + 2x2 + + nxn = , (1.6)es una combinacin lineal del sistema (1.5) si existen escalares 1, 2, . . . , m tales que:

    1 = 1a11 + 2a21 + + mam1,2 = 1a12 + 2a22 + + mam2,

    ...n = 1a1n + 2a2n + + mamn, = 1b1 + 2b2 + + mbm.

    Supongamos que s = (s1, . . . , sn)T es una solucin del sistema (1.5). Afirmamos que s

    tambin es una solucin de la combinacin lineal (1.6). En efecto:

    1s1 + 2s2 + + nsn = (1a11 + 2a21 + + mam1) s1 +(1a12 + 2a22 + + mam2) s2 + +(1a1n + 2a2n + + mamn) sn

    = 1 (a11s1 + a12s2 + + a1nsn) +2 (a21s1 + a22s2 + + a2nsn) + +m (am1s1 + am2s2 + + amnsn)

    = 1b1 + 2b2 + + mbm= .

    El recproco no es cierto, es decir, existen soluciones de la combinacin lineal que no sonsoluciones del sistema original.

    Ejemplo 1.2.1. Considere el sistema de ecuaciones lineales del Ejemplo 1.1.5. La ecuacinlineal:

    16x1 + 12x2 20x3 + 30x4 = 36 (1.7)es una combinacin lineal de las ecuaciones del sistema, ya que:

    16 = 2(3) + (3)(0) + 5(2),12 = 2(2) + (3)(1) + 5(1),20 = 2(1) + (3)(1) + 5(3),

    30 = 2(1) + (3)(1) + 5(5),36 = 2(1) + (3)(2) + 5(8).

    Note que la ecuacin (1.7) se obtuvo simplemente multiplicando la primera ecuacin del sistemapor 1 = 2, la segunda por 2 = 3 y la tercera por 3 = 5, y sumando trmino a trmino lasecuaciones lineales obtenidas. Una solucin de la ecuacin lineal (1.7) es s =

    (94 , 0, 0, 0

    )T . Sinembargo, s no es solucin del sistema original.

  • 1.2. Tcnicas de eliminacin 11

    A partir de un sistema de ecuaciones lineales se pueden formar combinaciones lineales deuna forma muy sencilla:

    1. Se eligen escalares arbitrarios 1, . . . , m.

    2. Para cada i (1 i m) se multiplica la i-sima ecuacin lineal del sistema de ecuacionesdado por i.

    3. Se suman trmino a trmino las nuevas ecuaciones lineales obtenidas en el paso anterior.

    Aclaremos esto con un ejemplo. Formemos una combinacin lineal de las ecuaciones delsistema:

    x1 + 3x2 + 3x3 + 2x4 = 1,

    2x1 + 6x2 + 9x3 + 5x4 = 2,

    x1 3x2 + 3x3 = 1.Tomemos 1 = 2, 2 = 1 y 3 = 3. Efectuando las operaciones del paso dos tenemos:

    2x1 + 6x2 + 6x3 + 4x4 = 2,

    2x1 6x2 9x3 5x4 = 2,3x1 9x2 + 9x3 + 0x4 = 3.

    Al sumar trmino a trmino obtenemos la ecuacin lineal 3x1 9x2 + 6x3 x4 = 3. Noteque s =

    (0, 13 , 0, 0

    )T es una solucin del sistema de ecuaciones y tambin es una solucin dela combinacin lineal que se acaba de formar.

    Lo anterior se puede hacer en Sage de la siguiente manera:

    sage: var(x1 x2 x3 x4)(x1 , x2 , x3, x4)sage: ec1 = x1 + 3*x2 +3*x3+2*x4==1sage: ec2 = 2*x1 + 6*x2 +9*x3+5*x4==2sage: ec3 = -x1 -3*x2+3*x3==-1sage: l1 =2; l2 = -1; l3 = 3sage: ec4 = l1*ec1 + l2*ec2 +l3*ec3 # una combinacin linealsage: ec4-3*x1 - 9*x2 + 6*x3 - x4 == -3sage: l1 * ec1 # se multiplica la ec1 por 22*x1 + 6*x2 + 6*x3 + 4*x4 == 2sage: l2 * ec2 # se multiplica la ec2 por -1-2*x1 - 6*x2 - 9*x3 - 5*x4 == -2sage: l3 * ec3 # se multiplica la ec3 por 3-3*x1 - 9*x2 + 9*x3 == -3sage: # (0,1/3,0,0) es solucinsage: ec1.subs(x1=0,x2=1/3,x3=0,x4=0)1 == 1sage: ec2.subs(x1=0,x2=1/3,x3=0,x4=0)2 == 2sage: ec3.subs(x1=0,x2=1/3,x3=0,x4=0)-1 == -1sage: ec4.subs(x1=0,x2=1/3,x3=0,x4=0)-3 == -3sage: ec4.subs(x1=0,x2=0,x3=0,x4=3) #(0,0,0,3) es solucin-3 == -3sage: ec1.subs(x1=0,x2=0,x3=0,x4=3) #(0,0,0,3) NO es solucin6 == 1

  • 12 1. Sistemas de ecuaciones lineales

    Definicin 1.2.2. Se dice que dos sistemas de ecuaciones lineales S1 y S2 son equivalentes sicada ecuacin de S1 es combinacin lineal de S2, y cada ecuacin de S2 es combinacin linealde S1.

    Para aclarar esta definicin veamos algunos ejemplos.

    Ejemplo 1.2.3. Sea S1 el sistema de ecuaciones lineales formado por E1, E2 y E3 y S2 elsistema formado por E1, E2 y E3, donde:

    E1 : x2 x3 = 2 E1 : x1 + 2x2 x3 = 1E2 : x1 + 2x2 x3 = 1 E2 : x2 x3 = 2E3 : x1 + x2 + 2x3 = 3 E

    3 : x3 = 3

    Estos sistemas son equivalentes. En efecto, notemos que:

    E1 = 0E1 + E

    2 + 0E

    3 E

    1 = 0E1 + E2 + 0E3

    E2 = 1E1 + 0E

    2 + 0E

    3 E

    2 = 1E1 + 0E2 + 0E3

    E3 = 1E1 1E2 + 2E3 E3 = 12E1 12E2 + 12E3

    Como la ecuacin E1 es combinacin lineal de las ecuaciones E1, E2 y E3, entonces cualquiersolucin del segundo sistema tambin es una solucin de E1. Lo mismo es aplicable a E2 y E3.As, cualquier solucin del segundo sistema es una solucin del primer sistema. Tambin es ciertoque cualquier solucin del primer sistema es una solucin del segundo sistema. En consecuencia,los dos sistemas de ecuaciones lineales tienen el mismo conjunto de soluciones.

    Ejemplo 1.2.4. Los sistemas de ecuaciones lineales siguientes tambin son equivalentes:

    E1 : 2x1 + 6x2 + 6x3 + 2x4 = 2 E1 : x1 + 3x2 + 3x3 + x4 = 1

    E2 : 5x1 + 3x2 + 3x3 + 5x4 = 5 E2 : x2 + x3 = 0

    E3 : 4x1 + 4x4 = 4

    ya que:E1 = 2E

    1 + 0E

    2 E

    1 =

    12E1 + 0E2 + 0E3

    E2 = 5E1 12E2 E2 = 524E1 112E2 + 0E3

    E3 = 4E1 12E2

    Igual que en el ejemplo anterior, como los sistemas son equivalentes, el conjunto de solucioneses el mismo para ambos sistemas.

    Podemos resumir lo que hasta aqu hemos dicho.

    Teorema 1.2.5. Sistemas de ecuaciones lineales equivalentes tienen exactamente las mismassoluciones.

    Demostracin. Consideremos los sistemas de ecuaciones lineales equivalentes S1 y S2. Sean S1 yS2 los conjuntos formados por las soluciones de S1 y S2, respectivamente. Si s S1, entonces s essolucin de cada una de las ecuaciones del sistema S1. Como cada ecuacin de S2 es combinacinlineal de las ecuaciones del sistema S1, se sigue que s es solucin de cada una de las ecuacionesdel sistema S2, y por lo tanto s S2. As, S1 S2. De manera anloga, tenemos que S2 S1.Por lo tanto, S1 = S2.

    Este teorema es fundamental en la resolucin de sistemas de ecuaciones. Dado un sistemade ecuaciones lineales nuestra tarea ser determinar un sistema equivalente que sea ms fcil deresolver que el original. Para esto utilizaremos unas operaciones a las que llamaremos operacioneselementales. Estas operaciones son:

    1. Intercambio de dos ecuaciones del sistema.

  • 1.2. Tcnicas de eliminacin 13

    2. Reemplazo de una ecuacin del sistema por algn mltiplo escalar no nulo de sta.

    3. Reemplazo de una ecuacin del sistema por esa ecuacin ms un mltiplo escalar de otraecuacin.

    Utilizaremos la siguiente notacin para indicar el tipo de operacin que utilizamos al pasarde un sistema a otro.

    Operacin Smbolo Significado del smbolo1 Rij Intercambio de las ecuaciones i y j.2 Ri(c) Reemplazo de la ecuacin i por c veces la ecuacin i.3 Rij(c) Reemplazo de la ecuacin i por la ecuacin i ms c veces la ecuacin

    j.

    Proposicin 1.2.6. Si un sistema de ecuaciones lineales S se obtiene del sistema de ecuacioneslineales S aplicando exactamente una operacin elemental, entonces S y S son equivalentes. Enparticular tienen exactamente las mismas soluciones.

    Demostracin. Supongamos que el sistema de ecuaciones S = {E1, . . . , Em} se obtuvo delsistema S = {E1, . . . , Em} reemplazando la ecuacin i por la ecuacin i ms c la ecuacin j,con i 6= j. Esto quiere decir que

    E` =

    {E` si ` 6= i,Ei cEj si ` = i.

    E` =

    {E` si ` 6= i,Ei + cEj si ` = i.

    Se sigue que cada ecuacin de S es una combinacin lineal de las ecuaciones del sistema S ,y tambin que cada ecuacin del sistema S es una combinacin lineal de las ecuaciones delsistema S. Esto prueba que los sistemas son equivalentes. Que tienen las mismas soluciones sesigue del Teorema 1.2.5.

    La demostracin cuando se aplica una operacin elemental de cualquiera de los otros dostipos es similar y se deja de ejercicio al lector.

    1.2.1. Forma escalonada y el mtodo de Gauss

    El mtodo de eliminacin de Gauss, tambin conocido como eliminacin gaussiana, es unproceso sistemtico para transformar mediante la aplicacin de operaciones elementales, unsistema en otro que sea ms simple de resolver. El mtodo se explica mejor con un ejemplo.

    2x1+6x2+6x3+2x4 =2,

    5x1+3x2+3x3+5x4 =5,

    4x1 +4x4 =4.

    La estrategia general consiste en elegir una variable y eliminar todos los trminos debajode esta posicin. Esta variable es la variable pivotal y su coeficiente se llama pivote o elementopivotal. Para el proceso de eliminacin slo se permiten pivotes distintos de cero. Si algncoeficiente en alguna posicin pivotal es cero, entonces se intercambia la ecuacin con algunaecuacin que est por debajo de la posicin pivotal para obtener un pivote diferente de cero.Siempre se tomar como primer pivote el primer coeficiente de la primera ecuacin (a menosclaro que ste sea cero).

  • 14 1. Sistemas de ecuaciones lineales

    La primera variable pivotal es x1 y el primer pivote es 2 y se indica encerrado en un cuadro.

    2 x1+6x2+6x3+2x4 =2,5x1+3x2+3x3+5x4 =5,

    4x1+ +4x4 =4.

    Usando este pivote se elimina la variable x1 de todas las ecuaciones excepto de la primera. Paraesto se multiplica la primera ecuacin por 52 y se le suma a la segunda. En otras palabras sereemplaza la segunda ecuacin por la segunda ecuacin ms 52 veces la primera. Se obtiene:

    2 x1+ 6x2+ 6x3+2x4 =2,12x212x3 =0,

    4x1+ 4x4 =4.

    A la tercera ecuacin se le resta dos veces la primera, es decir se aplica la operacin elementalR13(2). El resultado es:

    2 x1+ 6x2+ 6x3+2x4 =2,12x212x3 =0,12x212x3 =0.

    El siguiente paso consiste en seleccionar un nuevo pivote. Como ahora se sea eliminar la variablex2 en la tercera ecuacin, el nuevo pivote es -12 .

    2x1+ 6x2+ 6x3+2x4 =2,

    - 12 x212x3 =0,12x212x3 =0,

    Ahora se multiplica la segunda ecuacin por 1 y se le suma a la tercera, es decir se aplica laoperacin elemental R23(1):

    2x1+ 6x2+ 6x3+2x4 =2,

    - 12 x212x3 =0,0x2+ 0x3 =0.

    Como cualquier cuarteta de escalares satisface la ecuacin lineal 0x1 + 0x2 + 0x3 + 0x4 = 0, sepuede eliminar del sistema para obtener:

    2x1+ 6x2+ 6x3+2x4 =2,

    - 12 x212x3 =0.

    La solucin a este sistema la obtenemos al despejar x2 en la segunda ecuacin y sustituirla enla primera.

    x1 = 1 x4,x2 = x3.

  • 1.2. Tcnicas de eliminacin 15

    Las variables x1 y x2 quedan determinadas por las variables x3 y x4. Las primeras dos se llamanvariables bsicas y las dos ltimas variables libres.

    La descripcin del conjunto de soluciones es:

    S = {x R4 | Ax = b} = {

    1 rssr

    | r, s R}.Notemos que al realizar la eliminacin gaussiana, todos los clculos se hicieron con los n-

    meros (coeficientes y trminos independientes) y no con los smbolos xis.Se puede eficientar la tcnica de eliminacin de Gauss trabajando solamente con los coefi-

    cientes y trminos independientes evitando reescribir las variables durante todo el proceso. Seobserva tambin que la matriz aumentada del sistema est en una forma escalonada. De hechoen eso consiste el mtodo de Gauss, en llevar la matriz aumentada del sistema a una formaescalonada.

    2 x1+6x2+6x3+2x4 =2,5x1+3x2+3x3+5x4 =5,

    4x1+ +4x4 =4.

    2 6 6 2 25 3 3 5 54 0 0 4 4

    2 x1+ 6x2+ 6x3+2x4 =2,12x212x3 =0,

    4x1+ 4x4 =4.

    2 6 6 2 20 12 12 0 04 0 0 4 4

    2 x1+ 6x2+ 6x3+2x4 =2,12x212x3 =0,12x212x3 =0.

    2 6 6 2 20 12 12 0 00 12 12 0 0

    2x1+ 6x2+ 6x3+2x4 =2,

    - 12 x212x3 =0,0x2+ 0x3 =0.

    2 6 6 2 20 -12 12 0 00 0 0 0 0

    Sage tiene implementado las operaciones elementales de rengln. El comando

    B.with_added_multiple_of_row(i,j,c)

    suma c veces el rengln j al rengln i. La matriz B no cambia. De esta manera para multiplicarpor 5/2 el primer rengln y sumrselo al segundo rengln se usa el comando

    B.with_added_multiple_of_row(1,0,-5/2).

    sage: A = matrix(QQ, 3, [2,6,6,2,5,3,3,5,4,0,0,4]); A[2 6 6 2][5 3 3 5][4 0 0 4]sage: b = vector ([2 ,5 ,4]); b(2, 5, 4)sage: B = A.augment(b, subdivide=True); B[2 6 6 2|2][5 3 3 5|5][4 0 0 4|4]

  • 16 1. Sistemas de ecuaciones lineales

    sage: B1 = B.with_added_multiple_of_row (1,0,-5/2); B1[ 2 6 6 2| 2][ 0 -12 -12 0| 0][ 4 0 0 4| 4]sage: B2 = B1.with_added_multiple_of_row (2,0,-2); B2[ 2 6 6 2| 2][ 0 -12 -12 0| 0][ 0 -12 -12 0| 0]sage: B3 = B2.with_added_multiple_of_row (2,1,-1); B3[ 2 6 6 2| 2][ 0 -12 -12 0| 0][ 0 0 0 0| 0]sage: B4 = B3.with_rescaled_row (1 , -1/12); B4[2 6 6 2|2][0 1 1 0|0][0 0 0 0|0]

    Recuerde que se dice que una matriz E Kmn est en forma escalonada por renglones sise cumplen las siguientes dos condiciones:

    1. Todos los renglones que consisten nicamente de ceros, si los hay, estn en la parte inferiorde la matriz.

    2. La primera entrada diferente de cero en el resto de los renglones, est a la derecha de laprimera entrada diferente de cero del rengln anterior.

    En los renglones no nulos, los pivotes son las primeras entradas diferentes de cero. Una matrizen forma escalonada se ve como sigue:

    * 0 * 0 0 0 * 0 0 0 0 0 * 0 0 0 0 0 0 0 00 0 0 0 0 0 0 0

    donde los pivotes son las entradas encerradas en un cuadro.

    Mtodo de eliminacin de Gauss.

    1. Escribir la matriz aumentada del sistema de ecuaciones lineales Ax = b.

    2. Llevar la matriz aumentada [A | b] a una forma escalonada [U | c] mediante la aplicacin deoperaciones elementales de rengln.

    3. Resolver el sistema de ecuaciones lineales Ux = c. Las variables bsicas corresponden a lasposiciones pivotales. Las variables libres corresponden a las posiciones no pivotales.

    Ejercicio 1.2.7. Resuelva cada uno de los siguientes sistemas aplicando el mtodo de elimina-cin de Gauss.

  • 1.2. Tcnicas de eliminacin 17

    a)

    x+ 2y + 7z = 1x+ y z = 23x 2y + 5z = 5 b)

    x+ 4y + 2z = 22x 8y + 3z = 32y + z = 1

    c)

    x1 + x2 + x3 + x4 + x5 = 2x1 + x2 + x3 + 2x4 + 2x5 = 3x1 + x2 + x3 + 2x4 + 3x5 = 2

    d)

    x+ y = 1x y = 3x+ 2y = 2

    e)

    x+ y + z = 23x+ 3y z = 6x y + z = 1 f)

    2x y + 3z = 2x+ 2y + z = 13x 4y + 5z = 4

    Solucin. El clculo de formas escalonadas correspondiente a cada sistema resulta en lassiguientes matrices:

    a)

    1 2 7 10 1 2 10 0 0 0

    , b) 1 4 2 20 1 1 1

    0 0 1 4

    , c) 1 1 1 1 1 20 0 0 1 1 1

    0 0 0 0 1 1

    ,d)

    1 1 10 1 10 0 1

    , e) 1 1 1 20 1 0 12

    0 0 1 3

    , f) 2 1 3 20 52 12 0

    0 0 0 1

    .El primer sistema es consistente indeterminado; el conjunto de soluciones es:

    {(1 3t , 1 2t , t)T | t R}.

    La nica solucin del segundo sistema es (2, 3, 4)T . El conjunto de soluciones del sistema c)es

    {(1 s t, s, t, 2, 1)T | s, t R}.El cuarto sistema es inconsistente. Finalmente, el sistema e) es consistente y determinado y lanica solucin es

    (32 , 12 , 3

    )T , en tanto que el sistema f) es inconsistente.1.2.2. La forma escalonada reducida y el mtodo de Gauss-Jordan

    La tcnica de eliminacin de Gauss - Jordan es una variante de la eliminacin gaussiana. Sondos las caractersticas que hacen diferente el mtodo de Gauss-Jordan del mtodo de Gauss:

    a) En cada paso del proceso, cada pivote debe convertirse en 1.

    b) En cada paso del proceso, todas las entradas arriba y abajo de un pivote deben convertirseen 0.

    Recuerde que una matriz E Kmn est en la forma escalonada reducida por renglones si:

    1. E est en forma escalonada.

    2. Todos los pivotes son 1.

    3. Cada pivote es la nica entrada distinta de cero en su columna.

  • 18 1. Sistemas de ecuaciones lineales

    La forma escalonada reducida de una matriz se ve como sigue:

    1 0 0 0 0 1 0 0 0 0 0 1 0 0 0 0 0 0 1 0 0 0 0 0 0 0 00 0 0 0 0 0 0 0

    donde los pivotes son los nmeros encerrados en un cuadro.

    Mtodo de eliminacin de Gauss - Jordan.

    1. Escribir la matriz aumentada del sistema de ecuaciones lineales Ax = b.

    2. Llevar la matriz aumentada [A | b] a la forma escalonada reducida [U | c] mediante la aplica-cin de operaciones elementales de rengln.

    3. Resolver el sistema de ecuaciones lineales Ux = c. Las variables bsicas corresponden a lasposiciones pivotales. Las variables libres corresponden a las posiciones no pivotales.

    Resolvamos de nuevo el sistema de ecuaciones lineales:

    2x1 + 6x2 + 6x3 + 2x4 = 2,

    5x1 + 3x2 + 3x3 + 5x4 = 5,

    4x1 + 4x4 = 4,

    pero ahora por el mtodo de Gauss - Jordan.

    La matriz aumentada es [A | b] = 2 6 6 2 25 3 3 5 5

    4 0 0 4 4

    . La matriz escalonada reducida deuna matriz A se obtiene con el comando A.rref():

    sage: A = matrix (3,[2,6,6,2, 5,3,3,5,4,0,0,4]); A[2 6 6 2][5 3 3 5][4 0 0 4]sage: b = vector ([2 ,5 ,4]); b(2, 5, 4)sage: B = A.augment(b, subdivide=True); B[2 6 6 2|2][5 3 3 5|5][4 0 0 4|4]sage: B.rref()[1 0 0 1|1][0 1 1 0|0][0 0 0 0|0]

    El sistema Ux = c es:

    x1 + x4 = 1,

    x2 + x3 = 0.

    Despejando x1 y x2 en trminos de x3 y x4 tenemos:

    x1 = 1 x4,x2 = x3.

  • 1.2. Tcnicas de eliminacin 19

    Las variables bsicas son x1 y x2; las variables libres son x3 y x4. Por lo tanto el conjunto desoluciones es

    {(1 s,t, t, s)T | s, t R}.

    Ejemplo 1.2.8. Sea A =

    2 6 6 25 3 3 54 0 0 4

    R34. Dado un vector b ya se sabe como encontrarun vector x tal que Ax = b. Consideremos ahora el problema de hallar todos los vectores b detal manera que el sistema de ecuaciones Ax = b tenga solucin. En otras palabras, se quieredescribir el espacio columna de la matriz A. Entonces la pregunta es: cules son las condicionesen b1, b2, b3 de tal manera que el sistema

    2x1 + 6x2 + 6x3 + 2x4 = b1,

    5x1 + 3x2 + 3x3 + 5x4 = b2,

    4x1 + 4x4 = b3,

    tiene solucin?Se calcula primero la forma escalonada (o la forma escalonada reducida) de la matriz au-

    mentada [A | b]:

    sage: var(b1 b2 b3)(b1 , b2 , b3)sage: assume(b1==0, b2==0, b3==0)sage: A = matrix(3, [2,6,6,2,b1 ,5,3,3,5,b2 ,4,0,0,4,b3]); A[ 2 6 6 2 b1][ 5 3 3 5 b2][ 4 0 0 4 b3]sage: A.rref()[1 0 0 1 -1/8*b1 + 1/4*b2][0 1 1 0 5/24*b1 - 1/12* b2][0 0 0 0 1/2*b1 - b2 + b3]

    Es necesario decirle a Sage que b1, b2 y b3 pueden ser cero, para que no divida entre algn bi. Elcorrespondiente sistema de ecuaciones es

    x1 + x4 = 18b1 +

    1

    4b2

    x2 + x3 =5

    24b1 1

    12b2

    0x1 + 0x2 + 0x3 + 0x4 =1

    2b1 b2 + b3.

    El sistema tiene solucin si y solamente si b1/2 b2 + b3 = 0. LuegoR(A) = {b R3 | x R4, Ax = b} = {b R3 | b1 2b2 + 2b3 = 0}.

    En particular, se tiene que (2, 5, 4)T R(A).

    1.2.3. Ejercicios1. Encuentre una forma escalonada por renglones y la forma escalonada reducida de la matriz

    52 0 2 92 152 72 27211 0 2 3 9 5 152 0 2 4 8 4 14

    20 0 4 2 10 6 168 0 32 3 3 2 6

    .

  • 20 1. Sistemas de ecuaciones lineales

    2. Considere el sistema de ecuaciones lineales:

    E1 : x1 x2 x4 = 1,E2 : 4x1 4x2 + x3 3x4 x5 = 2,E3 : 2x1 2x2 + x3 x4 x5 = 0.

    a) Obtenga una combinacin lineal de este sistema.b) Encuentre todas las soluciones del sistema y muestre por sustitucin directa que cada

    solucin del sistema es solucin de la combinacin lineal encontrada en el inciso anterior.c) Considere la combinacin lineal 2E1+E2+E3. Demuestre que esta combinacin lineal

    tiene al menos una solucin que no es solucin del sistema dado.

    3. Determine la relacin o relaciones que deben satisfacer b1, b2, b3 para que el sistema:

    2x1 + x2 2x3 + 2x4 = b1,4x1 + x2 + 3x3 5x4 = b2,

    6x1 5x3 + 7x4 = b3,tenga solucin.

    4. Sea A =

    2 3 1 24 7 4 54 8 6 6

    6 12 9 9

    . Determine la relacin o relaciones que deben satisfacerlas coordenadas de b R4 para que el sistema Ax = b tenga solucin.

    5. Utilice la eliminacin de Gauss - Jordan para resolver el siguiente sistema de ecuaciones

    2x 4y + 2z 6w = 03x+ 6y 2z + 13w = 6

    2x+ 4y + 14w = 12

    4x+ 8y 7z = 10.

    6. Dada una matriz A Rmn se definen los siguientes conjuntos:R (A) = {b Rm | x Rn, b = Ax} ,N (A) = {x Rn | Ax = 0} ,

    N(AT)

    ={y Rm | AT y = 0} ,

    R(AT)

    ={x Rn | y Rm, x = AT y} .

    Estos conjuntos se denominan espacio columna espacio nulo, espacio nulo izquierdo y espaciorengln, respectivamente, de A. Calcule los espacios columna, nulo, nulo izquierdo y renglnde cada una de las siguientes matrices: 2 2 0 03 4 1 2

    1 1 2 4

    , 1 3 3 22 6 9 51 3 3 0

    .

    7. Sea A la matriz

    1 2 0 34 8 2 103 6 2 72 4 2 4

    . Encuentre una matriz B tal que el espacio columna deA sea igual al espacio nulo de B, es decir, R (A) = N (B).

  • 1.2. Tcnicas de eliminacin 21

    8. Encuentre matrices B1, B2 R32 tales que AB1 = I = AB2, donde I es la matriz identidadde 2 2 y A =

    (1 1 11 1 1

    ). Escoja al azar vectores b R2 y verifique que B1b y B2b

    son soluciones del sistema de ecuaciones Ax = b.

    9. Sea A =

    2 51 32 3

    R23.a) Encuentre matrices B1, B2 R23 tales que B1A = I = B2A, donde I es la matriz

    identidad de 2 2.

    b) Encuentre una solucin del sistema Ax = b, donde b =

    1175

    . Verifique que lasolucin que encontr es igual a Bib, i = 1, 2.

    c) Verifique que el sistema de ecuaciones Ax =

    111

    no tiene solucin.10. Sean A Cmn, B Cnm y b Cm.

    a) Suponga que AB es la matriz identidad de ordenm. Pruebe que el sistema de ecuacioneslineales Ax = b tiene al menos una solucin.

    b) Suponga que BA es la matriz identidad de orden n. Pruebe que el sistema de ecuacioneslineales Ax = b tiene a lo ms una solucin.

    11. a) Construya un sistema homogneo de cuatro ecuaciones y cinco incgnitas cuya solucingeneral sea:

    x2

    (11000

    )+ x4

    (10210

    )+ x5

    ( 00101

    ).

    b) Construya un sistema no homogneo de cuatro ecuaciones y cinco incgnitas cuya solu-cin general sea: (

    10100

    )+ x2

    (11000

    )+ x4

    (10210

    )+ x5

    ( 00101

    ).

    12. Determine los valores de de tal manera que el sistema de ecuaciones:

    x+ y z = 1,3x+ y + z = 5,

    4x+ y = 5,

    sea:a) consistente y determinado; b) indeterminado; c) inconsistente.

    13. Suponga que A y B son matrices de mn y que P es una matriz invertible tal que A = PB.Pruebe que:

    a) R(AT)

    = R(BT).

    b) N (A) = N (B) .

    En particular, pruebe que si U es una forma escalonada de A, entonces R(AT)

    = R(UT)y

    N (A) = N (U) .

    14. Sean A,B Rnn tales que (A + B)k = Ak + Bk para todo entero positivo k. Demuestreque si A es invertible, entonces B es la matriz cero.

  • 22 1. Sistemas de ecuaciones lineales

    1.3. Rango y consistencia

    Por la flexibilidad que se tiene al elegir las operaciones para llevar una matriz A a una formaescalonada E no se puede hablar de una sola forma escalonada, de hecho una matriz puedetener varias formas escalonadas. Sin embargo, se puede probar que una matriz A slo tiene unaforma escalonada reducida y de este hecho se deduce que cualquier forma escalonada de A tieneel mismo nmero de pivotes y por lo tanto el mismo nmero de renglones diferentes de cero.

    Definicin 1.3.1. Sea A una matriz m n y sea E su forma escalonada reducida. El rango deA se define:

    rango(A) = nmero de pivotes de E= nmero de renglones diferentes de cero de E.

    Las columnas bsicas de A (o columnas base) son las columnas de A que contienen lasposiciones pivotales.

    Ejemplo SAGE 1.3.2. El comando A.rank() de Sage nos devuelve el rango de la matriz A:

    sage: A = matrix (4,[1,2,1,3,3, 2,4,0,4,4,1,2,3,5,5,2,4,0,4,7]); A[1 2 1 3 3][2 4 0 4 4][1 2 3 5 5][2 4 0 4 7]sage: A.rank()3sage: A.rref()[1 2 0 2 0][0 0 1 1 0][0 0 0 0 1][0 0 0 0 0]

    El comando A.pivots() regresa los nmeros de las columnas en las que se encuentran los pivotesde A. En la matriz del ejemplo, los pivotes se encuentran en las columnas 1, 3 y 5 (si empezamosa contar en 1) o bien en la columnas 0, 2 y 4 si empezamos a contar en 0 como lo hace Sage.

    sage: A.pivots ()(0, 2, 4)

    Consideremos la matriz A =

    1 2 1 3 32 4 0 4 41 2 3 5 52 4 0 4 7

    . La forma escalonada reducida de A es

    E =

    1 2 0 2 00 0 1 1 00 0 0 0 10 0 0 0 0

    . El rango de A es 3, pues E tiene 3 renglones diferentes de cero. Lasposiciones pivotales de E estn en las columnas 1, 3 y 5. Por lo tanto, las columnas bsicas deA son las columnas A1, A3 y A5, es decir:

    columnas bsicas ={(

    1212

    ),

    (1030

    ),

    (3457

    )}.

    Trabajar con la forma escalonada reducida nos provee de ms informacin y explica un pocopor qu el nombre de columnas base. Observe que cada columna que no es bsica de E se puede

  • 1.3. Rango y consistencia 23

    expresar como combinacin lineal de las columnas bsicas anteriores:(2000

    )= 2

    (1000

    );

    (2100

    )= 2

    (1000

    )+ 1

    (0100

    ).

    Exactamente la misma relacin se tiene con las columnas no bsicas de A :(2424

    )= 2

    (1212

    );

    (3454

    )= 2

    (1212

    )+ 1

    (1030

    ).

    Esto no es coincidencia.

    Lema 1.3.3. Sean A y B matrices m n y sea P una matriz invertible tal que PA = B. Si:Bk = 1Bb1 + 2Bb2 + + jBbj ,

    entonces:Ak = 1Ab1 + 2Ab2 + + jAbj .

    Demostracin. De la hiptesis se deduce que A = P1B. Entonces:

    Ak = columna k de la matriz P1B

    = P1Bk= P1

    (1Bb1 + 2Bb2 + + jBbj

    )= 1P

    1Bb1 + 2P1Bb2 + + jP1Bbj

    = 1Ab1 + 2Ab2 + + jAbj .En otras palabras, el lema establece que si una columna de B es combinacin lineal de algunas

    (o de todas) las columnas de B, entonces la misma relacin de dependencia lineal existe entrelas columnas de A.

    Teorema 1.3.4. Sea A una matriz m n y sea E su forma escalonada reducida. Entonces:1. Cada columna no bsica Ek en E es una combinacin lineal de las columnas bsicas de E

    que estn a la izquierda de Ek. Ms an:

    Ek = 1Eb1 + 2Eb2 + + jEbj ,donde Eb1 , Eb2 , . . . , Ebj son las columnas bsicas a la izquierda de Ek, y los escalares ison las primeras j entradas en Ek.

    2. La relacin que existe entre las columnas de E es exactamente la misma que entre las colum-nas de A. En particular, si Ak es una columna no bsica de A, entonces:

    Ak = 1Ab1 + 2Ab2 + + jAbj ,donde Ab1 , Ab2 , . . . , Abj son las columnas bsicas a la izquierda de Ak y los escalares ison las primeras j entradas en Ek.

    Demostracin.

    1. Sea Ek una columna no bsica de E y sean Eb1 , Eb2 , . . . , Ebj las columnas bsicas a laizquierda de Ek. Entonces:

    Ek =

    12

    ...j0...0

    = 1

    10...0...0

    + 2

    01...0...0

    + + j

    00...1...0

    ,

  • 24 1. Sistemas de ecuaciones lineales

    y claramente Eb1 =

    10...0...0

    , Eb2 =

    01...0...0

    , . . . , Ebj =

    00...1...0

    .2. Como A y E son equivalentes por renglones, existe una matriz invertible P tal que E = PA.

    El resultado se sigue ahora aplicando el lema anterior y el inciso 1.

    Ejemplo 1.3.5. Si A es una matriz real tal que

    A1 =

    232

    , A3 = 42

    5

    , y EA = 1 5 0 80 0 1 3

    0 0 0 0

    ,donde EA es la matriz escalonada reducida de A, entonces las columnas 1 y 3 de A son columnasbsicas. Dado que E2 = 5E1 y E4 = 8 E1 + 3E3 sigue que las columnas 2 y 4 de Asatisfacen las mismas relaciones. Entonces

    A2 = 5A1 =

    101510

    ,A4 = 8 A1 + 3A3 = 4301

    .Una verificacin directa muestra que efectivamente, EA es la forma escalonada reducida de lamatriz A.

    La relacin entre el rango de una matriz y la consistencia de un sistema de ecuaciones linealesse presenta en el siguiente teorema.

    Teorema 1.3.6 (Consistencia). Las siguientes afirmaciones acerca del sistema de ecuacionesAx = b son equivalentes:

    1. El sistema de ecuaciones Ax = b es consistente.

    2. Al reducir [A | b] nunca aparece un rengln de la forma

    (0 0 0 | ) , con 6= 0. (1.8)

    3. b no es una columna bsica en [A | b] .4. rango ([A | b]) = rango (A) .5. b es una combinacin lineal de las columnas bsicas en A.

    Demostracin. (1 2): Supngase que el sistema es consistente pero que al reducir la matriz[A | b] llegamos a una matriz [A | b] que tiene un rengln de la forma (1.8). Esto implica quela correspondiente ecuacin lineal es 0x1 + 0x2 + + 0xn = la cual claramente no tienesolucin y en consecuencia el sistema de ecuaciones Ax = b al que pertenece tampoco. Comoel conjunto de soluciones de Ax = b y Ax = b es el mismo entonces el sistema Ax = b no tienesoluciones lo cual contradice la hiptesis.

    (2 3): Si b fuera una columna bsica, entonces se tendra un rengln de la forma (1.8) locual es contrario a la hiptesis.

    (3 4): Si b no es una columna bsica de [A | b], entonces todas las columnas bsicas de[A | b] se encuentran en A y por lo tanto el nmero de columnas bsicas de [A | b] y A es elmismo, es decir, estas matrices tienen el mismo rango.

  • 1.3. Rango y consistencia 25

    (4 5): Si el rango de [A | b] y A es el mismo, entonces b no es columna bsica de [A | b] ,pues de ser as esta matriz tendra una columna bsica ms que A y su rango no sera igual alde A. Como b no es columna bsica, por el teorema anterior se tiene que b es combinacin linealde las columnas bsicas de [A | b] , es decir, b es combinacin lineal de las columnas bsicas deA.

    (5 1): Finalmente, si b es combinacin lineal de las columnas bsicas de A, entoncesb es combinacin lineal de todas las columnas de A (con coeficiente cero en las columnas nobsicas), es decir, existen s1, s2, . . . , sn tales que b = s1A1 + s2A2 + + snAn = As, dondes = (s1, . . . , sn)

    T lo que muestra que s es una solucin y por lo tanto el sistema es consistente.Esto prueba el teorema.

    De acuerdo al teorema anterior, el espacio columna de A, es igual al conjunto formado portodas las combinaciones lineales de las columnas bsicas de A.

    1.3.1. Ejercicios

    1. Calcule el rango de las siguientes matrices reales.1 2 8 3 2 4 1 1

    1 0 1 1 0 14 7 11 1 3 10 3 1 2 25

    1 0 72 1 1 2 1 12 1 1 1 0 1 2 1

    ,

    4 0 5 9 15 71 0 18 19 13 15

    123 0 122 245 493 2474 0 13 9 33 25

    .

    2. La matriz escalonada reducida por renglones de una matriz A es

    EA =

    1 2 0 4 2 0 5 1 00 0 1 5 3 0 4 1 20 0 0 0 0 1 1 1 40 0 0 0 0 0 0 0 00 0 0 0 0 0 0 0 0

    .Las columnas 1, 3 y 6 de A son

    A1 =

    51

    458

    , A3 =1

    221

    3

    , A6 =

    231

    01

    .Encuentre la matriz A.

    3. Si A Rmn, demuestre que rango(A) mn{m,n}.4. Pruebe que si A es una matriz m n cuyo rango es m, entonces el sistema de ecuacionesAx = b es consistente para cualquier b.

    5. Suponga que los sistemas de ecuaciones cuyas matrices aumentadas son [A | b] y [A | c] sonconsistentes. Qu puede decir acerca de la consistencia del sistema de ecuaciones cuya matrizaumentada es [A | b+ c]?

    6. Discuta el rango de la matriz A =

    1 0 2 a0 1 1 12 8 a 0

    en funcin del parmetro a.

  • 26 1. Sistemas de ecuaciones lineales

    7. Discuta el rango de las siguientes matrices en funcin de los parmetros a y b.

    A =

    1 0 2 30 1 4 6a b 0 0

    , B = 1 2 2 01 0 2 1

    a b 0 4

    .8. Determine todos los valores de de tal manera que el sistema de ecuaciones:

    x+ y + z = 1

    x+ y + z =

    x+ y + z = 2

    sea:a) determinado b) indeterminado c) inconsistente.

    9. Calcule todos los valores de k (k R)x 2y + 3z = 1

    2x+ ky + 6z = 6

    x+ 3y + (k 3) z = 0para los cuales el sistema (a) no tiene solucin; (b) tiene exactamente una solucin; (c) tieneinfinidad de soluciones. Para el caso de infinitas soluciones, encuentre la forma general de lasolucin.

    10. Considere la matriz

    (1 3.75 2 pi

    22 ln 2 2

    8 19 92 153

    ). Es posible que las cuatro columnas de esta matriz

    sean bsicas?

    11. Sea A una matriz de m n. Demuestre que el rango de A es igual a 1 si y slo si existenvectores columna u 6= 0 de m 1 y v 6= 0 de n 1 tales que A = uvT .

    12. Suponga que A tiene la forma escalonada reducida EA.

    A =

    1 2 1 b2 a 1 8tercer rengln de A

    , EA =1 2 0 30 0 1 2

    0 0 0 0

    .a) Qu se puede decir del tercer rengln de A?b) Determine los nmeros a y b.

    13. Sean A y B matrices invertibles de n n, distintas de la matriz identidad I que satisfacenlas relaciones:

    A7 = I y ABA1 = B2.

    Demuestre que existe un entero k > 0 tal que Bk = I y determine el menor valor de k conesta propiedad.

    14. Sean A,B Rnn matrices invertibles. Demuestre que si (AB)k = AkBk para tres valoresenteros consecutivos de k, entonces AB = BA.

    15. a) Demuestre que toda matriz A Cnn se puede escribir como suma de n matrices derango 1.

    b) Demuestre que la matriz identidad de tamao n n no se puede escribir como suma demenos de n matrices de rango 1.

  • 1.4. Sistemas homogneos 27

    1.4. Sistemas homogneosRecuerde que un sistema de ecuaciones lineales de la forma Ax = 0 se llama homogneo. Los

    sistemas homogneos siempre son consistentes pues x1 = x2 = = xn = 0 siempre es solucindel sistema. A esta solucin se le denomina solucin trivial. El problema entonces no es encontraruna solucin, ms bien se trata de determinar bajo qu condiciones un sistema homogneo tieneuna solucin no trivial. Al conjunto de todas las soluciones del sistema homogneo Ax = 0asociado a la matriz A Kmn se le conoce como el espacio nulo de A y se denota con elsmbolo N(A):

    N(A) = {x Kn | Ax = 0}.Con base en la tcnica de eliminacin de Gauss - Jordan se tiene el siguiente algoritmo para elclculo del espacio nulo de una matriz A.

    Algoritmo para el clculo del espacio nulo de una matriz Amn de rango r.

    1. Llevar la matriz A a su forma escalonada reducida E mediante operaciones elementales derengln.

    2. Resolver el sistema de ecuaciones Ex = 0. Las r variables bsicas estn en trminos de lasn r variables libres.

    3. Escribir la solucin general en forma de vector.

    4. Descomponer la solucin general en una combinacin lineal de vectores.

    Teorema 1.4.1. Sea A una matriz m n. El sistema homogneo Ax = 0 tiene solucin nicasi y slo si rango(A) = n.

    Demostracin. Si el sistema homogneo Ax = 0 tiene solucin nica, entonces no hay variableslibres. Es decir, todas las columnas de A son bsicas y por lo tanto, rango(A) = n. Recproca-mente, si rango(A) = n, entonces todas las columnas de A son bsicas. Es decir, no hay variableslibres y por lo tanto, el sistema homogneo Ax = 0 tiene solucin nica.

    Ejemplos 1.4.2.

    1. Consideremos el sistema homogneo asociado a la matriz A =

    1 3 3 22 6 9 51 3 3 0

    . Laforma escalonada reducida de esta matriz es E =

    1 3 0 10 0 1 1/30 0 0 0

    . Como el rango es 2 < 4,entonces la solucin del sistema tiene dos variables bsicas y dos libres y por lo tanto elsistema tiene una solucin no trivial. El sistema asociado es:

    x1 + 3x2 + x4 = 0,

    x3 +13x4 = 0.

    Las variables libres son x2 y x4. Las soluciones son:

    x1 = 3x2 x4,x3 = 13x4.

    Tambin podemos escribir:x1x2x3x4

    =3x2 x4

    x2 13x4x4

    = x23

    100

    + x41

    0 13

    1

    .

  • 28 1. Sistemas de ecuaciones lineales

    Una descripcin del espacio nulo es la siguiente:

    N(A) = {x2

    3

    100

    + x41

    0 13

    1

    : x2, x4 R}.2. Dado que

    A =

    1 17 10 1 11 1 11

    y EA =1 0 00 1 0

    0 0 1

    ,donde EA es la matriz escalonada reducida por renglones de A, entonces el rango de A es 3;por lo tanto, el sistema homogneo asociado tiene solucin nica, y as N(A) = {0}.La solucin general de un sistema de ecuaciones lineales homogneo no depende de la forma

    escalonada que se use, pues al resolver el sistema utilizando la sustitucin hacia atrs paraexpresar las variables bsicas en trminos de las variables libres, se obtiene la forma escalonadareducida que es nica.

    1.4.1. Ejercicios

    1. Si A es la matriz de coeficientes de un sistema homogneo formado por 4 ecuaciones y 8incgnitas y hay 5 variables libres, cul es el rango de A?

    2. Demuestre que un sistema homogneo de m ecuaciones y n incgnitas con m < n, siempretiene una infinidad de soluciones.

    3. Sea Amn de rango n. Pruebe que la funcin T : Kn Km dada por T (x) = Ax es unafuncin inyectiva.

    4. Encuentre una matriz A (con dos renglones) de tal manera que su espacio nulo sea N(A) =

    {r 23

    1

    + s 101

    | r, s R}.1.5. Sistemas no homogneos

    A continuacin se analizar la estructura del conjunto de soluciones de un sistema no homo-gneo Ax = b.

    Teorema 1.5.1. Suponga que x0 es una solucin particular al sistema de ecuaciones Ax = b.Entonces, el conjunto de todas las soluciones del sistema Ax = b es:

    S = {x | Ax = b}= {x | x = x0 + h, donde h N(A)}= x0 +N(A) Notacin

    Demostracin. Si x S, entonces Ax = b. Como tambin Ax0 = b, entonces Ax = Ax0, dedonde A (x x0) = 0 y por lo tanto x x0 N (A) ; haciendo h = x x0 se tiene x = x0 + hcon h N (A) . Recprocamente, si x x0 +N (A) , entonces x = x0 +h para algn h N (A) ;entonces Ax = A (x0 + h) = Ax0 +Ah = b+ 0 = b. Luego, x S.

  • 1.5. Sistemas no homogneos 29

    El teorema anterior muestra que la solucin de un sistema no homogneo Ax = b, est dadaen trminos de las soluciones del sistema homogneo Ax = 0, es decir, est en trminos delespacio nulo de A. Ms precisamente, la solucin general del sistema no homogneo Ax = b,donde rango(A) = r, es de la forma:

    x = x0 + xf1h1 + + xfnrhnr, con xf1 , . . . , xfnr escalares,

    donde x0 es una solucin particular del sistema Ax = b, y xf1h1 + +xfnrhnr es la solucingeneral del sistema Ax = 0.

    Ejemplo 1.5.2. Consideremos el sistema de ecuaciones Ax = b, donde A es la matriz delEjemplo 1.4.2 y b = (5,3, 19)T . La forma escalonada reducida de [A | b] es

    EA =

    1 3 0 1 120 0 1 13 730 0 0 0 0

    .Las soluciones estn dadas por x1 = 12 3x2 x4, x3 = 7/3 x4/3. Por lo tanto, el conjuntosolucin es

    S =

    12

    07/3

    0

    + {x23

    100

    + x4

    10

    1/31

    : x2, x4 R} = x0 +N(A),donde x0 es una solucin del sistema Ax = b y N(A) es el espacio nulo de A.

    Teorema 1.5.3. Sea A Kmn. Las siguientes afirmaciones sobre el sistema consistenteAx = b son equivalentes:

    1. El sistema Ax = b es consistente y determinado.

    2. rango(A) = n

    3. No hay variables libres.

    4. El sistema homogneo asociado solamente tiene la solucin trivial.

    Demostracin. Si el sistema Ax = b es consistente y determinado, entonces por el teoremaanterior se sigue que el sistema homogneo asociado Ax = 0 tiene slo la solucin trivial, y porel Teorema 1.4.1 el rango de A es n. Recprocamente, si el rango de A es n, entonces el sistemaAx = 0 slo tiene la solucin trivial por el Teorema 1.4.1 y por lo tanto, el sistema consistenteAx = b tiene solucin nica, por el teorema anterior. Esto demuestra que 1 2. Es claro que2 3. Finalmente, la demostracin de 1 4 est contenida en la demostracin de 1 2.

    Teorema 1.5.4. Sea A una matriz cuadrada de n n. Las siguientes afirmaciones son equiva-lentes.

    a) A es una matriz invertible (A es no singular).

    b) El rango de A es n.

    c) La forma escalonada reducida de A es I.

    d) Ax = 0 implica que x = 0.

  • 30 1. Sistemas de ecuaciones lineales

    Demostracin. Si A es no singular, entonces el sistema homogneo Ax = 0 es consistente ydeterminado (la nica solucin es la trivial) y de acuerdo con el teorema anterior, su rangoes n; esto prueba a) b). Recprocamente, si el rango de A es n dado que A es una matrizcuadrada, para cualquier b se tiene rango ([A | b]) = rango (A) y por tanto el sistema Ax = bes consistente. De acuerdo con el teorema anterior y tomando en cuenta que rango (A) = n, elsistema Ax = b tiene solucin nica. En particular para cada ej (1 j n) sea xj la nicasolucin del sistema Ax = ej . Sea X = [x1 | x2 | | xn]; entonces AX = I. Si XA 6= I,entonces XA I 6= 0 y por tanto al menos una columna de esta matriz no es cero. As,A (XA I) = AXA AI = IA A = 0. Esto implica que el sistema Ax = 0 tiene al menosuna solucin no trivial (dicha solucin no trivial es una de las columnas distintas de cero de lamatriz XA I), lo cual de acuerdo al teorema anterior no puede ser. Por lo tanto, XA = I yX = A1. Esto demuestra que a) b). b) c) es inmediato. a) d) es tambin inmediato.Demostraremos que d) a). En efecto, si Ax = 0 implica que x = 0, entonces el sistemahomogneo Ax = 0 slo tiene la solucin trivial y por el Teorema 1.4.1 el rango de A es n.Luego, por la equivalencia entre b) y a) de este teorema, se sigue que A es invertible. Estodemuestra que d) a) y as, a) d). Esto concluye la prueba.Observacin 1.5.5. De acuerdo con el teorema anterior, una matriz A es invertible si y so-lamente si su forma escalonada reducida es la matriz identidad. Esto justifica el Mtodo deGauss-Jordan para calcular la inversa de una matriz cuadrada (Vea el pendice B).

    Finalizamos la seccin probando que el rango de una matriz y el de su transpuesta soniguales. Esto ser consecuencia del siguiente teorema.

    Teorema 1.5.6. Si A es una matriz de tamao m n y de rango r, entonces existen matricesinvertibles P y Q tales que:

    PAQ =

    (Ir 00 0

    ),

    donde Ir es la matriz identidad de tamao r r.Demostracin. Sea E la forma escalonada reducida de A. Entonces, existe una matriz invertibleP tal que PA = E. Como el rango de A es r, las columnas bsicas de E son las r columnasunitarias. Aplicando intercambios de columnas a E podemos mover estas r columnas unitariasa la parte ms izquierda. Si Q1 es el producto de las matrices elementales correspondientes aestos intercambios de columnas, entonces PAQ1 tiene la forma:

    PAQ1 = EQ1 =

    (Ir J0 0

    ).

    Multiplicando esta igualdad a la derecha en ambos lados por la matriz invertible:

    Q2 =

    (Ir J0 Inr

    ),

    obtenemos:PAQ1Q2 =

    (Ir J0 0

    )(Ir J0 Inr

    )=

    (Ir 00 0

    ),

    donde Inr es la matriz identidad de tamao (n r) (n r). Finalmente, haciendo Q = Q1Q2se sigue el resultado. (Ntese que Q2 es una matriz de n n invertible, ya que la matriz(Ir J0 Inr

    )es su inversa).

    Corolario 1.5.7. Para cada matriz A de m n, se tiene que:rango (A) = rango

    (AT).

  • 1.5. Sistemas no homogneos 31

    Demostracin. De acuerdo con el teorema anterior, existen matrices invertibles P , Q, R y S

    tales que PAQ = Nr y RATS = Ns, donde Nr =(Ir 00 0

    ), Ns =

    (Is 00 0

    )y r es el rango de A

    y s es el rango de AT . Tenemos que:

    A = P1NrQ1 y AT = R1NsS1.

    Luego:(P1NrQ1)T = R1NsS1.

    Simplificando y usando el hecho de que NTr = Nr, tenemos que:

    Nr = PNsQ

    donde P y Q son las matrices invertibles QTR1 y S1PT , respectivamente. De la ltimaigualdad no es difcil concluir que r = s (observe que P y Q son producto de matrices elemen-tales y que la multiplicacin por una matriz elemental no cambia el rango), y as el rango de Ay el rango de AT coinciden.

    1.5.1. Ejercicios

    1. El conjunto solucin del sistema Ax =( 6

    9

    )es(

    11

    )+ {r

    ( 21

    )| r R}. Determine la

    matriz A.

    2. Encuentre una matriz A de tal manera que el conjunto solucin del sistema de ecuaciones

    Ax =

    (719

    )es

    212

    + {r 11

    1

    | r R}.3. Suponga que A es una matriz de 2 1 y que B es una matriz de 1 2. Demuestre que AB

    no es invertible.

    4. Suponga que A es de mn con m > n y que B es de nm. Pruebe que AB no es invertible.5. Sea A una matriz de n n. Demuestre las siguientes afirmaciones:

    a) Si A es invertible y AB = 0 para alguna matriz B de n n, entonces B = 0.b) Si A no es invertible, entonces existe una matriz B de n n, B 6= 0, tal que AB = 0.

    6. Sea A =(a bc d

    ). Demuestre que A es invertible si y slo si ad bc 6= 0.

    7. Sea A una matriz cuya forma escalonada reducida es

    1 4 0 20 0 1 20 0 0 0

    . Determine todas lassoluciones (si existen) del sistema: Ax = suma de las columnas de A.

    8. Considere la matriz real de n n:

    A =

    x+ y x xx x+ y x...

    .... . .

    ...x x x+ y

    .Determine los valores de x, y, para que la matriz A sea invertible y calcule A1.

  • 32 1. Sistemas de ecuaciones lineales

    9. Sean A y B matrices de m n y n p, respectivamente.a) Suponga que la columna k de la matriz B es una combinacin de lineal de otras columnas

    de B, digamos, Bk = 1Bk1 + + jBkj . Pruebe que (AB)k = 1(AB)k1 + +j(AB)kj .

    b) Pruebe que rango(AB) rango(B).c) Pruebe que rango(AB) rango(A).d) Suponga que A y B son matrices cuadradas de n n. Pruebe que si AB = I, entonces

    rango(A) = n.

    10. Sean A y B matrices de 2 3 y 3 2, respectivamente. Suponga que AB = I. Pruebe queBA 6= I.

    1.6. Clculo de los cuatro espacios fundamentalesEn este seccin iniciaremos el estudio de los cuatro espacios2 fundamentales asociados con

    una matriz. Si A es una matriz de m n, dos de estos subespacios son subespacios de Kn y losotros dos de Km.

    Dada una matriz A Kmn se definen los siguientes conjuntos:R (A) = {b Km | x Kn, b = Ax} .N (A) = {x Kn | Ax = 0} .

    N(AT)

    ={y Km | AT y = 0} .

    R(AT)

    ={x Kn | y Km, x = AT y} .

    Estos conjuntos se denominan espacio columna, espacio nulo, espacio nulo izquierdo y espaciorengln, respectivamente, de A. Estos cuatro conjuntos son los espacios fundamentales de A. Losprimeros dos surgieron previamente en la Subseccin 1.1.1 y en la Seccin 1.4, respectivamente.

    Note que estos espacios surgen de manera natural al considerar sistemas de ecuaciones linea-les. Dada una matriz A es natural preguntarnos para que bs el sistema de ecuaciones Ax = btiene solucin. En el caso del espacio nulo, ste simplemente es el conjunto de todas las solucio-nes del sistema homogneo Ax = 0. Si se conoce una solucin particular del sistema Ax = b,entonces el conjunto de todas sus soluciones se obtiene sumando a la solucin particular unelemento del espacio nulo. Ms adelante veremos que cada vector de Rn se puede escribir demanera nica como un vector del espacio nlo de A ms un vector del espacio rengln de A.Una situacin similar sucede en Rm.

    Un subconjunto S de Rn se dice que est generado por vectores s1, . . . , sl si para todo s Sexisten constantes c1, . . . , cl R tales que s = c1s1 + + clsl.

    La demostracin del siguiente resultado se presenta en una versin ms general en el Teore-ma 3.5.1.

    Teorema 1.6.1. Sea A una matriz m n de rango r. Sea P una matriz no singular tal quePA = U, donde U es una forma escalonada de A. Entonces:

    1. R (A) es el conjunto generado por las columnas bsicas de A.

    2. R(AT)es el conjunto generado por los r renglones diferentes de cero de U y R(AT ) =

    R(UT).

    3. N (A) es el conjunto generado por las n r his en la solucin general de Ux = 0. (Las hisse definieron en la seccin anterior).2En el captulo 3 se estudiarn formalmente los espacios vectoriales.

  • 1.7. Descomposiciones LU 33

    4. N(AT)es el conjunto generado por los ltimos m r renglones de P.

    Del teorema anterior se desprende inmediatamente el siguiente algoritmo.

    Algoritmo para el clculo de los espacios fundamentales de una matriz

    1. Lleve la matriz aumentada [A | Im] a una forma escalonada [U | P ].2. Particione la matriz [U | P ] de la siguiente manera:

    [U | P ] =[U1 P10 P2

    ]r

    m r

    Entonces:R (A) = {generado por las columnas bsicas de A} = N (P2).R(AT)

    = R(UT1).

    N (A) = {generado por las n r his en la solucin general de Ux = 0}.N(AT)

    = R(PT2).

    Ejemplo 1.6.2. Se calcularn los cuatro espacios fundamentales de la matriz

    A =

    1 2 1 1 51 2 0 4 21 2 1 9 11 2 1 1 5

    .La forma escalonada reducida por renglones de [A | I4] es

    [U | P ] =(U1 P10 P2

    )=

    1 2 0 4 2 0 0 12 120 0 1 5 3 0 0 12 120 0 0 0 0 1 0 0 10 0 0 0 0 0 1 12

    12

    .Por lo tanto, las columnas 1 y 3 son las columnas bsicas de A. Se tiene:

    R(A) = {rA1 + sA3 | r, s R} = {b R4 | b1 + b4 = 0, 2b2 + b3 + b4 = 0}.

    Los espacios rengln y nulo izquierdo de A son

    R(AT ) = {rUT1 + sUT2 | r, s R}, N(AT ) = {rPT3 + sPT4 | r, s R}.

    1.7. Descomposiciones LU

    En secciones anteriores se analizaron los mtodos de eliminacin de Gauss y de Gauss -Jordan para resolver sistemas de ecuaciones lineales. En esta seccin se analizar un mtododiferente para resolver sistemas cuadrados no singulares basado en la descomposicin LU deuna matriz. Esta descomposicin consiste en factorizar la matriz de coeficientes en un productode dos matrices: una triagular inferior y otra triangular superior. Este mtodo, adecuado paraemplear en computadoras, es en realidad la eliminacin de Gauss visto desde la perspectiva delas matrices.

    Cuando se utiliza la eliminacin gaussiana para llevar una matriz A a una forma escalonada Use aplican operaciones elementales de rengln, lo que equivale a multiplicar por la izquierda por la

  • 34 1. Sistemas de ecuaciones lineales

    matriz elemental3 correspondiente. As, es posible encontrar matrices elementales E1, E2, . . . , Ektales que:

    Ek E2E1A = U.Como las matrices elementales son invertibles, entonces:

    A = E11 E12 E1k U.

    En general, las matrices elementales del tipo 1 (intercambio de renglones) y 3 (reemplazode un rengln por el mismo rengln ms un mltiplo de otro rengln) no son triangularesinferiores, pero las que se usan en la eliminacin gaussiana s lo son. Se puede probar porinduccin (ejercicio) que el producto de matrices triangulares inferiores es una matriz triangularinferior. Si suponemos que durante la reduccin no se encuentra un pivote cero, entonces noes necesario el intercambio de renglones y la reduccin se puede realizar aplicando solamenteoperaciones elementales del tipo 3. En este caso:

    L = E11 E12 E1k

    es una matriz triangular inferior y por lo tanto:

    A = LU,

    que es una factorizacin de A en un producto de una matriz triangular inferior y una matriztriangular superior. Ilustremos con un ejemplo calculando una descomposicin LU de la matriz

    A =

    2 6 23 8 04 9 2

    .

    AR21(3/2)R31(2)

    2 6 20 1 30 3 2

    R32(3) 2 6 20 1 3

    0 0 7

    = U.El producto de las tres matrices elementales usadas es:

    E3E2E1 =

    1 0 00 1 00 3 1

    1 0 00 1 02 0 1

    1 0 03/2 1 00 0 1

    1 0 03/2 1 05/2 3 1

    .O sea que E3E2E1A = U, por lo que A = E11 E

    12 E

    13 U = LU, donde:

    L = E11 E12 E

    13 =

    1 0 03/2 1 02 3 1

    .El ejemplo muestra varias cosas. Primero, la mayor parte del trabajo para obtener una des-

    composicin LU se invierte en el clculo de L. La matriz U es el resultado final de la eliminacingaussiana. La matriz L tiene en su diagonal 1s; debajo de la diagonal principal de L, cadaentrada lij es precisamente el negativo del multiplicador que se utiliz en la eliminacin paraintroducir un cero en la posicin (i, j) . El trabajo se puede simplificar llevando un registro cui-dadoso de las operaciones efectuadas para llevar a cabo la reduccin. Lo que ilustra este ejemplosucede en general, siempre que no se use intercambio de renglones.

    El clculo de las matrices L y U usando Sage se muestra a continuacin.3Una matriz elemental es una matriz que obtiene de la matriz identidad aplicando una operacin elemental

    de rengln. Puesto que son tres las operaciones elementales de rengln, hay tres tipos de matrices elementales.Una matriz elemental es invertible y su inversa es una matriz elemental del mismo tipo.

  • 1.7. Descomposiciones LU 35

    sage: A = matrix(3, [2,6,2, -3,-8,0, 4,9,2])sage: P, L, U = A.LU(pivot=nonzero )sage: L, U([ 1 0 0] [2 6 2][-3/2 1 0] [0 1 3][ 2 -3 1], [0 0 7])sage: L*U[ 2 6 2][-3 -8 0][ 4 9 2]

    Por el momento no haremos caso de la matriz P .

    Teorema 1.7.1 (LU sin intercambios). Si A es una matriz n n no singular tal que no esnecesario aplicar ningn intercambio de renglones durante la eliminacin gaussiana, entoncesA se puede factorizar como A = LU, donde:

    1. U es una forma escalonada de A que se obtiene al aplicar la eliminacin gaussiana a A.

    2. L es una matriz triangular inferior y U es una matriz triangular superior.

    3. lii = 1 y uii 6= 0, i = 1, 2, . . . , n.

    4. Debajo de la diagonal principal de L, cada lij es el negativo del multiplicador usado paraintroducir el cero en la posicin (i, j) .

    5. Las matrices L y U estn determinadas de manera nica por las propiedades 2 y 3.

    Demostracin. Para la prueba es til el concepto de matriz triangular inferior elemental. Sea k

    un entero 1 k < n y sea ck =

    0...0

    k+1

    ...n

    . Es decir, ck es un vector cuyas primeras k entradasson cero. Sea ek el k-simo vector unitario de Kn, es decir, ek es el vector que en su k-simaentrada tiene al 1 y tiene ceros en todas las dems posiciones. La matriz:

    Tk = I ckeTk =

    1 0 0 0 00 1 0 0 0....... . .

    ......

    ...0 0 1 0 00 0 k+1 1 0......

    ....... . .

    ...0 0 n 0 1

    se llama matriz triangular inferior elemental.

    Estas matrices son invertibles. De hecho:

    T1k = I + ckeTk =

    1 0 0 0 00 1 0 0 0....... . .

    ......

    ...0 0 1 0 00 0 k+1 1 0......

    ....... . .

    ...0 0 n 0 1

    .

  • 36 1. Sistemas de ecuaciones lineales

    En efecto,

    Tk(I + cke

    Tk

    )=

    (I ckeTk

    ) (I + cke

    Tk

    )= I + cke

    Tk ckeTk ckeTk ckeTk

    = I,

    ya que eTk ck = 0. La utilidad de las matrices triangulares inferiores elementales Tk est en que lasoperaciones elementales tipos 2 y 3 necesarias para hacer ceros las entradas debajo del k-simopivote, se pueden lograr con una multiplicacin por Tk. Si:

    Ak1 =

    1 0 2 ....... . .

    ......

    ...0 0 k 0 0 k+1 ......

    ....... . .

    ...0 0 n

    (k 6= 0)

    es el resultado parcialmente triangularizado despus de k1 pasos en la reduccin, entonces:

    TkAk1 = (I ckeTk )Ak1 = Ak1 ckeTkAk1 =

    1 0 2 ....... . .

    ......

    ...0 0 k 0 0 0 ......

    ....... . .

    ...0 0 0

    ,

    donde:

    ck =

    0...0

    k+1/k

    ...n/k

    ,contiene a los negativos de los multiplicadores usados para hacer ceros aquellas entradas debajode k. Note que Tk no altera las primeras k 1 columnas de Ak1, ya que eTk [Ak1]?j = 0 sij k1. Por lo tanto, si ningn intercambio de rengln se requiere en la eliminacin gaussiana,entonces al reducir A a una matriz triangular superior U , realizamos n 1 multiplicaciones porla izquierda con matrices triangulares inferiores elementales. Es decir, Tn1 T2T1A = U , dedonde:

    A = T11 T12 T1n1U.

    Note que eTi cj = 0 siempre que i < j. Por lo tanto:

    L = T11 T12 T1n1

    =(I + c1e

    T1

    ) (I + cn1eTn1)= I + c1e

    T1 + + cn1eTn1.

    Observe que:

    ckeTk =

    0 0 0 0 00 0 0 0 0......

    ......

    ...0 0 0 0 00 0 lk+1,k 0 0......

    ......

    ...0 0 lnk 0 0

  • 1.7. Descomposiciones LU 37

    donde los liks son los negativos de los multiplicadores usados para introducir ceros debajo dela posicin (k, k) en la eliminacin de Gauss. Por lo tanto, A = LU donde:

    L =

    1 0 0l21 1 0...

    .... . .

    ...ln1 ln2 1

    .Por otra parte, si uii = 0 para algn i, 1 i n, entonces el rango de U y en consecuencia

    el de A, sera a lo ms n 1 lo cual no puede ser puesto que al ser A no singular, el rango de Aes n. Por lo tanto, uii 6= 0 para cada i = 1, 2, . . . , n.Para demostrar la unicidad de las matrices L y U , observe que L es invertible por ser producto dematrices invertibles, y en consecuencia U = L1A tambin es producto de matrices invertibles.Luego, L y U son invertibles. Supongamos que L1U1 = A = L2U2 son dos factorizaciones LUde A. Entonces:

    L12 L1 = U2U11 . (1.9)

    Note que L12 L1 es una matriz triangular inferior y U2U11 es una matriz triangular su-

    perior, ya que la inversa de una matriz triangular inferior (superior) es tambin triangularinferior (superior), y el producto de dos matrices triangulares inferiores (superiores) es tambintriangular inferior (superior) (ver ejercicios al final de la seccin). Luego, de (1.9) se sigue queL12 L1 = D = U2U

    11 es una matriz diagonal. Adems, [L2]ii = 1 implica que [L

    12 ]ii = 1 (por

    qu?), y por lo tanto, L12 L1 = I = U2U11 , de donde L1 = L2 y U1 = U2. Esto prueba la

    unicidad de la factorizacin y concluye la prueba.

    Una vez que se tiene una descomposicin LU para una matriz no singular A es relativamentefcil resolver el sistema Ax = b. Reescribiendo Ax = b como L(Ux) = b, y haciendo el cambiode variable y = Ux, es fcil verificar que el sistema Ax = b es equivalente a los dos sistemastriangulares Ly = b y Ux = y.En efecto, si y es una solucin de Ly = b y x es una solucin de Ux = y, entonces x es unasolucin de Ax = b, pues Ax = LUx = Ly = b. Recprocamente, si x es una solucin de Ax = b,entonces x es una solucin de y = Ux y y es solucin de Ly = b.

    Ahora bien, los dos sistemas son muy fciles de resolver. El primero por sustitucin haciaadelante y el segundo por sustitucin hacia atrs.

    Ejemplo 1.7.2. Usando la descomposicin LU resuelva el sistema Ax = b, donde

    A =

    2 2 24 7 76 18 22

    y b =1224

    12

    .Para mayor claridad, conforme vayamos reduciendo la matriz escribiremos en negrita en la

    posicin (i, j), al negativo del multiplicador usado para hacer cero la posicin (i, j).

    A =

    2 2 24 7 76 18 22

    R21(2)R31(3)

    2 2 22 3 33 12 16

    R32(4)

    2 2 22 3 33 4 4

    .Entonces:

    L =

    1 0 02 1 03 4 1

    y U =2 2 20 3 3

    0 0 4

    .

  • 38 1. Sistemas de ecuaciones lineales

    Observe que:

    c1 =

    023

    , T1 = 1 0 02 1 03 0 1

    , c2 =00

    4

    , T2 = 1 0 00 1 0

    0 4 1

    ,L = I + c1e

    T1 + c2e

    T2 =

    1 0 00 1 00 0 1

    + 0 0 02 0 0

    3 0 0

    + 0 0 00 0 0

    0 4 0

    .Ahora resolvemos primero el sistema Ly = b mediante sustitucin hacia adelante.1 0 02 1 0

    3 4 1

    y1y2y3

    =1224

    12

    y1 = 12,y2 = 24 2y1 = 0,y3 = 12 3y1 4y2 = 24.

    Finalmente, por sustitucin hacia atrs resolvemos el sistema Ux = y.2 2 20 3 30 0 4

    x1x2x3

    = 12024

    x3 = 24/4 = 6,x2 = (0 3x3)/3 = 6,x1 = (12 2x2 2x3)/2 = 6.

    Si se va a resolver solamente un sistema Ax = b, entonces no existe una diferencia significativaentre la tcnica de reducir la matriz aumentada [A | b] a una forma escalonada y el mtodo dela descomposicin LU. Sin embargo, si fuera necesario resolver el sistema Ax = b para diferentesvectores b, entonces es relativamente ms econmico resolver estos sistemas a partir de unadescomposicin LU.

    No todas las matrices tienen una descomposicin LU. Para la matriz(

    0 11 0

    )no es posible

    encontrar un valor u11 6= 0 que satisfaga:(0 11 0

    )=

    (1 0l21 1

    )(u11 u120 u22

    ).

    El problema radica en el valor del pivote en la posicin (1, 1). En este caso se procede

    a efectuar un intercambio de renglones, y la matriz resultante(

    1 00 1

    )evidentemente tiene

    una descomposicin LU. Ahora bien, el problema del intercambio no solo se presenta cuando seencuentra un cero en una posicin donde se requiere un pivote durante el proceso de eliminacin.En la prctica es necesario realizar intercambios de renglones para reducir los errores provocadospor el redondeo, cuan