metodos matematicos de la f sica ieuclides.us.es/da/apuntes/fisica/notasteoria.pdf · tambi´en...

33
UNIVERSIDAD DE SEVILLA DEPARTAMENTO DE ´ ALGEBRA M ´ etodos Matem ´ aticos de la F ´ ısica I Notas de Teor ´ ıa Mar´ ıaMagdalenaFern´andezLebr´on Sevilla, Septiembre de 2005

Upload: trankhanh

Post on 30-Sep-2018

215 views

Category:

Documents


0 download

TRANSCRIPT

UNIVERSIDAD DE SEVILLA

DEPARTAMENTO DE ALGEBRA

MetodosMatematicos

de laFısica I

Notas de Teorıa

Marıa Magdalena Fernandez Lebron

Sevilla, Septiembre de 2005

Contents

1 Sistemas de ecuaciones lineales. Matrices. 31.1 Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

1.1.1 Metodo de eliminacion de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41.1.2 Teorema de Rouche-Frobenius . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

1.2 Rango de una matriz. Estructura de las soluciones de un sistema. . . . . . . . . . . . . . . 51.2.1 Operaciones en Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51.2.2 Combinaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61.2.3 Estructura de las soluciones de un sistema lineal homogeneo . . . . . . . . . . . . . 81.2.4 Estructura de las soluciones de un sistema lineal no homogeneo . . . . . . . . . . . 8

1.3 Aplicaciones lineales de Rn en Rm y operaciones con matrices . . . . . . . . . . . . . . . . 81.3.1 Conjuntos. Operaciones con conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . 91.3.2 Aplicaciones entre dos conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91.3.3 Aplicaciones lineales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111.3.4 Inversa de una aplicacion lineal e inversa de una matriz . . . . . . . . . . . . . . . 13

2 Determinantes 152.1 Definicion de permutacion. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152.2 Definicion de determinante. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152.3 Inversa de una matriz. Regla de Cramer. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172.4 Rango de una matriz. Resolucion de sistemas compatibles indeterminados . . . . . . . . . 18

3 Espacios vectoriales y aplicaciones lineales 193.1 Definicion de espacio vectorial. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193.2 Subespacio vectorial. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203.3 Dependencia lineal. Bases y dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213.4 Operaciones con subespacios vectoriales. Formula de la dimension . . . . . . . . . . . . . 243.5 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243.6 Aplicaciones lineales entre espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . 25

3.6.1 Representacion matricial de una aplicacion lineal . . . . . . . . . . . . . . . . . . . 273.6.2 Cambio de base en una aplicacion lineal . . . . . . . . . . . . . . . . . . . . . . . . 27

4 Valores y vectores propios. Matrices diagonalizables. Formas canonicas. 284.1 Autovalores y Autovectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 294.2 Matrices y Endomorfismos diagonalizables . . . . . . . . . . . . . . . . . . . . . . . . . . . 304.3 Subespacios invariantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 304.4 Aplicaciones de la diagonalizacion al calculo de la exponencial de matrices y a la resolucion

de sistemas de ecuaciones diferenciales lineales de orden 1 con coeficientes constantes . . . 314.4.1 Exponencial de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 314.4.2 Resolucion de sistemas de ecuaciones diferenciales lineales de orden 1 con coefi-

cientes constantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

2

Capıtulo 1

Sistemas de ecuaciones lineales.Matrices.

1.1 Sistemas de ecuaciones lineales

Definicion. 1.1.1 Una ecuacion lineal en las variables x1, . . . , xn es una expresion de la forma:

a1 · x1 + · · ·+ an · xn = b

donde a1, . . . , an, b ∈ R (o C), n ∈ Z+. Si b = 0, diremos que la ecuacion es homogenea.

Definicion. 1.1.2 Un sistema de ecuaciones lineales en las variables x1, . . . , xn es una coleccion finitade ecuaciones lineales en las que intervienen las mismas variables, digamos x1, . . . , xn; esto es,

(S)

a11 · x1 + · · ·+ a1n · xn = b1

......

...am1 · x1 + · · ·+ amn · xn = bm

Este sistema tambien se notara matricialmente como:

a11 . . . a1n

......

am1 . . . amn2

·

x1

...xn

=

b1

...bm

Si para todo i se tiene que bi = 0, diremos que el sistema es homogeneo.

Definicion. 1.1.3 Una solucion de un sistema de ecuaciones lineales es una lista (s1, . . . , sn) de numerosreales o complejos que convierte cada ecuacion en una afirmacion verdadera cuando se sustituye x1, . . . ,xn

por s1, . . . , sn; es decir,

a11 · s1 + · · ·+ a1n · sn = b1

......

...am1 · s1 + · · ·+ amn · sn = bm

Esta expresion tambien se suele notar por:

n∑

j=1

aijsj = bi, 1 ≤ i ≤ m

.El conjunto de todas las soluciones posibles se llama conjunto solucion del sistema lineal.

3

CAPITULO 1. SISTEMAS DE ECUACIONES LINEALES. MATRICES. 4

Definicion. 1.1.4 Dos sistemas lineales son equivalentes si tienen el mismo conjunto solucion.

Definicion. 1.1.5 Un sistema lineal decimos que es incompatible si no tiene tiene solucion, en casocontrario, decimos que es compatible. Decimos que es compatible determinado si tiene solucion unica ycompatible indeterminado si tiene infinitas soluciones.

1.1.1 Metodo de eliminacion de Gauss

Dado un sistema de ecuaciones lineales, S, la matriz

A =

a11 . . . a1n

......

am1 . . . amn

se denomina matriz de coeficientes del sistema y la matriz

A′ =

a11 . . . a1n b1

......

...am1 . . . amn bm

se denomina matriz ampliada del sistema lineal S.

Metodo de eliminacion de Gauss: Consiste en reducir un sistema lineal dado, S, a otro equivalente, lomas sencillo posible, mediante operaciones elementales de fila realizadas a la matriz ampliada del sistema.Dichas operaciones elementales de fila son:

1. Multiplicar una fila por un numero real no nulo.

2. Intercambiar dos filas.

3. Reemplazar una fila por la suma de ella misma con un multiplo de otra.

Es facil probar que las operaciones elementales de filas transforman un sistema en otro equivalente. Elmetodo termina cuando obtenemos, tras un aplicar un numero finito de operaciones elementales de fila ala matriz ampliada del sistema, una matriz escalonada de manera descendente verificando:

1. Cada peldano tiene altura 1.

2. Debajo de la escalera todos los elementos de la matriz son cero.

3. En cada esquina de un peldano aparece el numero 1.

4. Toda columna que contiene un 1 en una esquina de un peldano, tiene todos los demas elementosnulos.

Toda matriz de este tipo se denomina matriz es calonada reducida. El proceso de obtencion de la matrizescalonada reducida no es unico, sin embargo, la matriz escalonada reducida de un sistema dado es unica,ya que produce las soluciones del sistema.

1.1.2 Teorema de Rouche-Frobenius

Consideremos un sistema de ecuaciones lineales, S, de matriz de coeficientes A y matrriz ampliada A′ yllamemos

p=numero de peldanos de una matriz escalonada de A,p′=numero de peldanos de una matriz escalonada de A′ yn=numero de incognitas del sistema.

CAPITULO 1. SISTEMAS DE ECUACIONES LINEALES. MATRICES. 5

Teorema de Rouche-Frobenius. 1.1.6 Un sistema de m ecuaciones lineales con n incognitas es

1. Compatible determinado si y solo si p = p′ = n.

2. Compatible indeterminado si y solo si p = p′ < n.

3. Incompatible si y solo si p 6= p′ (p < p′).

Nota. 1.1.7 En el caso de los sistemas lineales homogeneos, es decir, si todos los bj = 0 para todoj = 1, . . . , m; al realizar las operaciones elementales de fila con la matriz ampliada del sistema, la ultimacolumna siempre esta formada por ceros. Luego en todo sistema homogeneo se tiene que p = p′ y por elteorema de Rouche-Frobenius es compatible ((0, . . . , 0) es siempre solucion).

Por tanto, un sistema homogeneo o bien posee solucion unica (la trivial) o bien infinitas soluciones(cuando p = p′ < n).

1.2 Rango de una matriz. Estructura de las soluciones de unsistema.

Hemos definido una solucion de un sistema de ecuaciones lineales como una lista (s1, . . . , sn) de numerosreales. Un elemento de esta forma recibe el nombre de vector numerico y se denota por s = (s1, . . . , sn) ∈Rn. Los numeros s1, . . . , sn reciben el nombre de componentes del vector. El vector 0 es el vector cuyascomponentes son todas nulas.

Dos vectores u = (u1, . . . , un) son iguales, y escribiremos u = v, si sus correspondientes componentesson iguales, es decir, u1 = v1, u2 = v2, . . . , un = vn.

Los vectores numericos no solo aparecen como soluciones de un sistema de ecuaciones lineal, sino quetambien aparecen en las filas o columnas de una matriz, en cuyo caso reciben el nombre de vectores filao vectores columna.

1.2.1 Operaciones en Rn

Sean u = (u1, . . . , un),v = (v1, . . . , vn) ∈ Rn y λ ∈ R, se definen las siguientes operaciones:

1. Suma de vectores: u + v = (u1, . . . , un) + (v1, . . . , vn).

2. Producto por un escalar: λ · u = λ(u1, . . . , un) = (λu1, . . . , λun)

Se pueden combinar ambas operaciones:

λ · u + µ · v = (λu1 + µv1, . . . , λun + µvn)

Descripcion geometrica de R2: Consideremos un sistema de coordenadas rectangulares en el plano.Como cada punto del plano esta determinado por un par ordenado de numeros, podemos identificar unpunto geometrico (a, b) con el vector numerico u = (a, b). Por tanto, podemos considerar R2 como elconjunto de todos los puntos del plano.

Nota. 1.2.1 El conjunto de todos los multiplos escalares de un vector fijo u, L(u), es una recta que pasapor el origen.

Propiedades de la suma y el producto por escalares. 1.2.2 Para todos u,v,w ∈ Rn y α, β ∈ R,se verifican las siguientes propiedades:

(1.1) u + v = v + u. (Conmutativa).

(1.2) u + (v + w) = (u + v) + w. (Asociativa).

(1.3) Existe 0 ∈ Rn tal que para todo u ∈ Rn, 0 + u = u. (Elemento neutro).

CAPITULO 1. SISTEMAS DE ECUACIONES LINEALES. MATRICES. 6

(1.4) Para todo u ∈ V , existe u′ ∈ Rn tal que u + u′ = 0 (elemento simetrico de u).

(2.1) α · (u + v) = α · u + α · v.

(2.2) (α + β) · u = α · u + β · u.

(2.3) α · (β · u) = (α · β) · u.

(2.4) 1 · u = u.

Definicion. 1.2.3 Llamaremos espacio numerico sobre R de dimension n, al conjunto:

Rn = {(u1, . . . , un) | ui ∈ R, i = 1, . . . , n}junto con las operaciones suma y producto por escalares ya definidas.

Notas. 1.2.4 1. Los elementos de Rn se denominaran vectores y los de R escalares.

2. El elemento u′ cuya existencia asegura (1.4) es unico y se notara por −u (elemento opuesto de u).

1.2.2 Combinaciones lineales

Definicion. 1.2.5 Un vector u ∈ Rn se dice que es combinacion lineal de los vectores {v1, . . . ,vp} siexisten numeros reales λ1, . . . , λp tales que

u = λ1v1 + . . . + λpvp.

Nota. 1.2.6 Una ecuacion vectorial u = λ1v1 + . . . + λpvp, tiene el mismo conjunto solucion que elsistema lineal cuya matriz ampliada es

(v1 . . .vp : u).

En particular u se puede generar como combinacion lineal de {v1, . . . ,vp} si y solo si existe una soluciondel sistema lineal que tiene por matriz ampliada

(v1 . . .vp : u).

Definicion. 1.2.7 Sean v1, . . . ,vp ∈ Rn. Se llama subespacio vectorial de Rn generado por v1, . . . ,vp,y se designa por L(v1, . . . ,vp) o bien 〈v1, . . . ,vp〉, al conjunto de todas las combinaciones lineales finitasde v1, . . . ,vp.

Notas. 1.2.8 Se verifican las siguientes afirmaciones:

1. 0 ∈ L(v1, . . . ,vp) para cualesquiera v,1 . . . ,vp ∈ Rn, ya que 0 es combinacion lineal de cualquierconjunto de vectores.

2. vi ∈ L(v1, . . . ,vp) para i = 1, . . . , p.

3. Si u,v ∈ R3 con u,v 6= 0 y siendo v no multiplo de u, entonces L(u,v) es el plano en R3 quecontiene a u,v y 0. En el caso de que v sea multiplo de u, entonces L(u,v) = L(u), o sea, la rectaque contiene a u y 0.

Definicion. 1.2.9 Sean v1, . . . ,vk ∈ Rn.

(1) v1, . . . ,vk son linealmente dependientes si existen α1, . . . , αk ∈ Rn ,no todos nulos, tales que:

α1 · v1 + · · ·+ αk · vk = 0

(2) v1, . . . ,vk son linealmente independientes si no son linealmente dependientes, es decir, cualquierexpresion de tipo

α1 · v1 + · · ·+ αk · vk = 0

implica necesariamente que α1 = · · · = αk = 0.

CAPITULO 1. SISTEMAS DE ECUACIONES LINEALES. MATRICES. 7

Nota. 1.2.10 Un conjunto de vectores v1, . . . ,vk ∈ Rn son linealmente independientes si y solo si elsistema lineal homogeneo que tiene por matriz ampliada

(v1 . . .vk : 0)

tiene solucion unica la trivial, es decir, si y solo si el numero de peldanos coindide con el numero devectores. En caso contrario son linealmente dependientes.

Ejemplos. 1.2.11 1. Si 0 ∈ {v1, . . . ,vk}, entonces v1, . . . ,vk son linealmente dependientes

2. Si a un conjunto de vectores linealmente dependientes se le anaden cualesquiera otros vectores,resulta un conjunto de vectores linealmente dependientes.

3. Cualquier subconjunto de un conjunto de vectores linealmente independientes es un conjunto devectores linealmente independientes.

Definicion. 1.2.12 Definimos el rango de un conjunto de vectores como el mayor numero de ellos queson linealmente independientes y rango de una matriz A, y se denota por rg(A), al rango de sus vectorescolumnas.

Calculo del rango de una matriz A: Dada la matriz

A =

a11 . . . a1n

......

am1 . . . amn

se consideran los vectores columna a1 = (a11, . . . , am1), a2 = (a12, . . . ,am2),. . . ,an = (a1n, . . . , amn) deentre los cuales hay que determinar el mayor numero de ellos que son linealmente independientes.

En primer lugar, estudiamos si los n vectores son linealmente independientes, es decir, si el sistemalineal homogeneo

x1a1 + x2a2 + · · ·+ xnan = 0

posee unicamente la solucion nula. En este caso el rg(A) = n. Para ello es necesario reducir A a su formaescalonada reducida.

Si los n vectores son linealmente dependientes, es necesario estudiar si alguno de los posibles subcon-juntos de n− 1 vectores de entre los n anteriores es linealmente independiente.

Si estos subconjuntos de n−1 vectores son todos linealmente dependientes, es necesario estudiar todoslos subconjuntos de n−2 vectores. El proceso termina cuando encontremos por primera vez unos cuantosvectores de entre los anteriores que sean linealmente independientes.

Aunque en teorıa puede parecer largo y complicado calcular el rango de una matriz, en la practica,sin embargo resulta sencillo cuando se demuestra el siguiente resultado.

Teorema. 1.2.13 El rango de una matriz coincide con el numero de peldanos de su matriz escalonadareducida.

El teorema anterior nos permite escribir el teorema de Rouche-Frobenius utilizando el rango de unamatriz.

Teorema de Rouche-Frobenius. 1.2.14 Dado un sistema lineal con m ecuaciones y n incognitas, conmatriz de los coeficientes A y matriz ampliada A′, se tienen los siguientes resultados:

1. El sistema es compatible determinado si y solo si rg(A) = rg(A′) = n.

2. El sistema es compatible indeterminado si y solo si rg(A) = rg(A′) < n.

3. El sistema es incompatible si y solo si rg(A) < rg(A′).

Proposicion. 1.2.15 Todo subespacio vectorial generado por v1, . . . ,vr ∈ Rn, 〈v1, . . . ,vr〉 (o bien,L(v1, . . . ,vr)) posee un sistema de ecuaciones implıcitas, es decir, un sistema lineal homogeneo del cuales su conjunto solucion.

CAPITULO 1. SISTEMAS DE ECUACIONES LINEALES. MATRICES. 8

1.2.3 Estructura de las soluciones de un sistema lineal homogeneo

Consideremos un sistema lineal homogeneo de m ecuaciones con n incognitas:

a11 · x1 + · · ·+ a1n · xn = 0...

......

am1 · x1 + · · ·+ amn · xn = 0(1.1)

Todo sistema linal homogeneo posee la solucion trivial 0 = (0, . . . , 0) y por tanto es compatible.

Proposicion. 1.2.16 Se verifican las siguientes propiedades:

1. Si u = (u1, . . . , un) es una solucion de (1.1), entonces λu es tambien solucion de (1.1) para todoλ ∈ R.

2. Si u = (u1, . . . , un) y v = (v1, . . . , vn) son soluciones de (1.1), entonces u + v es tambien solucionde (1.1).

Proposicion. 1.2.17 Si el sistema lineal homogeneo (1.1) es compatible indeterminado, existen k vec-tores u1, . . . ,uk linealmente independientes tales que todas las soluciones de (1.1) son de la forma

λ1u1 + λ2u2 + · · ·+ λkuk

con λi ∈ R para i = 1, . . . , k. Ademas, k = n− rg(A), donde A es la matriz de los coeficientes del sistema(1.1).

Nota. 1.2.18 El resultado anterior prueba que el conjunto de soluciones de cualquier sistema linealhomogeneo es un subespacio vectorial de Rn generador por u1, . . . ,uk, es decir 〈u1, . . . ,uk〉.

1.2.4 Estructura de las soluciones de un sistema lineal no homogeneo

La estructura de las soluciones de un sistema lineal no homogeneo se deduce de la estructura de lassoluciones de un sistema lineal homogeneo.

Sea

a11 · x1 + · · ·+ a1n · xn = b1

......

...am1 · x1 + · · ·+ amn · xn = bm

(1.2)

un sistema lineal de m ecuaciones con n incognitas. Se denomina sistema lineal homogeneo asociado a(1.2) al sistema que se obtiene sustituyendo los bj de la derecha del sistema por ceros.

Proposicion. 1.2.19 Si p es una solucion de (1.2), todas sus soluciones son de la forma p + u, dondeu es cualquier solucion de su sistema homogeneo asociado.

Teorema. 1.2.20 Sea p una solucion de (1.2). Existen k vectores u1, . . . ,uk linealmente independi-entes, tales que todas las soluciones de (1.2) son de la forma

p + λ1u1 + · · ·+ λkuk

donde los λk son numeros reales y u1,u2, . . . ,uk son soluciones del sistema homogeneo asociado a (1.2).Ademas, k = n− rg(A), donde A es la matriz de los coeficientes del sistema.

Nota. 1.2.21 La expresion p + λ1u1 + · · · + λkuk se denomina solucion general del sistema y p sedenomina una solucion particular del sistema

1.3 Aplicaciones lineales de Rn en Rm y operaciones con matrices

En esta seccion deduciremos las operaciones con matrices a partir de las operaciones que se pueden realizarcon aplicaciones lineales. Comenzaremos con el concepto de aplicacion entre dos conjuntos recordandoalgunas nociones basicas de teorıa de conjuntos.

CAPITULO 1. SISTEMAS DE ECUACIONES LINEALES. MATRICES. 9

1.3.1 Conjuntos. Operaciones con conjuntos

Se supone al lector familiarizado con el concepto basico de conjunto.Si la letra S denota un conjunto y s un elemento de S diremos que s pertenece a S y escribiremos s ∈ S.Para indicar que un cierto elemento s no pertenece a S se escribira s 6∈ S.1 El sımbolo ∅ denota alconjunto vacıo, es decir al conjunto que no tiene elementos.

Definicion. 1.3.1 Si S y T son dos conjuntos y todo elemento de S es tambien elemento de T, diremosque S es un subconjunto de T 2 y escribiremos S ⊂ T .

Obviamente se tiene ∅ ⊂ S para cualquier conjunto S. Si algun elemento s de S no pertenece a T (esdecir, si S no es un subconjunto de T ) se escribira S 6⊂ T.

Definicion. 1.3.2 Decimos que dos conjuntos S y T son iguales, y notaremos por S = T si y solo siS ⊂ T y T ⊂ S.

La letra N denotara el conjunto de los numeros naturales, es decir los numeros 0, 1, 2, 3, . . ., la letra Z, elde los numeros enteros, es decir . . . ,−3,−2,−1, 0, 1, 2, 3, . . ., la letra Q, el de los numeros racionales, laletra R, el de los numeros reales y la letra C, el de los numeros complejos.

Definicion. 1.3.3 Sean S y T dos conjuntos. Sean s1 ∈ S y t1 ∈ T. La expresion (s1, t1) se llama elpar ordenado formado por s1 e t1. El conjunto de todos los pares ordenados de la forma anterior se llamaproducto cartesiano de S y T (o de S por T ) y se denota por S × T . Esto es:

S × T = {(s, t) | s ∈ S, t ∈ T}Definicion. 1.3.4 La union de dos conjuntos S y T (que notaremos S ∪ T ) es el conjunto S ∪ T ={a | a ∈ S o a ∈ T}, donde “o” no es excluyente.

Es claro que S ∪ S = S y que ∅ ∪ S = S. Mas generalmente, si A ⊂ B entonces A ∪B = B.

Definicion. 1.3.5 La interseccion de dos conjuntos S y T (que notaremos S∩T ) es el conjunto S∩T ={a | a ∈ S y a ∈ T}.Es claro que S∩S = S y que ∅∩S = ∅. Mas generalmente, si A ⊂ B entonces A∩B = A. Dos conjuntosS, T se dicen disjuntos si S ∩ T = ∅ .

Definicion. 1.3.6 Sean S, T dos conjuntos. El conjunto diferencia “S menos T” , que notaremos S−T ,es el conjunto formado por los elementos de S que no estan en T , es decir, S − T = {s ∈ S | s 6∈ T}.

1.3.2 Aplicaciones entre dos conjuntos

A continuacion presentamos una definicion intuitiva del concepto de aplicacion entre dos conjuntos.

Definicion. 1.3.7 Una aplicacion de un conjunto S en otro T es una “regla” (o una “correspondencia”)que asocia a cada elemento de S un elemento, y solo uno, de T.

En lo que sigue, denotaremos a las aplicaciones por letras minusculas (f, g, ...). Si f es una aplicacion de

S en T escribiremos f : S → T o bien Sf→ T. Ası, una aplicacion f : S → T es una manera de asociar

a cada elemento s de S un (unico) elemento f(s) de T.

Ejemplo. 1.3.8 Sean S = {1, 2, 3, 4, 5} y T = {a, b, c}. La correspondencia f de manera que f(1) = a,f(2) = b y f(3) = c no es una aplicacion de S en T ya que el elemento 4 (de S) no tiene imagen mediantef (tampoco tiene imagen el elemento 5). Si consideramos ahora la correspondencia g tal que

g(1) = a, g(1) = b, g(2) = c, g(3) = b, g(4) = c, g(5) = a,

es claro que tampoco es una aplicacion de S en T , ya que para el elemento 1 (en S) existen a y b (en T )tales que g(1) = a y g(1) = b.

1A veces se dira el elemento s esta en S en lugar de el elemento s pertenece a S y tambien el elemento s no esta en Sen lugar de el elemento s no pertenece a S.

2Se dira tambien en este caso que S esta contenido en T .

CAPITULO 1. SISTEMAS DE ECUACIONES LINEALES. MATRICES. 10

Ejemplo. 1.3.9 Sea S un conjunto no vacıo. Sea f la correspondencia de S en S definida por f(s) = spara todo s ∈ S. Es claro que f es una aplicacion de S en S. Se trata de la aplicacion que asocia a cadas de S el mismo elemento s y se llamara la aplicacion identidad de S. Se suele denotar idS : S → S. Setiene por tanto idS(s) = s para todo s de S.

Ejemplo. 1.3.10 Sean S y T dos conjuntos no vacıos. Sea y0 ∈ T. Consideremos la correspondencia fde S en T definida por f(s) = y0 para todo s ∈ S. Es claro que f es una aplicacion de S en T. Podemosdecir que f es la aplicacion que asocia a cada elemento s de S el elemento y0 en T .

Ejemplo. 1.3.11 Sea f la correspondencia de Z en Z que asocia a cada n ∈ Z el numero entero 2n.Escribimos f(n) = 2n para todo n en Z. Es claro que f : Z→ Z es una aplicacion.

Ejemplo. 1.3.12 Sea f la correspondencia de Z en Z definida por f(n) = n + 1 para todo n ∈ Z. Esclaro que f es una aplicacion de Z en Z. Diremos que f : Z→ Z es la aplicacion que asocia a cada n ∈ Zel numero entero n + 1.

Ejemplo. 1.3.13 Notemos por Z∗ el conjunto Z − {0}, es decir Z∗ es el conjunto de los enteros nonulos. Otro ejemplo de aplicacion f : Z × Z∗ → Q es la definida por f(n,m) = n

m , para cada elemento(n,m) ∈ Z× Z∗.

Definicion. 1.3.14 Una aplicacion f : S → T se dice inyectiva si siempre que s1, s2 ∈ S y s1 6= s2 severifique f(s1) 6= f(s2), o, lo que es equivalente,

f(s1) = f(s2) ⇒ s1 = s2

Las aplicaciones 1.3.9, 1.3.11, 1.3.12 son inyectivas. Si S tiene mas de un elemento, la aplicacion 1.3.10no es inyectiva. La aplicacion 1.3.13 no es inyectiva.

Definicion. 1.3.15 Una aplicacion f : S → T se dice sobreyectiva 3 si para todo elemento y ∈ T existes ∈ S tal que f(s) = y.

Las aplicaciones 1.3.9, 1.3.12, 1.3.13 son sobreyectivas. Si T tiene mas de un elemento, la aplicacion1.3.10 no es sobreyectiva. La aplicacion 1.3.11 no es sobreyectiva.Sea P el conjunto de los numeros enteros pares (esto es, el conjunto de los numeros enteros multiplos de2). Sea g : Z → P la aplicacion que asocia a cada numero n ∈ Z el numero 2n. Es claro que g es unaaplicacion sobreyectiva. Es conveniente comparar este ejemplo con 1.3.11.

Definicion. 1.3.16 Sea f : S → T una aplicacion. Se llama imagen de f (y se denota Im(f) o tambienf(S)) al subconjunto de T definido por Im(f) = {f(s) | s ∈ S}. Mas generalmente, si A ⊂ S se llamaimagen de A al conjunto, notado f(A), definido por: f(A) = {f(s) | s ∈ A}.

Nota. 1.3.17 Con la definicion 1.3.16, una aplicacion f : S → T es sobreyectiva si y solo si Im(f) = T.

Definicion. 1.3.18 Sea f : S → T una aplicacion. Sea B un subconjunto de T . Se llama imagenrecıproca4 de B mediante f (y se denota f−1(B)) al subconjunto de S definido por

f−1(B) = {s ∈ S | f(s) ∈ B}

Ejemplos. 1.3.19 Es facil comprobar que:

• Im(idS) = S (ejemplo 1.3.9).

• Im(f) = {y0} (ejemplo 1.3.10).

• Im(f) = P (ejemplo 1.3.11, siendo P el conjunto de los numeros enteros pares).

• Im(f) = Z (ejemplo 1.3.12).3Tambien se dice suprayectiva.4Algunos autores dicen tambien imagen inversa.

CAPITULO 1. SISTEMAS DE ECUACIONES LINEALES. MATRICES. 11

• Im(f) = Q (ejemplo 1.3.13).

Definicion. 1.3.20 Una aplicacion f : S → T se dice biyectiva5 si es inyectiva y sobreyectiva.

La aplicacion identidad de S (ver 1.3.9) es biyectiva. La aplicacion 1.3.10 es biyectiva si y solo si S yT tienen solo un elemento. La aplicacion 1.3.12 es biyectiva. Las aplicaciones 1.3.11 y 1.3.13 no sonbiyectivas.

Definicion. 1.3.21 Sean f : S → T y g : T → U dos aplicaciones. Se llama composicion de f y g, a laaplicacion (notada g ◦ f) de S en U definida por la igualdad (g ◦ f)(s) = g(f(s)) para todo s de S.

Nota. 1.3.22 Para componer dos aplicaciones f y g, es necesario que el conjunto final de f coincidacon el conjunto inicial de g; ası pues, f ◦ g no esta definida a menos que U = S. En el caso en que g ◦ fpueda definirse cabe preguntarse si g ◦ f coincide con f ◦ g. La respuesta es, en general, negativa. Portanto, la composicion de aplicaciones no es, en general, conmutativa.

Ejemplo. 1.3.23 Sean las aplicaciones f : R→ R definida por f(x) = x2 − 1 y g : R→ R definida porg(x) = x + 5. Se tiene que

g ◦ f(x) = g(f(x)) = f(x) + 5 = x2 − 1 + 5 = x2 + 4

mientras quef ◦ g(x) = f(g(x)) = g(x)2 − 1 = (x + 5)2 − 1 = x2 + 10x + 24.

Por tanto, g ◦ f 6= f ◦ g.

Proposicion. 1.3.24 Si f : S → T , g : T → Z y h : Z → T son tres aplicaciones, se verifica lapropiedad asociativa: h ◦ (g ◦ f) = (h ◦ g) ◦ f.

ejercicio.- Demostrar la proposicion 1.3.24.

1.3.3 Aplicaciones lineales.

Una forma de definir una aplicacion es usando matrices. Sea, por ejemplo, la matriz

A =(

1 −12 3

)

podemos definir f : R2 → R2 mediante

f(x) = A · x = (x1 − x2, 2x1 + 3x2)

Ası, por ejemplo, f(1, 5) = (1− 5, 2 · 1 + 3 · 5) = (−4, 17).En general, sea Rn y

A =

a11 a12 · · · a1n

a21 a22 · · · a2n

......

...am1 am2 · · · amn

se denomina aplicacion lineal asociada a A a la aplicacion f : Rn → Rm dada por

f(x) = A · x = (a11x1 + a12x2 + · · ·+ a1nxn, . . . , amix1 + am2x2 + · · ·+ amnxn)

Las aplicaciones lineales tienen un buen comportamiento con respecto a la suma de vectores y alproducto de estos por escalares.

Proposicion. 1.3.25 Sea f : Rn → Rm una aplicacion lineal. Entonces para todo x, y ∈ Rn y paratodo λ ∈ R se verifica:

5Algunos autores dicen tambien biunıvoca.

CAPITULO 1. SISTEMAS DE ECUACIONES LINEALES. MATRICES. 12

(1) f(x + y) = f(x) + f(y)

(2) f(λx) = λx

Nota. 1.3.26 Combinando las propiedades (1) y (2) de la proposicion anterior, se tiene que si f es linealentonces

f(λx + µy) = λf(x) + µf(y)

Las propiedades (1) y (2) anteriores caracterizan a las aplicaciones lineales de Rn en Rm como muestrael siguiente resultado:

Teorema. 1.3.27 Sea f : Rn → Rm una aplicacion que satisface

(1) f(x + y) = f(x) + f(y) para todos x,y ∈ Rn

(2) f(λx) = λx para todo λ ∈ R y todo x ∈ Rn

Entonces f es una aplicacion lineal con matriz A cuyas columnas vienen dadas por f(e1), . . . , f(en)donde {e1, . . . , en} es la base canonica de Rn, es decir, cada ej es el vector de Rn que tiene todas suscomponentes cero salvo la que ocupa el lugar j que tiene un 1.

Las aplicaciones lineales pueden sumarse y multiplicarse por numeros reales.

Definicion. 1.3.28 Sean f, g aplicaciones lineales de Rn en Rm, se define la suma de f y g, f + g comouna aplicacion f + g : Rn → Rm tal que

(f + g)(x) = f(x) + g(x) para todo x ∈ Rn;

y la multiplicacion de f por λ como una aplicacion λf : Rn → Rm tal que

(λf)(x) = λ(f(x)) para todo x ∈ Rn.

Proposicion. 1.3.29 Sean f, g aplicaciones lineales de Rn en Rm de matrices asociadas respectivas A yB. Se verifican:

1. La suma de dos aplicaciones lineales, f + g, es una aplicacion lineal y su matriz asociada se corre-sponde con la suma de las matrices asociadas a f y g, es decir, A + B (cuya j-esima columna esigual a la suma de la j-esima columna de A con la j-esima columna de B).

2. La multiplicacion de una aplicacion lineal f por un escalar λ ∈ R, λf , es una aplicacion lineal y sumatriz asociada se corresponde con λA (cuya j-esima columna es igual a la j-esima columna de Amultiplicada por λ).

Proposicion. 1.3.30 La suma de aplicaciones lineales y la multiplicacion de una aplicacion lineal porun numero real verifican las siguientes propiedades (que se corresponden con las propiedades de la sumade matrices y de la multiplicacion de una matriz por un numero real):

Suma de aplicaciones lineales Suma de matrices(S1) f + g = g + f (S1) A + B = B + A(S2) (f + g) + h = f + (g + h) (S2) (A + B) + C = A + (B + C)(S3) 0 + f = f + 0 = f (S3) 0 + A = A + 0 = A donde 0 es la matriz nula(S4) f + (−f) = 0 = (−f) + f donde −f = (−1)f (S4) A + (−A) = 0 = (−A) + AMultiplicacion de ap. lineales por un numero real Multiplicacion de matrices por un numero real(M1) λ(f + g) = λf + λg (M1) λ(A + B) = λA + λB(M2) (λ + µ)f = λf + µf (M2) (λ + µ)A = λA + µA(M3) λ(µf) = (λµ)f (M3) λ(µA) = (λµ)A(M4) 1 · f = f (M4) 1 ·A = A

Por ultimo veamos que la composicion de aplicaciones lineales se corresponde con el producto dematrices.

CAPITULO 1. SISTEMAS DE ECUACIONES LINEALES. MATRICES. 13

Definicion. 1.3.31 Dadas las matrices B = (bij)i=1,...,p;j=1,...,m y A = (aij)i=1,...,m;j=1,...,n de ordenesp×m y m× n respectivamente, definimos B ·A como la matriz de orden p× n cuyo elemento que ocupael lugar (i, j) esta dado por

m∑

k=1

bikakj = bi1a1j + bi2a2j + · · ·+ bimamj

Nota. 1.3.32 Para poder calcular B · A es necesario que el numero de columnas de B coincida con elnumero de filas de A.

Proposicion. 1.3.33 Sean f : Rn → Rm y g : Rm → Rp aplicaciones lineales de matrices canonicasrespectivas A (de orden m×n) y B (de orden p×m). Entonces g ◦ f : Rn → Rp es una aplicacion linealque tiene por matriz canonica asociada B ·A.

Proposicion. 1.3.34 La composicion de aplicaciones lineales verifican las siguientes propiedades:

Composicion de aplicaciones lineales Producto de matrices(C1) (h ◦ g) ◦ f = h ◦ (g ◦ f) (P1) (C ·B) ·A = C · (B ·A)(C2) h ◦ (f + g) = h ◦ f + h ◦ g (P2) C · (A + B) = C ·A + C ·B(C3) (h + g) ◦ f = h ◦ f + g ◦ f (P3) (C + B) ·A = C ·A + B ·A(C4) (λg) ◦ f = g ◦ (λf) = λ(g ◦ f) donde λ ∈ R (P4) (λB) ·A = B · (λA) = λ(A ·B)

1.3.4 Inversa de una aplicacion lineal e inversa de una matriz

Definicion. 1.3.35 Sea f : S → T una aplicacion, decimos que g : T → S es una aplicacion inversa def si f ◦ g = idT y g ◦ f = idS, es decir, g ◦ f(s) = s para todo s ∈ S y f ◦ g(t) = t para todo t ∈ T .

Notas. 1.3.36 Se verifican las siguientes afirmaciones:

1. La inversa de una aplicacion no siempre existe, por ejemplo, f : {1, 2, 3} → {a, b, c} definida porf(1) = a, f(2) = b y f(3) = a. En efecto, si g : {a, b, c} → {1, 2, 3} fuese una inversa de ftendrıamos que

1 = g ◦ f(1) = g ◦ f(3) = g(1) = 3

lo que es una contradiccion.

2. Si existe la inversa de una aplicacion decimos que f es invertible y que una inversa de f es f−1.

3. La inversa de f cuando existe es unica.

Proposicion. 1.3.37 Sea f : S → T una aplicacion, entonces f es invertible si y solo si f es biyectiva.

Teorema. 1.3.38 Si f : Rn → Rn es una aplicacion lineal invertible, f−1 : Rn → Rn es tambien unaaplicacion lineal invertible y (f−1)−1 = f .

Si f : Rn → Rn es aplicacion lineal, su matriz canonica asociada A es de orden n × n, es decir,cuadrada de orden n. Si f es invertible, su inversa f−1 es tambien lineal y su matriz canonica asociadaB es tambien cuadrada de orden n. La matriz B recibe el nombre de matriz inversa de A y la notamospor B = A−1.

Como la matriz de f ◦ f−1 es A ·B y la de f−1 ◦ f es B ·A, se tiene que B es la matriz inversa de Asi y solo si A ·B = In y B ·A = In donde In es la matriz unidad de orden n.

Algoritmo para el calculo de la matriz inversa de una dada: Sea A una matriz cuadrada de ordenn, para calcular su inversa se reduce por filas la matriz (A : In) a su forma escalonada reducida. Puedenocurrir dos cosas:

• que A se reduzca a In, en cuyo caso obtenemos (In : B) siendo B = A−1;

CAPITULO 1. SISTEMAS DE ECUACIONES LINEALES. MATRICES. 14

• o que en A aparezca una fila de ceros, en cuyo caso A no posee inversa.

Teorema. 1.3.39 Una matriz cuadrada A de orden n es invertible si y solo si rg(A) = n.

Proposicion. 1.3.40 Si f : S → T y g : T → U son aplicaciones invertibles, entonces g ◦ f es invertibley (g ◦ f)−1 = f−1 ◦ g−1.

Notas. 1.3.41 Se verifican las siguientes afirmaciones:

1. Si f y g son aplicaciones lineales invertibles con matrices canonicas asociadas A y B respectiva-mente, entonces (B ·A)−1 = A−1 ·B−1.

2. Sea Ax = B un sistema lineal donde la matriz de los coeficientes A es cuadrada de orden n. Si Aes invertible y A−1 es su inversa, entonces el sistema es compatible determinado y su solucion esx = A−1b.

Capıtulo 2

Determinantes

En este capıtulo presentamos una definicion de determinante de una matriz cuadrada usando el conceptode permutacion.

2.1 Definicion de permutacion.

Definicion. 2.1.1 Llamamos permutacion de los numeros naturales {1, 2, . . . , n} a toda aplicacion biyec-tiva del conjunto {1, 2, . . . , n} en sı mismo.

Notas. 2.1.2 Se verifican:

1. Si llamamos Sn al conjunto de todas las permutaciones de los n primeros numeros naturales yσ ∈ Sn, podemos escribir

σ = (σ(1) σ(2) σ(3) · · ·σ(n))

2. Sn tiene estructura de grupo (n > 2 no abeliano) finito con n! elementos, es decir, |Sn| = n!.

Definicion. 2.1.3 Sea σ una permutacion y sean 1 ≤ i < j ≤ n dos numeros naturales. Se dira que enσ los elementos i y j forman una inversion, si σ(i) > σ(j). Al numero total de inversiones lo designamospor v(σ).

Definicion. 2.1.4 Definimos signatura de una permutacion como

sig(σ) =∏

i<j

σ(i)− σ(j)i− j

(= 1,−1)

Tambien es sig(σ) = (−1)v(σ).

Nota. 2.1.5 Si v(σ) es par, entonces sig(σ) = 1 y decimos que σ es una permutacion par. Si v(σ) esimpar, entonces sig(σ) = −1 y decimos que σ es una permutacion impar.

2.2 Definicion de determinante. Propiedades

Definicion. 2.2.1 Sea A = (aij)1≤i,j≤n una matriz cuadrada de orden n. Definimos el numero deter-minante de A como

det(A) = |A| =∑

sig∈Sn

(sig(σ))a1σ(1)a2σ(2) · · · anσ(n)

Notas. 2.2.2 En los casos n = 2, 3 la definicion anterior coincide con las ya conocidas formulas deldeterminante de una matriz de orden 2 o 3:

15

CAPITULO 2. DETERMINANTES 16

1. Si A = (aij)1≤i,j≤2, entonces S2 = {σ1 = (1 2), σ2 = (2 1)}. Por la defincion 2.2.1

det(A) = sig(σ1) · a1σ1(1)a2σ1(2) − sig(σ2) · a1σ2(1)a2σ2(2) = 1 · a11a22 − 1 · a12a21

2. Si A = (aij)1≤i,j≤3, entonces

S3 = {σ1 = (1 2 3), σ2 = (2 1 3), σ3 = (3 1 2), σ4 = (3 2 1), σ5 = (2 3 1), σ6 = (1 3 2)}.

Por la definicion 2.2.1

det(A) = sig(σ1) · a11a22a33 + sig(σ2) · a12a21a33 + sig(σ3) · a13a21a32+

+sig(σ4) · a13a22a31 + sig(σ5) · a12a23a31 + sig(σ6) · a11a23a32 =

= a11a22a33 + a13a21a32 + a12a23a31 − a13a22a31 − a12a21a33 − a11a23a32.

Proposicion. 2.2.3 Si A = (aij)1≤i,j≤n en la que la i-esima fila (o columna) es una suma de la formaaij = bij + cij con j = 1, . . . , n y escribimos

B =

a11 . . . a1n

bi1 . . . bin

an1 . . . ann

C =

a11 . . . a1n

ci1 . . . cin

an1 . . . ann

Entonces se tiene que det(A) = det(B) + det(C).

Proposicion. 2.2.4 Si B es la matriz que se obtiene de A intercambiendo dos columnas (o filas), en-tonces se tiene que det(B) = − det(A).

Definicion. 2.2.5 Sea A = (aij)1≤i,j≤n. Denominamos matriz adjunta del elemento que ocupa el lugarij y la denotamos por Aij a la matriz de orden n− 1 que se obtiene de la matriz A suprimiendo la fila iy la columna j.

Proposicion. 2.2.6 Si A = (aij)1≤i,j≤n, y Aj denota la matriz que se obtiene de A sustituyendo todoslos elementos de la ultima fila por ceros salvo el que ocupa la columna j, es decir,

Aj =

a11 . . . a1j . . . a1n

......

...an−1 1 . . . an−1 j . . . an−1 n

0 . . . anj . . . 0

Entonces se tiene quedet(Aj) = (−1)n+janj det(Anj)

donde Anj denota la matriz adjunta del elemento que ocupa el lugar nj.

Corolario. 2.2.7 Sea A = (aij)1≤i,j≤n. Entonces

det(A) = (−1)n+1an1 det(An1) + (−1)n+2an2 det(An2) + · · ·+ (−1)n+nann det(Ann)

Esta expresion se conoce por “desarrollo por la n-esima fila” (tambien valido para cualquier otra fila ocolumna de A).

Proposicion. 2.2.8 Si una matriz A tiene una fila (o columna) de ceros, entonces det(A) = 0.

Proposicion. 2.2.9 Si B es la matriz que se obtiene de A multiplicando una de sus filas (o columnas)por un numero r, entonces det(B) = r · det(A).

Proposicion. 2.2.10 Si A es una matriz con dos filas (o columnas) iguales, entonces det(A) = 0.

CAPITULO 2. DETERMINANTES 17

Proposicion. 2.2.11 Si dos filas (o columnas) de una matriz A son proporcionales, entonces det(A) = 0.

Proposicion. 2.2.12 El determinante de una matriz A es igual al de su traspuesta At, es decir, det(A) =det(At).

Proposicion. 2.2.13 El determinante de un producto de matrices es igual al producto de los determi-nantes de dichas matrices, es decir, det(A ·B) = det(A) · det(B).

Proposicion. 2.2.14 Si a la fila (o columna) p de A se le suma otra fila (o columna) q multiplicada porun numero λ, el determinante de la matriz obtenida es igual al determinante de A.

Proposicion. 2.2.15 Si una fila (o columna) de A es combinacion lineal de otras filas (o columnas),entonces det(A) = 0.

2.3 Inversa de una matriz. Regla de Cramer.

En esta seccion damos una formula para el calculo de la inversa de una matriz usando la teorıa de losdeterminantes. A continuacion usaremos esa formula para resolver sistemas de ecuaciones lineales cuyamatriz de sus coeficientes es invertible.

Comenzamos dando una condicion necesaria y suficiente para la invertibilidad de una matriz usandoel concepto de determinante.

Teorema. 2.3.1 Sea A una matriz cuadrada de orden n. Las siguientes condiciones son equivalentes:

1. A es invertible.

2. rg(A) = n.

3. det(A) 6= 0.

Teorema. 2.3.2 Si A es una matriz invertible, se tiene que

A−1 =1

det(A)· Ct

donde C es la matriz de los cofactores de A.

C = cof(A) =

c11 . . . c1n

......

cn1 . . . cnn

donde cij = (−1)i+j det(Aij).

Utilizando el teorema anterior podemos resover sistemas de ecuaciones lineales, Ax = b con A matrizcuadrada de orden n siempre que A sea invertible. En efecto,

x = A−1b =1

det(A)· Ctb.

De este modo obtenemos la regla de Cramer:

Teorema. 2.3.3 Si A es una matriz invertible de orden n, el sistema de ecuaciones Ax = b es compatibledeterminado y su solucion unica se calcula mediante la formula

xj =det(Aj)det(A)

j = 1, . . . , n

donde Aj es la matriz que se obtiene de A sustituyendo su columna j por el vector b.

CAPITULO 2. DETERMINANTES 18

2.4 Rango de una matriz. Resolucion de sistemas compatiblesindeterminados

Ya definimos en el tema anterior el rango de una matriz como el mayor numero de sus vectores columnasque son linealmente independientes.

Definicion. 2.4.1 Dada una matriz A de orden m× n, se denomina menor de orden k al determinantede cualquier matriz de orden k formada por la interseccion de k cualesquiera de sus filas y k cualesquierade sus columnas.

Notas. 2.4.2 Se verifican:

1. Los menores de orden 1 de una matriz A son sus elementos.

2. Si A es una matriz cuadrada de orden n solamente hay un menor de A de orden n que coincidecon det(A). En este mismo caso, los adjuntos de los elementos de A son menores de orden n− 1.

3. Si A es una matriz no nula, siempre podemos encontrar un unico numero R que satisface lassiguientes condiciones:

(a) A posee al menos un menor no nulo de orden R.

(b) Todo menor de A de orden mayor que R es nulo.

4. Cualquier menor de A de orden R que es no nulo se denomina menor basico; las columnas dela matriz de las que proviene este menor basico se denominan columnas basicas y a las filas filasbasicas.

Teorema. 2.4.3 Dada una matriz no nula, el numero R anteriormente definido coincide con su rango.

Teorema. 2.4.4 Sea A una matriz no nula. Se verifican las siguientes condiciones:

1. Cualquier columna de A es combinacion lineal de sus columnas basicas.

2. El mismo resultado es cierto para las filas de A.

Corolario. 2.4.5 El numero maximo de columnas linealmente independientes de una matriz es igual alnumero maximo de filas linealmente independientes.

Corolario. 2.4.6 El dterminante de una matriz cuadrada es nulo si y solo si una filas (columnas) escombinacion lineal de las restantes filas (columnas) de la matriz.

Capıtulo 3

Espacios vectoriales y aplicacioneslineales

3.1 Definicion de espacio vectorial. Ejemplos

Definicion. 3.1.1 Un espacio vectorial es conjunto no vacıo V de objetos llamados vectores, en el queestan definidas dos operaciones suma y multiplicacion por escalares (elementos de un cuerpo K), verifi-cando las siguientes propiedades:

Para todos u,v,w ∈ V , c, d ∈ K

1. La suma es una ley de composicion interna, es decir, para todos u,v ∈ V , se tiene que u + v ∈ V .

2. u + v = v + u. (Conmutativa).

3. u + (v + w) = (u + v) + w. (Asociativa).

4. Existe 0 ∈ V tal que para todo u ∈ V , 0 + u = u. (Elemento neutro).

5. Para todo u ∈ V , existe u′ ∈ V tal que u + u′ = 0. (Elemento opuesto de u).

6. La mutiplicacion por escalares es una ley externa, es decir, para todo u ∈ V y todo c ∈ K, se tieneque c · u ∈ V .

7. c · (u + v) = c · u + c · v. (Distributiva).

8. (c + d) · u = c · u + d · u. (Distributiva).

9. c · (d · u) = (c · d) · u. (Asociativa mixta).

10. 1 · u = u.

Nota. 3.1.2 El elemento neutro y el elemento simetrico son unicos.

Ejemplos. 3.1.3 1. El espacio vectorial trivial {0}.2. Los espacios vectoriales numericos, Kn = {(x1, . . . , xn) : xi ∈ K}.3. {f : Rn → Rm aplicaciones lineales} con las operaciones:

(a) Suma: (f + g)(u) = f(u) + g(u)

(b) Multiplicacion por escalares: (λ · f)(u) = λf(u).

4. M(m× n; K) con la suma de matrices y producto por un escalar.

5. C([a, b]) = {f : [a, b] → R continuas}.

19

CAPITULO 3. ESPACIOS VECTORIALES Y APLICACIONES LINEALES 20

6. Sucesiones de numeros reales.

7. Polinomios en una indeterminada R[X].

8. S(A) = {Soluciones del sistema homogeneo Ax = 0} con A ∈M(m× n;R).

9. D = {A ∈M(n× n;R) : det(A) = 0} no es un espacio vectorial.

Proposicion. 3.1.4 Sea V un espacio vectorial sobre K. Para todos u,v ∈ V y para todos c, d ∈ K, severifican:

(a) c · 0 = 0

(b) 0 · u = 0

(c) c · (u− v) = c · u− c · v(d) (c− d) · u = c · u− d · u(e) (−c) · u = −c · u(f) c · (−u) = −c · u.

3.2 Subespacio vectorial.

Definicion. 3.2.1 Sea V un espacio vectorial sobre K. Decimos que H ⊂ V (H 6= ∅) es un subespaciovectorial (o una variedad lineal) de V sobre K si se verifican las siguientes condiciones:

1. 0 ∈ H.

2. La suma es cerrada en H, es decir, para todos u,v ∈ H se tiene que u + v ∈ H.

3. H es cerrado bajo la multiplicacion por escalares, es decir, para todo c ∈ K y todo u ∈ H se tieneque c · u ∈ H.

Nota. 3.2.2 Las propiedades anteriores garantizan que H es en sı mismo un espacio vectorial con lasmismas propiedades definidas en V . Ası todo subespacio vectorial es espacio vectorial y todo espaciovectorial es subespacio vectorial de sı mismo o posiblemente de espacios mayores.

Ejemplos. 3.2.3 1. Sea V un espacio vectorial. Los subespacios vectoriales triviales son {0} y V .

2. R[X] es un subespacio vectorial de las funciones continuas C([a, b]).

3. H = {(

a b0 d

): a, b, c ∈ R} es un subespacio vectorial de M(2× 2;R).

4. S(A) = {v ∈ Rn|Av = 0} con A ∈M(m× n;R) es un subespacio vectorial de Rn.

5. H = {(x1, x2, 0) : x1, x2 ∈ R} es subespacio vectorial de R3.

6. H = {(3t, 5t + 2) : t ∈ R} no es subespacio vectorial de R2.

7. Toda recta o plano que pase por el origen es subespacio vectorial de R3.

Proposicion. 3.2.4 La interseccion de dos subespacios vectoriales ( o variedades lineales) de V siguesiendo un subespacio vectorial (o variedad lineal) de V .

CAPITULO 3. ESPACIOS VECTORIALES Y APLICACIONES LINEALES 21

3.3 Dependencia lineal. Bases y dimension

Definicion. 3.3.1 Decimos que v ∈ V es combinacion lineal de v1, . . . ,vp si existen α1, . . . , αp ∈ Rtales que v = α1v1 + · · ·+ αpvp.

Definicion. 3.3.2 Sea A = {v1, . . . ,vp} ⊆ V . Definimos el subespacio vectorial generado por A comoel conjunto de todas las combinaciones lineales finitas de elementos de A, es decir,

L(A) = L(v1, . . . ,vp) = {∑

fntasαivi}.

Por definicion L(∅) = {0}. El conjunto A = {v1, . . . ,vp} diremos que es un sistema de generadores deL(A).

Proposicion. 3.3.3 Se verifican las siguientes afirmaciones:

1. L(A) es un subespacio vectorial de V .

2. L(A) ⊇ A.

3. Si A ⊆ B, entonces L(A) ⊆ L(B).

4. Si A es un subespacio vectorial de V , entonces L(A) = A.

5. L(L(A)) = L(A).

6. L(A) es el menor subespacio vectorial de V que contiene a A.

Definicion. 3.3.4 Decimos que un subespacio vectorial H ⊆ V es de dimension finita si existe un numerofinito de elementos de H, v1, . . . ,vr, tales que H = L(v1, . . . ,vr). Un tal conjunto diremos que es unsistema de generadores de H.

Definicion. 3.3.5 Sean v1, . . . ,vp ∈ V .

1. v1, . . . ,vp son linealmente dependientes si existen α1, . . . , αp ∈ R ,no todos nulos, tales que:

α1 · v1 + · · ·+ αp · vp = 0

2. v1, . . . ,vp son linealmente independientes si no son linealmente dependientes, es decir, cualquierexpresion de tipo

α1 · v1 + · · ·+ αp · vp = 0

implica necesariamente que α1 = · · · = αp = 0.

Ejemplos. 3.3.6 1. Sean p1(X) = 1, p2(X) = X y p3(X) = 4 − X en V = R[X]. Entonces{p1, p2, p3} son linealmente dependientes, puesto que p3 = 4p1 − p2.

2. El conjunto {sin(x), cos(X)} es linealmente independiente en C[0, 2π]. En cambio {sin(x)·cos(X), sin(2x)}son linealmente dependientes porque sin(2x) = 2 sin(X) cos(X).

3. En R[X] todo polinomio de grado menor o igual a n es combinacion lineal de los polinomios{1, X, X2, . . . , Xn}.

Notas. 3.3.7 1. Si 0 ∈ {v1, . . . ,vp}, entonces v1, . . . ,vp son linealmente dependientes

2. Si a un conjunto de vectores linealmente dependientes se le anaden cualesquiera otros vectores,resulta un conjunto de vectores linealmente dependientes.

3. Cualquier subconjunto de un conjunto de vectores linealmente independientes es un conjunto devectores linealmente independientes.

CAPITULO 3. ESPACIOS VECTORIALES Y APLICACIONES LINEALES 22

4. {u} es linealmente independiente si y solo si u 6= 0.

5. {u,v} son linealmente dependientes si y solo si uno de ellos es multiplo del otro.

Definicion. 3.3.8 Un conjunto finito de vectores, {v1, . . . ,vk}, de un espacio vectorial V decimos quees un sistema de generadores de V , si todo vector de V se puede escribir como combinacion lineal de losvectores {v1, . . . ,vk}, es decir, V = L(v1, . . . ,vk). En este caso, el espacio vectorial V es de dimensionfinita.

Ejemplos. 3.3.9 1. Rn (y Kn) es de dimension finita.

2. R[X] (polinomios en la indeterminada X con coeficientes en R) no es de dimension finita.

3. El conjunto de los polinomios en la indeterminada X de grado menor o igual que n con coeficientesen R, Pn, sı es un espacio vectorial de dimension finita.

Proposicion. 3.3.10 Si v es combinacion lineal de v1, . . . ,vk, entonces el conjunto {v,v1, . . . ,vk} eslinealmente dependiente.

Proposicion. 3.3.11 Si los vectores v1, . . . ,vk son linealmente dependientes, alguno de ellos es combi-nacion lineal de los restantes.

Proposicion. 3.3.12 Sean v1, . . . ,vk vectores linealmente independientes y sea v /∈ L(v1, . . . ,vk). En-tonces el conjunto {v1, . . . ,vk,v} es linealmente independiente.

Definicion. 3.3.13 Decimos que B = {u1, . . . ,ur} es una base de H, subespacio vectorial de V , si severifica:

1. H = L(u1, . . . ,ur), es decir, {u1, . . . ,ur} es un sistema de generadores de V .

2. {u1, . . . ,ur} son linealmente independientes.

Si H = {0}, acordamos que ∅ es una base de H = {0} (o bien que no tiene base).

Nota. 3.3.14 Las bases no son unicas.

Ejemplos. 3.3.15 1. {e1 = (1, . . . , 0), e2 = (0, 1, . . . , 0), . . . , en = (0, . . . , 1)} es una base de Rn.

2. {(

1 00 0

),

(0 10 0

),

(0 01 0

),

(0 00 1

)} es una base de V = M(2× 2;R).

3. {1, X, X2, X3} es una base de P3 = {p(X) ∈ R[X] | gr(p(X)) ≤ 3} y {1, X,X2, . . . , Xn} es unabase de Pn.

Teorema. 3.3.16 Todo espacio vectorial V 6= {0} de dimension finita tiene una base.

Corolario. 3.3.17 En un espacio vectorial de dimension finita, todo sistema de generadores contieneuna base del espacio.

Teorema. 3.3.18 En un espacio vectorial de dimension finita todas las bases tienen el mismo numerode elementos.

Definicion. 3.3.19 Sea V un espacio vectorial sobre K de dimension finita. Se llama dimension de V ,dim(V ), al numero de elementos de cualquier base de V . Si V = {0}, convenimos en que tiene dimensioncero.

Ejemplos. 3.3.20 1. dim(Rn) = n.

2. dim(M(2× 2;R)) = 4.

3. dim(P3) = 4, dim(Pn) = n + 1.

CAPITULO 3. ESPACIOS VECTORIALES Y APLICACIONES LINEALES 23

Proposicion. 3.3.21 Todo conjunto de vectores linealmente independientes se puede ampliar a una basedel espacio vectorial.

Notas. 3.3.22 1. Una base es un sistema generador lo mas pequeno posible.

2. Una base es un conjunto linealmente independiente lo mas grande posible.

Corolario. 3.3.23 Sea V un espacio vectorial de dimension finita con dim(V ) = n.

1. Todo conjunto de n vectores linealmente independiente es una base.

2. Todo conjunto con mas de n vectores es linealmente dependiente.

3. Todo sistema de generadores de V tiene al menos n elementos.

4. Todo sistema de generadores con n elementos es una base.

5. Todo subespacio de V es de dimension finita y tiene dimension menor o igual que n.

6. Toda base de un subespacio de V puede ampliarse a una base de V .

Teorema. 3.3.24 Si B = {u1, . . . ,un} es una base de V , entonces para cada v ∈ V existe un unico(α1, . . . , αn) ∈ Kn tal que:

v = α1 · u1 + · · ·+ αn · un

Este elemento de Kn se denomina sistema de coordenadas de v respecto de B y lo notaremos por:

(v)B = (α1, . . . , αn)

Nota. 3.3.25 Sea V un espacio vectorial, dim(V ) = n, y B = {u1, . . . ,un} una base de V .Es claro que 0B = (0, . . . , 0) ∈ Kn, y que ∀ α ∈ K, ∀u,v ∈ V es

(α · u)B = α · uB , (u + v)B = uB + vB

Proposicion. 3.3.26 Sea A = {u1, . . . ,up} ⊂ V . Entonces A es linealmente dependiente (linealmenteindependiente) en V si y solo si A′ = {(u1)B, . . . , (up)B} es linealmente dependiente (linealmente inde-pendiente) en Kn.

Dado que las bases no son unicas, un mismo vector tendra distintos sistemas de coordenadas respectode bases distintas. Esto nos sugiere el estudio del problema del cambio de base.

Proposicion. 3.3.27 (Cambio de base) Sea V un espacio vectorial de dimension finita con dim(V ) =n y sean B = {u1, . . . ,un}, B′ = {v1, . . . ,vn} dos bases de V . Supongamos conocidos

vj =n∑

i=1

aijvi, j = 1, . . . , n,

es decir, (v1)B = (a11, . . . , an1),. . . ,(vn)B = (a1n, . . . , ann). Entonces para todo x ∈ V se tiene que

(x)B = M(B′,B)(x)B′ =

a11 · · · a1n

... · · · ...an1 · · · ann

(x)B′

Nota. 3.3.28 EL determinante de la matriz de un cambio de base es distinto de cero porque sus columnasson las coordenadas de vectores que forman una base, luego en particular son linealmente independientes.Luego la matriz de un cambio de base es invertible y M(B′,B)−1 = M(B,B′).

CAPITULO 3. ESPACIOS VECTORIALES Y APLICACIONES LINEALES 24

3.4 Operaciones con subespacios vectoriales. Formula de la di-mension

Proposicion. 3.4.1 Sean V un espacio vectorial de dimension n sobre R y B = {u1, . . . ,un} una basede V . Sea {v1, . . . ,vp} ⊂ V y H = L(v1, . . . ,vp). Entonces existe un sistema de ecuaciones linealeshomogeneo S tal que para todo x ∈ V, x ∈ H si y solo si (x)B es solucion de S.

Definicion. 3.4.2 El sistema S obtenido en 3.4.1 se dice que es un sistema de ecuaciones implıcitas deH respecto de B.

Nota. 3.4.3 Un sistema de ecuaciones implıcitas de un subespacio vectorial (o variedad lineal de V ),H, depende de la base de V y del sistema de generadores de H elegidos.

Ya hemos probado que la interseccion de dos subespacios vectoriales o variedades lineales de V es sube-spacio vectorial de V (vease proposicion 3.2.4).

Nota. 3.4.4 La union de subespacios vectoriales no es necesariamente un subespacio vectorial.

Definicion. 3.4.5 Sean H1, H2 subespacios vectoriales de V . Definimos la suma de H1 con H2, H1+H2,como el subespacio vectorial generado por la union de H1 con H2, es decir,

H1 + H2 = L(H1 ∪H2).

Proposicion. 3.4.6 Sean H1, H2 subespacios vectoriales de V , entonces

H1 + H2 = {v ∈ V | v = v1 + v2, v1 ∈ H1, v2 ∈ H2}

Definicion. 3.4.7 Sean H, H1 y H2 subespacios vectoriales de V . Diremos que H es suma directa deH1 y H2, y se notara H = H1 ⊕H2, si se verifican las condiciones siguientes:

1. H = H1 + H2.

2. H1 ∩H2 = {0}.

Proposicion. 3.4.8 Sea H = H1 + H2. Las condiciones siguientes son equivalentes:

1. H = H1 ⊕H2

2. Para todo v ∈ H, existen v1 ∈ H1 y v2 ∈ H2 unicos tales que v = v1 + v2.

Teorema. 3.4.9 (Formula de la dimension) Sean H1 y H2 subespacios vectoriales de V . Se verifica:

dim(H1 + H2) + dim(H1 ∩H2) = dim(H1) + dim(H2)

3.5 Ejercicios

1.– Sea V un R–espacio vectorial de dimension 4 y B una base de V . Sean H1 y H2 las variedades linealesde V expresadas, respecto de la base B, como sigue:

H1 = L((1,−1, 2, 1), (0, 1,−1, 3), (2, 0, 1,−1))

H2 ={

2x1 − x2 − 3x3 = 0x1 − 2x2 + 6x3 − 6x4 = 0

Se pide:

1. Calcular la dimension y una base de H1, H2, H1 + H2 y H1 ∩H2.

2. Hallar un sistema de ecuaciones implıcitas independientes de H1, H1 + H2 y H1 ∩H2.

CAPITULO 3. ESPACIOS VECTORIALES Y APLICACIONES LINEALES 25

2.– Sea V un R–espacio vectorial de dimension 4 y B una base de V . Sea H1 la variedad lineal de Vexpresada, respecto de la base B, como sigue:

H1 ={

x1 + x2 − x3 = 0x1 + x2 + x3 + x4 = 0

Se pide:

1. Hallar la dimension y una base C de la variedad H1. Completar C a una base de V .

2. Hallar un sistema de ecuaciones implıcitas independientes de una variedad H2 complementaria deH1.

3.– Sea V un espacio vectorial de dimension finita y sea H una variedad lineal de V . Probar que existeuna variedad lineal W de V tal que V = H ⊕W . (Una tal variedad W se denomina complementariade H). ¿Es unica la variedad W?.

3.6 Aplicaciones lineales entre espacios vectoriales

Sean V y W son espacios vectoriales sobre un mismo cuerpo K.

Definicion. 3.6.1 Una aplicacion f : V −→ W diremos que es lineal si para todo v, w ∈ V y todoλ ∈ K se tiene que:

1. f(v + w) = f(v) + f(w).

2. f(λ · v) = λ · f(v).

Ejemplos. 3.6.2 1. La aplicacion f0 : V −→ W , definida por f0(v) = 0 ∀v ∈ V , es lineal.

2. La aplicacion identidad de V en V , idV : V −→ V , definida por idV (v) = v ∀v ∈ V , es lineal.

3. Si dim(V ) = n y B es una base de V , la aplicacion f : V −→ Kn, definida por f(v) = (v)B, eslineal (ver 3.3.25).

4. Dado a ∈ R, la aplicacion f : R[X] → R definida por f(p(X)) = p(a), es lineal.

5. La aplicacion f : R[X] → R[X], definida por f(p(X)) = p′(X), es lineal.

6. La aplicacion f : M(n× n;R) → R definida por f(A) = det(A), no es lineal.

Definicion. 3.6.3 1. Hom(V, W ) = {f : f aplicacion lineal de V en W}. Si f ∈ Hom(V, W ),diremos que f es un homomorfismo de V en W .

2. End(V ) = {f : f aplicacion lineal de V en V }. Si f ∈ End(V ), diremos que f es un endomorfismode V .

3. f : V −→ W es un isomorfismo, f : V ∼= W , si

(3.1) f es lineal.

(3.2) f es biyectiva.

4. Si existe un isomorfismo de V en W , escribiremos V ∼= W .

5. Un automorfismo de V es un isomorfismo de V en V .

Proposicion. 3.6.4 Sea f ∈ Hom(V, W ). Se verifican las siguientes propiedades:

1. f(0) = 0.

2. f(−v) = −f(v).

CAPITULO 3. ESPACIOS VECTORIALES Y APLICACIONES LINEALES 26

3. f(v −w) = f(v)− f(w).

4. f(n∑

i=1

λivi) =n∑

i=1

λif(vi).

Definicion. 3.6.5 Sea f ∈ Hom(V, W ). Definimos

1. Img(f) = {f(v) | v ∈ V } ⊆ W ; este conjunto se llama imagen de f .

2. Ker(f) = {v ∈ V | f(v) = 0} ⊂ V ; este conjunto se llama nucleo de f .

3. Si A ⊂ V, f(A) = {f(v) | v ∈ A}. Este conjunto se llama imagen de A. Observese queImg(f) = f(V ).

4. Si B ⊂ W, f−1(B) = {v ∈ V | f(v) ∈ B}. Este conjunto se llama imagen recıproca de B yno debe confundirse con la aplicacion f−1, que solo existe cuando f es biyectiva. Observese queKer(f) = f−1({0})

Proposicion. 3.6.6 Sea f ∈ Hom(V, W ), la imagen mediante f de cualquier subespacio vectorial de Ves un subespacio vectorial de W .

Corolario. 3.6.7 Sea f ∈ Hom(V, W ), Img(f) es un subespacio vectorial de W .

Proposicion. 3.6.8 Sea f ∈ Hom(V,W ), la imagen inversa o recıproca de cualquier subespacio vectorialde W es un subespacio vectorial de V .

Corolario. 3.6.9 Sea f ∈ Hom(V, W ), Ker(f) es un subespacio vectorial de V .

Proposicion. 3.6.10 Sea f ∈ Hom(V,W ).

1. f inyectiva ⇔Ker(f) = {0}.2. Si v1, . . . ,vr son linealmente dependientes, entonces f(v1), . . . , f(vr) son linealmente dependientes.

3. Si f : V ∼= W es un isomorfismo, entonces f−1 : W ∼= V es un isomorfismo.

Proposicion. 3.6.11 Sean V , W y V ′ espacios vectoriales sobre un mismo K. Si f ∈ Hom(V, W ),g ∈ Hom(W,V ′), entonces g ◦ f ∈ Hom(V, V ′).

Teorema. 3.6.12 Sea f ∈ Hom(V, W ). Entonces

dim(V ) = dim(Img(f)) + dim(Ker(f))

Corolario. 3.6.13 Si f : V ∼= W , entonces dim(V ) = dim(W ).

Corolario. 3.6.14 Sea f ∈ Hom(V,W ). Si dim(V ) = dim(W ), las condiciones siguientes son equiva-lentes:

1. f es inyectiva.

2. f es suprayectiva.

3. f es biyectiva. Esto es, f es un isomorfismo.

Teorema. 3.6.15 Sean B = {u1, . . . ,un} una base de V y v1, . . . ,vn ∈ W . Existe un unico f ∈Hom(V, W ) tal que f(ui) = vi, 1 ≤ i ≤ n. Esto equivale a afirmar que una aplicacion lineal estadeterminada de manera unica por las imagenes de los vectores de una base.

Corolario. 3.6.16 Son equivalentes:

1. dim(V ) = dim(W ).

2. V ∼= W .

CAPITULO 3. ESPACIOS VECTORIALES Y APLICACIONES LINEALES 27

3.6.1 Representacion matricial de una aplicacion lineal

Proposicion. 3.6.17 Sean V y W espacios vectoriales sobre K = R, B = {u1, . . . ,un} base de V , yB′ = {u′1, . . . ,u′m} base de W . Sea f ∈ Hom(V,W ) con

f(uj) =m∑

i=1

aij · u′i, 1 ≤ j ≤ n y MB,B′(f) = (f(u1))B′ · · · f(un)B′) =

a11 · · · a1n

......

am1 amn

Sean v ∈ V , v′ ∈ W , vB = (x1, . . . , xn) y v′B′ = (x′1, . . . , x′m). Se tiene que:

f(v) = v′ ⇔ (x′1, . . . , x′m)t = MB,B′(f) · (x1, . . . , xn)t.

Definicion. 3.6.18 La matriz MB,B′(f) obtenida en 3.6.17 se denomina matriz de f respecto de lasbases B y B′. La ecuacion

(x′1, . . . , x′m)t = MB,B′(f) · (x1, . . . , xn)t

se denomina ecuacion de f respecto de las bases B y B′.

Notas. 3.6.19 Sea f ∈ Hom(V, W ).

1. v ∈ Ker(f)⇔MB,B′(f)(x1, . . . , xn)t = (0, . . . , 0)t. Esta ecuacion matricial es un sistema de ecua-ciones implicitas de Ker(f).

2. Img(f) = L(f(u1), . . . , f(un)). De aquı se obtienen facilmente las ecuaciones parametricas deImg(f).

Corolario. 3.6.20 f es un isomorfismo si y solo si |MB,B′(f)| 6= 0.

Proposicion. 3.6.21 Sean V , W y V ′ espacios vectoriales sobre K = R, de dimensiones n,m y p, respec-tivamente, B, B′ y B′′ bases respectivas en cada uno de ellos y sean f ∈ Hom(V,W ) y g ∈ Hom(W,V ′).Se tiene:

MB,B′′(g ◦ f) = MB′,B′′(g) ·MB,B′(f).

3.6.2 Cambio de base en una aplicacion lineal

Proposicion. 3.6.22 Sean B y B1 bases de V , B′ y B′1 bases de W . Se tiene que:

1. Si f ∈ Hom(V, W ),MB1,B′1(f) = M(B′1,B′)−1 ·MB,B′(f) ·M(B1,B)

2. Si f ∈ End(V ),

MB1,B1(f) = M(B1,B)−1 ·MB,B(f) ·M(B1,B)

Capıtulo 4

Valores y vectores propios. Matricesdiagonalizables. Formas canonicas.

Proposicion. 4.0.23 Sea V un espacio vectorial sobre K de dimension n y B una base de V . Laaplicacion

ΦB : End(V ) →M(n× n,K)

definida por ΦB(f) = MB(f) , es un isomorfismo de espacios vectoriales.

Definicion. 4.0.24 1. Grupo Lineal de V :

Gl(V ) = {f | fes un automorfismo de V }.

2. Grupo Lineal de las matrices de orden n sobre K :

Gl(n,K) = {A ∈M(n× n;K) | |A| 6= 0}.Definicion. 4.0.25 Sean A,B ∈M(n× n;K). Diremos que A y B son semejantes, A ∼ B, si

∃P ∈ Gl(n,K) | A = P ·B · P−1

Proposicion. 4.0.26 La relacion de semejanza, ∼, es una relacion de equivalencia en M(n× n,K).

Definicion. 4.0.27 Una matriz A = (aij) ∈M(n× n;R) se dice diagonal si aij = 0 para todo i 6= j.

Objetivos: Queremos encontrar procedimientos para resolver las siguientes cuestiones:

1. Dada A ∈M(n× n,K) encontrar B ∈M(n× n,K) tal que:

(1.1) A ∼ B.(1.2) B sea diagonal o bien, de la forma “mas sencilla” posible.

2. Dado f ∈ End(V ), encontrar una base B de V tal que MB(f) sea diagonal o bien, de la forma “massencilla” posible.

Proposicion. 4.0.28 Sea V un espacio vectorial de dimension n sobre K. Sean A, A′ ∈ M(n × n,K).Son equivalentes:

1. A ∼ A′.

2. Existe f ∈ End(V ) y B, B′ bases de V tales que MB(f) = A y MB′(f) = A′.

En virtud de esta proposicion el problema: “dada una matriz A ∈ M(n × n, K), encontrar una A′

semejante a A con la forma mas sencilla posible”, equivale al problema: “dado un endomorfismo f de Vde matriz A respecto de una base B de V , encontrar otra base B′ en la cual la matriz de f sea lo massencilla posible”.

28

CAPITULO 4. VALORES Y VECTORES PROPIOS. MATRICES DIAGONALIZABLES. FORMAS CANONICAS.29

4.1 Autovalores y Autovectores

Definicion. 4.1.1 Un autovector de una matriz cuadrada de orden n, A, es un vector no nulo x (deRn), tal que Ax = λx para algun escalar λ. Un escalar λ se llama autovalor de A, si existe una solucionno trivial, x, de la ecuacion Ax = λx; a un tal x se le llama autovector asociado a λ.

Notas. 4.1.2 1. En el caso de que A sea una matriz triangular, es facil probar que sus autovaloresson los elementos de la diagonal principal.

2. Si una matriz A tiene por autovalor a 0, significa que la ecuacion Ax = 0 tiene una solucion notrivial y recıprocamente. Esto nos permite ampliar el teorema de la matriz invertible con el siguienteenunciado:

Una matriz cuadrada A es invertible si y solo si el 0 no es un autovalor de A.

Proposicion. 4.1.3 Sea A una matriz cuadrada de orden n. Son equivalentes:

1. λ es un autovalor de A.

2. La ecuacion matricial (A− λ · I)x = 0 tiene una solucion no trivial.

3. λ satisface la ecuacion |A− λ · I| = 0.

Definicion. 4.1.4 La ecuacion |A− λ · I| = 0 se denomina ecuacion caracterıstica de A. Ademas, si Aes una matriz cuadrada de orden n, entonces |A − λ · I| es un polinomio en λ de grado n denominadopolinomio caracterıstico de A.

Teorema. 4.1.5 Sean A,B ∈ M(n × n, K). Si A ∼ B, entonces A y B tienen el mismo polinomiocaracterıstico y, por lo tanto, los mismos autovalores.

Nota. 4.1.6 La semejanza de matrices no es lo mismo que la equivalencia de matrices por filas. Lasoperaciones elementales de fila pueden alterar sus autovalores.

Teorema. 4.1.7 (Cayley-Hamilton) Toda matriz A ∈ M(n × n,K) es solucion de su ecuacion car-acterıstica.

Nota. 4.1.8 A partir de ahora consideramos V un espacio vectorial sobre K de dimension n y f ∈End(V ).

Definicion. 4.1.9 Sea v ∈ V con v 6= 0. Diremos que v es un autovector de f si existe un escalarλ ∈ K tal que f(v) = λ · v.

Proposicion. 4.1.10 Sean B una base de V y A = MB(f). Son equivalentes:

1. v 6= 0 es un autovector de f .

2. Existe λ ∈ K tal que vB es solucion del sistema (A− λ · I)x = 0.

3. |A− λ · I| = 0.

Definicion. 4.1.11 El polinomio |A − λ · I| se denomina polinomio caracterıstico de f respecto de labase B. La ecuacion |A− λ · I| = 0 se denomina ecuacion caracterıstica de f respecto de la base B.

Teorema. 4.1.12 El polinomio caracterıstico de f no depende de la base elegida.

Definicion. 4.1.13 Las soluciones de la ecuacion caracterıstica de f se denominan autovalores de f .

CAPITULO 4. VALORES Y VECTORES PROPIOS. MATRICES DIAGONALIZABLES. FORMAS CANONICAS.30

4.2 Matrices y Endomorfismos diagonalizables

Definicion. 4.2.1

• Decimos que una matriz cuadrada A de orden n es diagonalizable si es semejante a una matrizdiagonal.

• Sea f ∈ End(V ). Decimos que f es diagonalizable si existe una base B de V tal que MB(f) esdiagonal.

Teorema. 4.2.2 Son equivalentes:

1. A es diagonalizable (resp. f es diagonalizable).

2. A posee n autovectores linealmente independientes (resp. V posee una base formada por autovectoresde f).

Ademas, si A es diagonalizable, los elementos de la diagonal de su forma diagonal D son los autovaloresde A y los autovectores asociados son las columnas de P , si D = P−1AP .

Proposicion. 4.2.3 Si v1, . . . ,vr son autovectores que corresponden a autovalores distintos de una ma-triz cuadrada A (resp. a un endomorfismo f), entonces v1, . . . ,vr son linealmente independientes.

A continuacion damos una condicion suficiente para que una matriz (resp. un endomorfismo) sea diago-nalizable.

Teorema. 4.2.4 Si A (resp. f) posee n autovalores distintos en K, entonces A (resp. f) es diagonali-zable.

4.3 Subespacios invariantes

Proposicion. 4.3.1 El conjunto de todos los autovectores asociados a un autovalor α (incluyendo elvector 0) forman un subespacio vectorial de Kn, que se llama subespacio invariante o subespacio propioasociado a α, y lo representaremos por Vα.

Nota. 4.3.2 La proposicion anterior tambien es valida si sustituimos la matriz A por un endomorfismof de V , obteniendose Vα subespacio vectorial de V .

Definicion. 4.3.3 Sea α un autovalor de A. Si el polinomio caracterıstico de A es

|A− λI| = (λ− α)m ·Q(λ) con Q(α) 6= 0

se dice que el numero m es la multiplicidad del autovalor α.

Teorema. 4.3.4 Si α es un autovalor de A (resp. de f) y Vα es el subespacio vectorial asociado alautovalor α, se verifica: dim(Vα) ≤ multiplicidad de α.

Veamos ahora una condicion necesaria y suficiente para que una matriz A (resp. un endomorfismo f) seadiagonalizable.

Teorema. 4.3.5 Sean α1, α2, . . . , αp los autovalores de A (rep. de f), distintos entre si, y supongamosque cada αj tiene multiplicidad mj, con m1 + · · ·+ mp = n. Entonces son equivalentes:

1. A es diagonalizable (resp. f es diagonalizable).

2. dim(Vαj ) = mj ∀j = 1, . . . , p.

CAPITULO 4. VALORES Y VECTORES PROPIOS. MATRICES DIAGONALIZABLES. FORMAS CANONICAS.31

4.4 Aplicaciones de la diagonalizacion al calculo de la exponen-cial de matrices y a la resolucion de sistemas de ecuacionesdiferenciales lineales de orden 1 con coeficientes constantes

4.4.1 Exponencial de matrices

Dada una matriz cuadrada A de tamano d× d, la exponencial de A se define de la siguiente forma:

eA =+∞∑n=0

1n!

An. (4.1)

La convergencia de la serie anterior debe ser entendida como la convergencia de cada una de las seriesnumericas correspondientes a cada posicion (i, j) de las matrices, 1 ≤ i, j ≤ d. Admitimos sin pruebadicha convergencia, aunque puede ser demostrada facilmente.

La exponencial de A es de nuevo una matriz cuadrada del mismo tamano.Notemos que si A y B son dos matrices cuadradas del mismo orden que conmuten, i.e. AB = BA,

entonces eA+B = eAeB = eBeA. Como e0 = I, deducimos que eA es siempre una matriz invertible y quesu inversa es e−A.

En lo que sigue vamos a centrarnos por simplicidad en el caso de las matrices cuadradas 2× 2.

Caso de las matrices diagonalizables

Si la matriz A es diagonalizable, entonces por definicion existe una matriz invertible P tal que

P−1AP =(

λ 00 µ

).

En tal caso comprobamos facilmente que

An = P

(λ 00 µ

)n

P−1 = P

(λn 00 µn

)P−1

para todo valor n ≥ 0. Como consecuencia tenemos que

eA =+∞∑n=0

1n!

An =+∞∑n=0

1n!

P

(λn 00 µn

)P−1 = P

(+∞∑n=0

1n!

(λn 00 µn

))P−1 = P

(eλ 00 eµ

)P−1,

lo que nos proporciona un metodo para calcular explıcitamente la exponencial de una matriz, al menosen el caso en que esta es diagonalizable.

Caso general

Consideremos primeramente el caso de la matriz:

J =(

λ 0a λ

)=

(λ 00 λ

)+

(0 0a 0

). (4.2)

que es no diagonalizable si a 6= 0.

El primero de los sumandos anteriores es la matriz λI. Notemos por N al segundo sumando. Obvi-amente ambas matrices conmutan: (λI)N = λN = N(λI). Tambien comprobamos inmediatamente queN2 = 0, de donde deducimos que Jn = (λI +N)n = (λI)n +n(λI)n−1N para todo valor n ≥ 0. Ası pues,

eJ =+∞∑n=0

1n!

[(λn 00 λn

)+

(0 0

naλn−1 0

)]=

(eλ 0aeλ eλ

). (4.3)

CAPITULO 4. VALORES Y VECTORES PROPIOS. MATRICES DIAGONALIZABLES. FORMAS CANONICAS.32

Si A =(

a11 a12

a21 a22

)es una matriz 2× 2 no diagonalizable, siempre podemos encontrar una matriz

invertible P tal que J = P−1AP , donde J es de la forma (4.2) (“forma de Jordan”). A partir de esto yusando (4.3) podemos calcular la exponencial eA.

Veamos como calcular la matriz P . En primer lugar A debe tener un unico autovalor λ (si A tuvierados autovalores distintos, entonces A serıa diagonalizable). Por tanto el polinomio caracterıstico de A es(X − λ)2:

|XI −A| = X2 − (a11 + a22)X + (a11a22 − a12a21) = (X − λ)2.

Teorema de Cayley-Hamilton: Si sustituimos la variable X por la matriz A en su polinomio caracterısticonos da la matriz nula.

Para ello basta comprobar que:

A2 − (a11 + a22)A + (a11a22 − a12a21)I = · · · = 0.

Por tanto en nuestro caso tenemos (A− λI)2 = 0.

Como A no es diagonalizable, el espacio de los autovectores de A para el autovalor λ ha de tenerdimension 1.

Notemos f = (a, b) una base del espacio de los autovectores de A para el autovalor λ, que lo calcu-laremos resolviendo el sistema:

(A− λI)x = 0.

Se tiene puesAf = λf .

Sea e = (c, d) cualquier vector de R2 tal que {e, f} sea una base de R2. Como

0 = (A− λI)2e = (A− λI) [(A− λI)e] ,

se tiene que (A− λI)e es un autovector de A para el autovalor λ, de donde podemos calcular un escalara′ ∈ R tal que

(A− λI)e = a′f .

Por tanto tenemosAe = λe + a′f , Af = λf ,

o lo que es lo mismo:

A

(c ad b

)=

(c ad b

) (λ 0a′ λ

),

de donde P−1AP = J con

P =(

c ad b

), J =

(λ 0a′ λ

).

Notemos que como estamos suponiendo que A no es diagonalizable, a′ ha de ser distinto de cero. Tomando

pues (a′)−1e en lugar de e conseguimos que la forma J sea(

λ 01 λ

).

4.4.2 Resolucion de sistemas de ecuaciones diferenciales lineales de orden 1con coeficientes constantes

Consideremos una matriz constante A =(

a11 a12

a21 a22

). Tratamos de encontrar unas funciones derivables

y1 e y2 de una variable tales que:

y′1(x) = a11y1(x) + a12y2(x)y′2(x) = a21y1(x) + a22y2(x).

CAPITULO 4. VALORES Y VECTORES PROPIOS. MATRICES DIAGONALIZABLES. FORMAS CANONICAS.33

Normalmente nos interesa fijar unas “condiciones iniciales”

y1(0) = c1, y2(0) = c2.

Si notamos Y (x) =(

y1(x)y2(x)

), el sistema anterior se puede expresar como

Y ′(x) = AY (x), Y (0) = c =(

c1

c2

). (4.4)

Consideremos la matriz Φ(x) = eAx. Se comprueba facilmente a partir de (4.1) que Φ′(x) = AΦ(x).Como Φ(0) = I, comprobamos facilmente que

Y (x) = Φ(x)c

es solucion1 del sistema (4.4).En la practica, para calcular eAx encontramos una forma J diagonal o de Jordan (4.2) de A y una

matriz invertible P tales que P−1AP = J y obtenemos:

eAx = PeJxP−1,

donde eJx puede calcularse explıcitamente tal como se ha explicado en las secciones anteriores:

Si J =(

λ 00 µ

), entonces

eJx =(

eλx 00 eµx

),

y si J =(

λ 01 λ

)entonces

eJx =(

eλx 0aeλx xeλx

).

1Es posible demostrar que es la unica solucion.