Álgebra multilineal

131
Apuntes de ´ Algebra III Versi´ on Corregida Dr. Carlos Lizama Universidad de Santiago de Chile Facultad de Ciencias Departamento de Matem´atica y C.C.

Upload: sergioandres5601

Post on 26-Jun-2015

940 views

Category:

Documents


23 download

TRANSCRIPT

Page 1: Álgebra Multilineal

Apuntes de Algebra III

Version Corregida

Dr. Carlos Lizama

Universidad de Santiago de Chile

Facultad de Ciencias

Departamento de Matematica y C.C.

Page 2: Álgebra Multilineal

Introduccion

El presente texto de apuntes de Algebra III (o Algebra Lineal II) tiene

el objetivo de servir de apoyo y guıa de estudios para el estudiante de las

carreras de Licenciatura en Matematica y Computacion y Licenciatura en

Matematica de la Universidad de Santiago de Chile. El contenido esta basa-

do en el respectivo programa de estudios, que constituye la continuacion de

la clasica asignatura de Algebra Lineal, y fue desarrollado mientras el autor

impartio el curso durante el primer y segundo sementre del ano 2000. Ver-

siones corregidas y mejoradas han sido utilizadas desde entonces tanto por

el autor como otros academicos de la USACH para dictar esta asignatura.

La presente version, recoge las sugerencias dadas por los profesores que

han impartido esta catedra. Se espera que el texto siga siendo perfeccionado

durante el transcurso de los periodos lectivos siguientes, y desde ya el autor

agradece a quienes deseen hacer sugerencias y aportes para este fin.

El texto consta de tres capıtulos, divididos en secciones. El primer

capıtulo esta orientado a dar al lector el material basico concerniente a espa-

cios vectoriales con producto interno. La mayorıa de este capıtulo, ası como

la primera parte del segundo, son materia conocida del curso de Algebra Li -

neal y como tal debe ser abordado por el profesor de catedra a fin de conciliar

lo aprendido por el estudiante con los nuevos conceptos. En este sentido, el

presente texto de apuntes no es autocontenido y requiere del manejo preciso

que de el pueda hacer el catedratico a cargo del curso.

El concepto mas importante del primer capıtulo es el Teorema de re -

presentacion de Riesz (Teorema 10). Es muy necesario aquı, como en va -

rios resultados posteriores, remarcar que estos son validos en dimension no

2

Page 3: Álgebra Multilineal

necesariamente finita, de manera de preparar y orientar al estudiante a un

curso superior (Analisis Funcional, Analisis Armonico, Analisis Numerico,

Ecuaciones Diferenciales) y justificar ası, debidamente, el analisis de una

variedad de conceptos que en principio pueden parecer meramente abstrac-

cion matematica.

Varios resultados del primer capıtulo son claramente ejercitables de ma -

nera facil y entretenida. Por ejemplo, el valor del determinante se explaya a

traves de la definicion de angulos, volumenes y finalmente como una elegante

forma de definir el producto cruz de vectores en dimension tres.

El capıtulo II, que es la parte central de estos apuntes, esta dedicado a

un estudio exhaustivo de trasformaciones lineales, o matrices en el caso de

dimension finita. El concepto principal, en el contexto de espacios vectoriales

normados, es el de transformacion lineal acotada. A este universo de opera -

dores se analizan sus partes: Transformacion lineal autoadjunta, Normales,

Antisimetricas, Proyecciones e Isometrıas. La herramienta principal es el

concepto de adjunto de un operador. Asimismo se estudia un isomorfismo

fundamental: la correspondencia lineal y biyectiva entre transformaciones

lineales y bilineales a traves de una transformacion canonica, definida en la

seccion 2.2.3 y que es fundamental en el estudio de formas cuadraticas en la

ultima seccion del capıtulo.

Tambien, para una mayor y mejor comprension del capıtulo II, es fun-

damental aprender las formas canonicas que adquieren, bajo un cambio de

base apropiado, los diferentes tipos de transformaciones lineales en el caso de

dimension finita. El Teorema 49 del capıtulo II en este sentido es uno de los

principales de este texto. La elegante demostracion basada en aspectos tanto

algebraicos como analıticos corresponde al libro de W. H. Greub citado en

3

Page 4: Álgebra Multilineal

la bibliografıa. Por otra parte, las formas canonicas de los diferentes tipos

de transformaciones lineales son facilmente asimilables por medio de la com-

paracion con el cuerpo de los numeros complejos. Ası, si z ∈ C representa

una transformacion lineal y z, el conjugado de z, la transformacion adjunta,

entonces una transformacion lineal autoadjunta significa z = z y, luego, se

podrıa representar como los elementos del eje real del plano complejo.

Una funcion (o forma) cuadratica ψ se puede tambien entender muy

facilmente viendo su representacion geometrica en R2 y R3. Ası, por ejemplo,

la ecuacion :

ψ(x, y) = 1

representa una elipse (o cırculo) o hiperbola en el plano. De esta manera,

la signatura resulta ser un invariante geometrico y, el proceso de diagona -

lizacion, un metodo de llevar formas cuadraticas en formas estandar.

Finalmente, el capıtulo III cierra estos apuntes mostrando que cualquier

forma multilineal puede ser considerada como una transformacion lineal, me-

diante un isomorfismo apropiado. Para este fin, resulta fundamental el con-

cepto de producto tensorial de espacios vectoriales, que en este texto solo se

aborda en su definicion y analisis de propiedades basicas.

Dr. Carlos Lizama

Noviembre de 2000

4

Page 5: Álgebra Multilineal

Prologo a la version corregida

Esta version introduce varias modificaciones al texto que han sido su -

geridas al autor, por profesores de la catedra, en el transcurso de dos anos

de dictar la asignatura a traves de estos apuntes .

El cambio mas importante se refiere a la introduccion de una gran canti-

dad de ejercicios propuestos en los capıtulos 1, 2 y 3. La mayorıa de estos ejer-

cicios corresponde a problemas planteados en pruebas y controles de catedra.

Tambien se agrega al final del tercer capıtulo una seccion correspondiente

a la nocion de producto exterior, a fin de completar las ideas involucradas

en los capıtulos precedentes y dar las herramientas necesarias para un curso

posterior donde se requiera utilizar formas diferenciales.

Mis agradecimientos a Veronica Poblete por sugerir varios de los cambios

realizados en el texto y aportar con una gran cantidad de ejercicios. Tambien

mis agradecimientos a Maricel Caceres que escribio estos apuntes en Latex

y les dio un formato mas agradable para su lectura.

Dr. Carlos Lizama

Octubre de 2002

5

Page 6: Álgebra Multilineal

Indice General

1 Espacios con producto interno 8

1.1 El producto interno . . . . . . . . . . . . . . . . . . . . . . . . 8

1.1.1 Espacios Duales . . . . . . . . . . . . . . . . . . . . . . 14

1.2 Bases Ortonormales . . . . . . . . . . . . . . . . . . . . . . . . 17

1.2.1 Transformaciones Ortogonales . . . . . . . . . . . . . . 20

1.3 Funcion Determinante . . . . . . . . . . . . . . . . . . . . . . 23

1.3.1 Funciones Determinantes Duales . . . . . . . . . . . . . 26

1.3.2 Funciones Determinantes Normadas . . . . . . . . . . 29

1.3.3 Angulos en el plano orientado . . . . . . . . . . . . . . 30

1.3.4 El determinante de Gram . . . . . . . . . . . . . . . . 31

1.3.5 El volumen de un paralelepıpedo . . . . . . . . . . . . 33

1.3.6 Producto cruz . . . . . . . . . . . . . . . . . . . . . . . 34

1.4 Ejercicios de recapitulacion . . . . . . . . . . . . . . . . . . . . 40

2 Transformaciones lineales 46

2.1 Espacios vectoriales normados . . . . . . . . . . . . . . . . . . 46

2.1.1 Transformaciones lineales acotadas . . . . . . . . . . . 47

2.2 Transformaciones lineales en espacios con producto interno . . 50

2.2.1 Transformacion adjunta . . . . . . . . . . . . . . . . . 50

2.2.2 Transformacion lineal adjunta . . . . . . . . . . . . . . 51

6

Page 7: Álgebra Multilineal

7

2.2.3 La relacion entre transformaciones lineales y funciones

bilineales . . . . . . . . . . . . . . . . . . . . . . . . . . 52

2.2.4 Transformaciones normales . . . . . . . . . . . . . . . . 54

2.2.5 Transformaciones autoadjuntas . . . . . . . . . . . . . 55

2.2.6 Vectores propios de funciones bilineales . . . . . . . . . 60

2.2.7 Proyecciones ortogonales . . . . . . . . . . . . . . . . . 61

2.2.8 Suma de dos proyecciones . . . . . . . . . . . . . . . . 63

2.3 Isometrıas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68

2.3.1 Comparacion con matrices . . . . . . . . . . . . . . . . 71

2.3.2 Aspectos geometricos . . . . . . . . . . . . . . . . . . . 73

2.3.3 Transformaciones antisimetricas . . . . . . . . . . . . . 80

2.3.4 Forma matricial (o canonica) de una transformacion

antisimetrica . . . . . . . . . . . . . . . . . . . . . . . 82

2.3.5 Funciones bilineales simetricas . . . . . . . . . . . . . . 86

2.3.6 El caso de dimension finita; forma diagonal de una fun-

cion cuadratica . . . . . . . . . . . . . . . . . . . . . . 91

2.4 Ejercicios de Recapitulacion . . . . . . . . . . . . . . . . . . . 99

3 Producto tensorial 106

3.1 Transformaciones multilineales . . . . . . . . . . . . . . . . . . 106

3.1.1 Propiedades del producto tensorial . . . . . . . . . . . 112

3.1.2 Producto tensorial de transformaciones lineales . . . . 121

3.1.3 Transformaciones Multilineales . . . . . . . . . . . . . 122

3.1.4 Producto Exterior . . . . . . . . . . . . . . . . . . . . . 127

Page 8: Álgebra Multilineal

Capıtulo 1

Espacios con producto interno

1.1 El producto interno

Definicion 1 Sean E y F espacios vectoriales. Una funcion φ : E×F −→ Rse dice bilineal si:

φ(λx1 + µx2, y) = λφ(x1, y) + µφ(x2, y) ; x1, x2 ∈ E ; y ∈ F

y

φ(x, λy1 + µy2) = λφ(x, y1) + µφ(x, y2) ; x ∈ E ; y1, y2 ∈ F.

Definicion 2 Un producto interno en un espacio vectorial E es una funcion

bilineal 〈, 〉 que tiene las siguientes propiedades :

(i) Simetrıa : 〈x, y〉 = 〈y, x〉.(ii) Positiva definida : 〈x, x〉 ≥ 0 y 〈x, x〉 = 0 solo para x = 0.

Un espacio vectorial en el cual se define un producto interno (p.i.) se llama

un espacio producto interno (e.p.i.).

Un espacio producto interno de dimension finita se llama Espacio Euclidiano.

8

Page 9: Álgebra Multilineal

1.1. EL PRODUCTO INTERNO 9

La norma ‖x‖ de un vector x ∈ E se define como :

‖x‖ =√〈x, x〉.

Un vector unitario es un vector con norma 1. El conjunto de todos los

vectores unitarios es llamado la esfera unitaria. Se sigue de la bilinealidad

del producto interno que :

‖x + y‖2 = ‖x‖2 + 2〈x, y〉+ ‖y‖2

de donde

〈x, y〉 =1

2(‖x + y‖2 − ‖x‖2 − ‖y‖2).

Esta ecuacion muestra que el producto interno puede ser expresado en terminos

de la norma. La restriccion de la funcion bilineal 〈, 〉 a un subespacio E1 ⊆ E

tiene otra vez las propiedades (i) y (ii) y, luego, cada subespacio de un e.p.i.

es en si mismo un e.p.i.

Ejemplo :Rn es un e.p.i. con 〈x, y〉 =∑

i

xiyi, donde x = (x1, . . . , xn);

y = (y1, . . . , yn).

Definicion 3 Dos vectores x ∈ E, y ∈ E; x 6= y se dicen ortogonales si

〈x, y〉 = 0.

Observacion : Solo el vector cero es ortogonal a si mismo : En efecto,

〈x, x〉 = 0 si y solo si x = 0.

Proposicion 4 Un conjunto de n vectores xj 6= 0 en donde cualesquiera dos

vectores xi y xj (i 6= j) son ortogonales, es linealmente independiente.

Demostracion. Si∑

i αixi = 0 entonces αj〈xj, xj〉 = 0 para j = 1, 2, . . . , n.

Luego αj = 0 para j = 1, 2, . . . , n.

Page 10: Álgebra Multilineal

10 CAPITULO 1. ESPACIOS CON PRODUCTO INTERNO

Dos subespacios E1 ⊆ E y E2 ⊆ E se llaman ortogonales, lo cual se denota

E1⊥E2, si cualesquiera dos vectores x1 ∈ E1 y x2 ∈ E2 son ortogonales.

Teorema 5 (Desigualdad de Schwarz) Sean x, y ∈ E. Entonces

〈x, y〉2 ≤ ‖x‖2‖y‖2.

Ademas, la igualdad vale si y solo si los vectores son linealmente dependien-

tes.

Demostracion. Consideremos la funcion f(λ) = ‖x + λy‖2 ; λ ∈ R. Como

el p.i. es positivo definido se tiene que f(λ) ≥ 0 para λ ∈ R. Por otra parte,

f(λ) = λ2‖y‖2 + 2λ〈x, y〉+ ‖x‖2 ≥ 0

de donde se deduce que el discriminante de la expresion cuadratica anterior

es ≤ 0. Luego, 〈x, y〉2 ≤ ‖y‖2‖x‖2. Ahora supongamos que vale 〈x, y〉2 =

‖y‖2‖x‖2. Entonces el discriminante de la ecuacion

f(λ) = λ2‖y‖2 + 2λ〈x, y〉+ ‖x‖2 = 0 (1.1)

es cero; luego, la ecuacion (1.1) tiene una solucion real λ0(=−〈x,y〉‖y‖2 ); esto es :

f(λ0) = ‖x + λ0y‖2 = 0. Por lo tanto, x + λ0y = 0, es decir, x e y son L.D.

Recıprocamente, si x e y son L.D. entonces x = αy. Luego, 〈x, y〉 = α〈y, y〉 =

α‖y‖2 y ‖x‖2‖y‖2 = α2‖y‖2 obteniendose la igualdad.

Dados x 6= 0, y 6= 0; por la desigualdad de Schwarz :

−1 ≤ 〈x, y〉‖x‖ ‖y‖ ≤ 1

entonces, existe ω; 0 ≤ ω ≤ π tal que cos ω =〈x, y〉‖x‖ ‖y‖ .

Definicion 6 El numero ω se llama el angulo entre los vectores x e y.

Page 11: Álgebra Multilineal

1.1. EL PRODUCTO INTERNO 11

Observaciones:

1) Si x e y son ortogonales, entonces cos ω = 0 luego ω =π

2.

2) Supongamos que x e y son L.D. Entonces, y = λx. Luego :

cos ω =λ

|λ| =

1, si λ > 0

−1, si λ < 0

Por lo tanto,

ω =

0, si λ > 0

π, si λ < 0.

3) Ya que cos ω =〈x, y〉‖x‖ ‖y‖ entonces, de la formula

‖x− y‖2 = ‖x‖2 − 2〈x, y〉+ ‖y‖2

obtenemos :

‖x− y‖2 = ‖x‖2 + ‖y‖2 − 2‖x‖ ‖y‖ cos ω

ecuacion conocida como Teorema de los Cosenos.

4) Si x e y son ortogonales, entonces el teorema anterior se reduce a :

‖x− y‖2 = ‖x‖2 + ‖y‖2

conocida como Teorema de Pitagoras.

Teorema 7 (Desigualdad Triangular) Sean x e y ∈ E. Entonces

‖x + y‖ ≤ ‖x‖+ ‖y‖

donde la igualdad vale si y solo si x = λy; λ ≥ 0

Page 12: Álgebra Multilineal

12 CAPITULO 1. ESPACIOS CON PRODUCTO INTERNO

Demostracion. Se sigue de la desigualdad de Schwarz que :

‖x + y‖2 = ‖x‖2 + 2〈x, y〉+ ‖y‖2 ≤ ‖x‖2 + 2‖x‖ ‖y‖+ ‖y‖2 = (‖x‖+ ‖y‖)2.

La igualdad vale si y solo si x = λy; λ ≥ 0. En efecto : Supongamos que

‖x+y‖ = ‖x‖+‖y‖ entonces ‖x‖2 +2〈x, y〉+‖y‖2 = ‖x‖2 +2‖x‖ ‖y‖+‖y‖2

, de esta manera

〈x, y〉 = ‖x‖ ‖y‖ (1.2)

Luego por Teorema 5, los vectores x e y deben ser L.D., esto es :

x = λy (1.3)

reemplazando (1.3) en (1.2) se obtiene :

λ‖y‖2 = |λ| ‖y‖2

luego λ = |λ| ≥ 0.

Recıprocamente; supongamos que x = λy, λ ≥ 0. Entonces

‖x + y‖ = ‖(λ + 1)y‖ = (λ + 1)‖y‖ = λ‖y‖+ ‖y‖ = ‖x‖+ ‖y‖.

Dados tres vectores x, y,z; la desigualdad triangular se puede escribir

como

‖x− y‖ ≤ ‖x− z‖+ ‖z − y‖ (1.4)

pues ‖x− y‖ = ‖x− z + z − y‖ ≤ ‖x− z‖+ ‖z − y‖. Una generalizacion de

lo anterior es el siguiente :

Teorema 8 (Desigualdad de Ptolemy) Sean x, y, z ∈ E. Entonces

‖x− y‖ ‖z‖ ≤ ‖y − z‖ ‖x‖+ ‖z − x‖ ‖y‖ (1.5)

Page 13: Álgebra Multilineal

1.1. EL PRODUCTO INTERNO 13

Demostracion. La desigualdad es claramente valida si uno de los tres vec-

tores es cero. Luego, podemos asumir x 6= 0,y 6= 0, z 6= 0. Se definen vectores

x′, y′, z′ por:

x′ =x

‖x‖2; y′ =

y

‖y‖2; z′ =

z

‖z‖2.

Entonces

‖x′ − y′‖2 = ‖x′‖2 − 2〈x′, y′〉+ ‖y′‖2

=1

‖x‖2− 2〈x, y〉‖x‖2‖y‖2

+1

‖y‖2

=‖x‖2 − 2〈x, y〉+ ‖y‖2

‖x‖2‖y‖2

=‖x− y‖2

‖x‖2‖y‖2,

esto es, ‖x′ − y′‖ =‖x− y‖‖x‖ ‖y‖ . Aplicando (1.4) a los vectores x′, y′, z′ se

obtiene :

‖x′ − y′‖ ≤ ‖x′ − z′‖+ ‖z′ − y′‖

o equivalentemente,

‖x− y‖‖x‖ ‖y‖ ≤

‖x− z‖‖x‖ ‖z‖ +

‖z − y‖‖z‖ ‖y‖ .

Multiplicando esta ultima desigualdad por ‖x‖ ‖y‖ ‖z‖ se obtiene (1.5).

Ejercicio: Sea X := C[0, 1] = f : [0, 1] −→ R / f es continua . De-

muestre que

〈f, g〉 =

∫ 1

0

f(t)g(t)dt

es un producto interno en X.

Page 14: Álgebra Multilineal

14 CAPITULO 1. ESPACIOS CON PRODUCTO INTERNO

1.1.1 Espacios Duales

Sean E, E∗ espacios vectoriales. Supongamos que existe una funcion bilineal

〈, 〉 definida en E∗ × E tal que satisface lo siguiente:

1) 〈f, x〉 = 0 para todo x implica f = 0

2) 〈f, x〉 = 0 para todo f implica x = 0 (en tal caso la funcion bilineal se

dice no degenerada ).

Entonces E y E∗ se llaman duales con respecto a la funcion bilineal 〈, 〉. El

numero 〈x∗, x〉 se llama el producto escalar de x∗ y x. La funcion bilineal 〈, 〉se llama el producto escalar entre E∗ y E.

Ejemplos

1) Si 〈, 〉 es un producto interno, entonces es una funcion bilineal no dege-

nerada.

2) Sea E = E∗ = R. Se define :

〈λ, µ〉 = λµ ; λ, µ ∈ R.

Claramente la forma es bilineal y no degenerada pues 〈λ, µ〉 = 0 ∀µ implica λ =

0. Analogamente 〈λ, µ〉 = 0 ∀λ implica µ = 0. De esta manera se dice que

el dual de R es R; o que R es auto-dual o es dual a sı mismo.

3) Sea E = E∗ = Rn y definamos :

〈x∗, x〉 =∑

i

x∗i xi;

donde x∗ = (x∗1, . . . , x∗n) y x = (x1, . . . , xn). Claramente la forma bilineal es

no degenerada por Ejemplo 1. Luego Rn es dual a sı mismo.

Recordemos que L(E) := f : E −→ R / f es lineal .

Proposicion 9 Si E tiene dimension finita, con producto interno 〈, 〉; en-

tonces existe un isomorfismo τ : E −→ L(E).

Page 15: Álgebra Multilineal

1.1. EL PRODUCTO INTERNO 15

Demostracion. Se define

τ(x)(y) := 〈x, y〉 ; x ∈ E , y ∈ E.

(a) τ es lineal : Para cada y ∈ E

τ(λx1 + x2)(y) = 〈λx1 + x2, y〉 = λ〈x1, y〉+ 〈x2, y〉= λτ(x1)(y) + τ(x2)(y) = (λτ(x1) + τ(x2))(y).

Luego, τ(λx1 + x2) = λτ(x1) + τ(x2).

(b) τ es inyectiva : Sea x ∈ E tal que τ(x) = 0. Entonces τ(x)(y) = 0

para cada y ∈ E, esto es, 〈x, y〉 = 0 para cada y ∈ E. Ya que 〈, 〉 es no

degenerada, lo anterior implica que x = 0.

(c) Veamos ahora que el hecho de poseer E dimension finita implica que

τ es sobreyectiva. Para esto vamos a probar que dim L(E) = dim E, lo cual

prueba la sobreyectividad (Ejercicio).

Sea x1, x2, . . . , xn base de E. Definimos en L(E) las funciones :

f j(xi) = δij =

1, si i = j

0, si i 6= j; j = 1, 2, . . . , n

Entonces f 1, f 2, . . . , fn es una base de L(E). En efecto : Supongamos que

α1f1 + α2f

2 + · · ·+ αnfn = 0

entonces α1f1(x1) + · · · + αnfn(x1) = 0 implica, por definicion, α1 = 0.

Analogamente, α1f2(x2) + · · · + αnf

n(x2) = 0 implica α2 = 0. Deducimos

ası que α3 = 0, . . . , αn = 0. Esto prueba que el conjunto es L.I.

Sea ahora f ∈ L(E). Entonces

f(x) = f(α1x1 + · · ·+ αnxn) = α1f(x1) + · · ·+ αnf(xn).

Page 16: Álgebra Multilineal

16 CAPITULO 1. ESPACIOS CON PRODUCTO INTERNO

Notar que

f 1(x) = f 1(α1x1 + · · ·+ αnxn) = α1

f 2(x) = α2

...

fn(x) = αn.

Luego :

f(x) = f 1(x)f(x1) + · · ·+ fn(x)f(xn)

=∑

βifi(x)

donde βi = f(xi). Esto prueba que L(E) es generado por el conjunto

f 1, . . . , fn y por lo tanto es una base. En particular, dim L(E) = dim E.

Observacion : La base f 1, . . . , fn de L(E) definida en la demostracion

del teorema anterior es llamada base dual.

El resultado mas importante de esta seccion es el siguiente.

Teorema 10 (Teorema de Riesz) Si E es un espacio con producto inter-

no 〈, 〉 de dimension finita y f : E −→ R es una funcion lineal, entonces

existe un unico vector a ∈ E tal que

f(x) = 〈a, x〉 ∀ x ∈ E.

Demostracion. Por hipotesis f ∈ L(E). Como E es de dimension finita, E

y L(E) son isomorfos vıa

τ(x)(y) = 〈x, y〉.En particular, τ es sobreyectiva o sea existe un unico a ∈ E tal que

τ(a) = f.

Page 17: Álgebra Multilineal

1.2. BASES ORTONORMALES 17

Luego f(x) = τ(a)(x) = 〈a, x〉 ∀ x ∈ E.

Ejercicios

1. Sea φ : R2 ×R2 → R definida por φ((x1, y1), (x2, y2)) = x1x2 − y1x2 −x1y2 + 3y1y2. Demuestre que φ es bilineal y definida positiva.

2. Sea l2 := (x1, x2, . . .) /∑

i x2i < ∞. Demuestre que

∑i xiyi con-

verge y que la funcion bilineal

φ(x, y) =∑

i

xiyi

donde x = (x1, x2, . . .), y = (y1, y2, . . .); es un producto interno en l2.

3. Sean E1, E2 espacios con producto interno. Demuestre que se puede

definir un producto interno en : E1 × E2 por

〈(x1, x2), (y1, y2)〉 = 〈x1, y1〉+ 〈x2, y2〉 ; x1, y1 ∈ E1 , x2, y2 ∈ E2.

4. Sea E espacio vectorial y E∗ = L(E) = f : E −→ R / f es lineal .Definamos:

〈f, x〉 := f(x) ; f ∈ L(E), x ∈ E.

Pruebe que es un forma bilineal. Ademas, es no degenerada. (Esto

prueba que el dual de E es L(E). )

1.2 Bases Ortonormales

Definicion 11 Sea E e.p.i. de dimension n. Sea e1, . . . , en base de E. La

base ei es llamada ortonormal si los vectores ei(i = 1, . . . , n) son mutua-

Page 18: Álgebra Multilineal

18 CAPITULO 1. ESPACIOS CON PRODUCTO INTERNO

mente ortogonales y tienen norma 1; esto es :

〈ei, ej〉 = δij ∀ i, j = 1, . . . , n.

Proposicion 12 Sea E e.p.i. de dimension n y sea e1, . . . , en base ortonor-

mal de E. Entonces para cada x, y ∈ E :

〈x, y〉 =∑

i xiyi (Igualdad de Parseval)

donde x =∑

i xiei , y =∑

i yiei.

Demostracion.

〈x, y〉 = 〈∑

i

xiei,∑

j

yjej〉 =∑

i

∑j

xiyj〈ei, ej〉 =∑

i

∑j

xiyjδij =∑

i

xiyi.

Corolario 13 Si E es un e.p.i. de dimension finita y ei es base ortonor-

mal de E entonces para cada x ∈ E

‖x‖2 =∑

i x2i (Igualdad de Bessel).

Demostracion. Tomar y = x en la proposicion anterior.

Corolario 14 Si E es un e.p.i. de dimension finita y ei es base ortonor-

mal de E entonces, para cada x ∈ E

〈x, ei〉 = xi ; i = 1, . . . , n (Coeficientes de Fourier).

Demostracion. Tomar y = ej en la proposicion anterior.

Corolario 15 Si E es un e.p.i. de dimension finita y ei es base ortonor-

mal de E entonces para cada x ∈ E, el angulo θi entre x y ei es :

cos θi =xi

‖x‖ (i = 1, 2, . . . , n).

Page 19: Álgebra Multilineal

1.2. BASES ORTONORMALES 19

Demostracion. Por Definicion 7 y Corolario 14 tenemos : cos θi =〈x, ei〉‖x‖ ‖ei‖ =

xi

‖x‖ .

Observacion : En particular, si ‖x‖ = 1, entonces cos θi = xi.

Teorema 16 (Proceso de Ortogonalizacion de Gram-Schmidt) Sea E

e.p.i. de dimension finita. Entonces E siempre posee una base ortonormal.

Demostracion. Sea a1, . . . , an base de E. Vamos a construir una nueva

base b1, . . . , bn cuyos vectores son mutuamente ortogonales. Sea b1 = a1 y

definamos b2 = a2 + λb1 donde λ es un escalar que se determina de manera

tal que 〈b1, b2〉 = 0. Con esto se obtiene :

0 = 〈a1, a2 + λb1〉 = 〈a1, a2〉+ λ〈a1, b1〉 = 〈a1, a2〉+ λ〈a1, a1〉.

Como a1 6= 0 , se tiene que λ =−〈a1, a2〉〈a1, a1〉 . Notar que b2 6= 0 (si no α2 =

−λa1 y a2 son L.I. lo que es una contradiccion). Para obtener b3, definimos

b3 = a3 + µb1 + νb2 donde µ y ν se determinan de manera que

〈b1, b3〉 = 0 y 〈b2, b3〉 = 0.

Con esto se tiene que

0 = 〈b1, a3 + µb1 + νb2〉 = 〈b1, a3〉+ µ〈b1, b1〉

0 = 〈b2, a3 + µb1 + νb2〉 = 〈b2, a3〉+ ν〈b2, b2〉

ya que b1 6= 0 y b2 6= 0, estas ecuaciones se pueden resolver con respecto a µ

y ν. Mas precisamente, µ =−〈b1, a3〉〈b1, b1〉 , ν =

−〈b2, a3〉〈b2, b2〉 .

La independencia lineal de a1, a2, a3 implica que b3 6= 0.

Page 20: Álgebra Multilineal

20 CAPITULO 1. ESPACIOS CON PRODUCTO INTERNO

Continuando de esta manera se obtiene finalmente un sistema de n vectores

bj 6= 0; j = 1, . . . , n tal que

〈bi, bj〉 = 0 ∀ i 6= j.

En particular, bi son L.I. y luego forman una base para E. En consecuencia

los vectores

ei =bi

‖bi‖ i = 1, . . . , n

forman una base ortonormal.

1.2.1 Transformaciones Ortogonales

En esta seccion queremos responder a la pregunta: Si tenemos dos bases

ortonormales, ¿como se relacionan entre ellas?.

A fin de dar una respuesta, requerimos recordar la siguiente definicion:

Definicion 17 Sea A = (αij) una matriz de n × n. A se dice ortogonal si

AAT = I.

Finalmente, la relacion entre matrices ortogonales y bases ortonormales

esta indicada en el siguiente resultado.

Proposicion 18 Sean xi y xj bases ortonormales de E. Entonces existe

una matriz ortogonal (αij) tal que xi =∑

j αijxj. Recıprocamente, si xies una base ortonormal de E y (αij) es una matriz ortogonal, entonces xj =∑

i αjixi es tambien una base ortonormal de E.

Page 21: Álgebra Multilineal

1.2. BASES ORTONORMALES 21

Demostracion. Ya que xj es base, para cada xi existen escalares αij, (j =

1, ..., n) tales que xi =∑

j αijxj. Veamos que (αij) es una matriz ortogonal.

En efecto : Como 〈xi, xj〉 = δij y 〈xi, xj〉 = δij entonces

δij = 〈xi, xj〉 = 〈∑

p

αipxp,∑

q

αjqxq〉

=∑

p

∑q

αipαjq〈xp, xq〉

=∑

p

αipαjp

lo cual muestra que (αij) es ortogonal. Inversamente, si xi es base ortonor-

mal de E y (αij) es matriz ortogonal, entonces

〈xi, xj〉 = 〈∑

p

αipxp,∑

q

αjqxq〉

=∑

p

∑q

αipαjq〈xp, xq〉

=∑

p

αipαjp

= δij

lo que indica que xi es base ortonormal.

Definicion 19 Sea E e.p.i. y E1 un subespacio de E. El conjunto

E⊥1 := x ∈ E / 〈x, y〉 = 0 ∀ y ∈ E1

es llamado el complemento ortogonal de E1.

Observaciones:

1) E⊥1 es un subespacio de E.

2) E⊥1 ∩ E1 = 0.

3) Si E tiene dimension finita :

dim E1 + dim E⊥1 = dim E

Page 22: Álgebra Multilineal

22 CAPITULO 1. ESPACIOS CON PRODUCTO INTERNO

en particular,

E = E1 ⊕ E⊥1 . (1.6)

En efecto: Sea ykmk=1 una base ortonormal de E1. Entonces existen vectores

ym+1, ..., yn tal que yknk=1 es una base ortonormal de E (completacion de

la base). Entonces yknk=m+1 es una base de E⊥

1 y luego cada x ∈ E se

escribe como

x =m∑

k=1

〈x, yk〉yk +n∑

k=m+1

〈x, yk〉yk,

lo cual muestra que la suma es directa .

Definicion 20 Sea x ∈ E. Sea ykk=mk=1 base ortonormal de E1. El vector

p =m∑

k=1

〈x, yk〉yk

se llama la proyeccion ortogonal de x sobre E1.

Observaciones :

1) La idea en la definicion anterior es la siguiente : Si x ∈ E entonces por

(1.6)

x = p + h; p ∈ E1, h ∈ E⊥1 . (1.7)

Como ykmk=1 es base de E1 y p ∈ E1 :

p =m∑

k=1

αkyk.

Notar que :

〈p, yj〉 =m∑

k=1

αk〈yk, yj〉 =m∑

k=1

αkδkj = αj

y

〈p, yj〉 = 〈x− h, yj〉 = 〈x, yj〉

Page 23: Álgebra Multilineal

1.3. FUNCION DETERMINANTE 23

luego

p =m∑

k=1

〈x, yk〉yk.

2) De (1.7) obtenemos ‖x‖2 = 〈x, x〉 = 〈p + h, p + h〉 = ‖p‖2 + ‖h‖2. En

particular : ‖p‖ ≤ ‖x‖; esto es,

|m∑

k=1

〈x, yk〉yk| ≤ ‖x‖

llamada desigualdad de Bessel.

Notar que la igualdad vale si y solo si ‖h‖2 = 0 i.e. h = 0; esto es, si y

solo si x ∈ E1 (lo cual se sigue de (1.7)). El numero ‖h‖ se llama la distancia

a x desde el subespacio E1.

Ejercicios

1. Dada la base (1, 0, 1), (2, 1,−3), (−1, 1, 0), construir una base ortonor-

mal por el proceso de ortogonalizacion de Gram-Schmidt.

2. (dificil) Sea E = C[0, 1] con el producto interno

〈f, g〉 =

∫ 1

0

f(t)g(t)dt.

Sea E1 = C1[0, 1] subespacio de E. Demuestre que E⊥1 = 0.

1.3 Funcion Determinante

Definicion 21 Sea E e.v. de dimension n. Una funcion determinante es

una funcion ∆ : E × · · ·E︸ ︷︷ ︸n−veces

−→ R tal que

Page 24: Álgebra Multilineal

24 CAPITULO 1. ESPACIOS CON PRODUCTO INTERNO

(a) ∆ es lineal con respecto a cada argumento (multilineal), esto es :

∆(x1, . . . , λxi +µyi, . . . , xn) = λ∆(x1, . . . , xi, . . . , xn)+µ∆(y1, . . . , yi, . . . , yn)

con i = 1, 2, . . . , n.

(b) ∆ es antisimetrica con respecto a todos sus argumentos, mas precisa-

mente

∆(xσ(1), . . . , xσ(n)) = εσ∆(x1, . . . , xn)

donde

εσ =

1 para una permutacion σ par

−1 para una permutacion σ impar

Observacion : Ya que el intercambio de dos numeros (ij) es una per-

mutacion impar, se obtiene de la propiedad (b) :

∆(x1, . . . , xi, . . . , xj, . . . , xn) = −∆(x1, . . . , xj, . . . , xi, . . . , xn).

En particular, si xi = xj = x ;

∆(x1, . . . , x, . . . , x, . . . , xn) = 0 (1.8)

Esto es, una funcion determinante asume el valor cero siempre que dos de

sus argumentos coinciden. Mas generalmente :

Proposicion 22 Si dos argumentos de una funcion determinante son L.D.

entonces ∆(x1, x2, . . . , xn) = 0.

Demostracion. Sin perdida de generalidad, supongamos que xn es L.D. con

respecto a x1, . . . , xn−1. Entonces

xn =n−1∑i=1

αixi.

Page 25: Álgebra Multilineal

1.3. FUNCION DETERMINANTE 25

Luego, por (1.8) :

∆(x1, x2, . . . , xn) =n−1∑i=1

αi∆(x1, x2, . . . , xi, . . . , xn−1, xi) = 0.

Observacion : Observemos que el valor de una funcion determinante no

cambia si un multiplo de un argumento xj se suma a otro argumento xi,

(i 6= j). En efecto : Por (1.8) (si i < j)

∆(x1, . . . , xi + λxj, . . . , xj, . . . , xn) = ∆(x1, . . . , xi, . . . , xj, . . . , xn)

+ λ ∆(x1, . . . , xj, . . . , xj, . . . , xn)︸ ︷︷ ︸=0

= ∆(x1, . . . , xn).

Los ejemplos anteriores nos muestran existencia de funciones determi-

nantes en un espacio E. Que hay con respecto a la unicidad ? En efecto,

note que en un espacio vectorial E se podrıan, eventualmente, definir mas de

una funcion determinante.

Proposicion 23 Sean ∆ y ∆1 dos funciones determinantes en E, ∆1 6= 0.

Entonces existe λ ∈ R tal que ∆ = λ∆1.

Demostracion. Sea eini=1 base ortonormal de E. Entonces, dado (x1, x2, . . . , xn) ∈

E × E · · · × E =: En se tiene que cada xi se escribe como

xi =n∑

j=1

αijej.

Luego:

∆(x1, . . . , xn) = ∆(∑j1=1

α1j1ej1 ,∑j2=1

α2j2ej2 , . . . ,∑jn

αnjnejn)

=∑j1=1

∑j2=1

. . .∑jn=1

α1j1α2j2 . . . αnjn∆(ej1 , ej2 , . . . , ejn)

= ∆(e1, . . . , en)∑

σ

εσα1σ(1) . . . αnσ(n).

Page 26: Álgebra Multilineal

26 CAPITULO 1. ESPACIOS CON PRODUCTO INTERNO

Analogamente,

∆1(x1, . . . , xn) = ∆1(e1, . . . , en)∑

σ

εσα1σ(1) . . . αnσ(n).

Sea λ :=∆(e1, . . . , en)

∆1(e1, . . . , en)entonces

∆(x1, . . . , xn) = λ∆1(x1, . . . , xn)

lo que prueba la proposicion.

Ejercicios

1. Sea E = R2 y ∆ : R2 × R2 −→ R definida por :

∆((x1, y1), (x2, y2)) = x1y2 − x2y1 = det

(x1 x2

y1 y2

).

Pruebe que ∆ es multilineal(bilineal en este caso) y antisimetrica con

respecto a sus argumentos.

2. Sea E = R3 y ∆ : R3 × R3 × R3 −→ R definida por :

∆((x1, y1, z1), (x2, y2, z2), (x3, y3, z3)) = det

x1 x2 x3

y1 y2 y3

z1 z2 z3

.

Pruebe que ∆ es trilineal y verifica la propiedad (b).

1.3.1 Funciones Determinantes Duales

Proposicion 24 Sean E∗ y E un par de espacios vectoriales duales con di-

mension n (i.e. existe una funcion bilineal no degenerada 〈, 〉 definida en

Page 27: Álgebra Multilineal

1.3. FUNCION DETERMINANTE 27

E∗ × E). Sean ∆∗ 6= 0 y ∆ 6= 0 funciones determinantes en E∗ y E respec-

tivamente. Entonces

∆∗(f1, . . . , fn)∆(x1, . . . , xn) = α det

〈f1, x1〉 . . . 〈f1, xn〉

......

〈fn, x1〉 . . . 〈fn, xn〉

; (1.9)

donde fi ∈ E∗, xi ∈ E y α ∈ R.

Demostracion. Sea Ω : E∗ × · · · × E∗︸ ︷︷ ︸

n

×E × · · · × E︸ ︷︷ ︸n

−→ R definida por:

Ω(f1, . . . , fn, x1, . . . , xn) = det

〈f1, x1〉 . . . 〈f1, xn〉

......

〈fn, x1〉 . . . 〈fn, xn〉

.

Es claro que Ω es lineal con respecto a cada argumento. Tambien es claro que

Ω es antisimetrica con respecto a los vectores fi y con respecto a los vectores

xi(i = 1, . . . , n). Luego, Ω es una funcion determinante y, por unicidad (con

respecto a los argumentos x1, . . . , xn; dejando f1, . . . , fn fijos)

Ω(f1, . . . , fn, x1, . . . , xn) = α(f1, . . . , fn)∆(x1, . . . , xn). (∗)

Esta relacion muestra que α(f1, . . . , fn) es lineal con respecto a cada ar-

gumento y antisimetrica. En efecto ; por ejemplo con respecto al primer

argumento tenemos

Ω(λf1 + g1, . . . , fn, x1, . . . , xn) = α(λf1 + g1, . . . , fn)∆(x1, . . . , xn)

o equivalentemente

λΩ(f1, . . . , fn, x1, . . . , xn) + Ω(g1, . . . , fn, x1, . . . , xn)

= α(λf1 + g1, . . . , fn)∆(x1, . . . , xn)

Page 28: Álgebra Multilineal

28 CAPITULO 1. ESPACIOS CON PRODUCTO INTERNO

esto es,

λα(f1, . . . , fn)∆(x1, . . . , xn) + α(g1, . . . , fn)∆(x1, . . . , xn)

= α(λf1 + g1, . . . , fn)∆(x1, . . . , xn).

como ∆ 6= 0 obtenemos

λα(f1, . . . , fn) + α(g1, . . . , fn) = α(λf1 + g1, . . . , fn)

lo que prueba que α es lineal con respecto al primer argumento.

Veamos que es antisimetrica : De (*) obtenemos:

Ω(fσ(1), ..., fσ(n), x1, ..., xn) = α(fσ(1), ..., fσ(n))∆(x1, ..., xn).

Equivalentemente, puesto que Ω es una funcion determinante:

εσ(f1, ..., fn, x1, ..., xn) = α(fσ(1), ..., fσ(n))∆(x1, ..., xn).

Aplicando (*) otra vez al lado izquierdo obtenemos:

εσα(f1, ..., fn)∆(x1, ..., xn) = α(fσ(1), ..., fσ(n))∆(x1, ..., xn).

Finalmente, dividiendo por ∆ se obtiene:

εσα(f1, ..., fn) = α(fσ(1), ..., fσ(n)).

Luego, otra vez por unicidad : existe β ∈ R tal que

α(f1, . . . , fn) = β∆∗(f1, . . . , fn).

Combinando se obtiene :

Ω(f1, . . . , fn, x1, . . . , xn) = β∆∗(f1, . . . , fn)∆(x1, . . . , xn). (1.10)

Page 29: Álgebra Multilineal

1.3. FUNCION DETERMINANTE 29

Sean ahora f ∗i y ei bases duales en E∗ y E respectivamente, esto es

〈f ∗i , ej〉 = δij; entonces

β∆∗(f ∗1 , . . . , f ∗n)∆(e1, . . . , en) = Ω(f ∗1 , . . . , f ∗n, e1, . . . , en)

= det

1 0 . . . 0

0 1 . . . 0...

......

0 0 . . . 1

= 1

pues 〈f ∗i , ej〉 = δij por definicion. Luego, β 6= 0 . Sea ahora α := β−1

entonces, de (1.10) se obtiene la relacion (1.9) que queriamos probar.

Definicion 25 La funciones determinantes ∆∗ y ∆ se llaman duales si el

factor α en (1.9) es igual a 1, esto es :

∆∗(f ∗1 , . . . , f ∗n)∆(x1, . . . , xn) = det((〈fi, xj〉)ij).

1.3.2 Funciones Determinantes Normadas

Sea E e.v. con producto interno 〈, 〉, de dimension n. Como E es dual a

si mismo con respecto al producto interno, entonces, si ∆0 es una funcion

determinante en E se obtiene por (1.9) :

∆0(x1, . . . , xn)∆0(y1, . . . , yn) = α det

〈x1, y1〉 . . . 〈x1, yn〉

......

〈xn, y1〉 . . . 〈xn, yn〉

;

donde α ∈ R.

Si hacemos xi = yi = ei, donde ei es base ortonormal de E, se obtiene :

∆0(e1, . . . , en)2 = α.

Page 30: Álgebra Multilineal

30 CAPITULO 1. ESPACIOS CON PRODUCTO INTERNO

Luego, α > 0. Se define

∆ := ±∆0√α

(1.11)

Entonces

∆(x1, . . . , xn)∆(y1, . . . , yn) = det

〈x1, y1〉 . . . 〈x1, yn〉

......

〈xn, y1〉 . . . 〈xn, yn〉

. (1.12)

Definicion 26 Una funcion determinante en un espacio con producto inter-

no que satisface (1.12) se llama una funcion determinante normada.

Observaciones:

1) De (1.11) concluimos que existen exactamente dos funciones determinantes

normadas ∆ y −∆ en un e.v. E.

2) Si se define una orientacion en E, entonces una de las funciones ∆ y

−∆ representa la orientacion. En consecuencia, en un e.v. con p.i. orientado

existe una unica funcion determinante normada que representa la orientacion.

1.3.3 Angulos en el plano orientado

Con ayuda de una funcion determinante normada es posible dar un signo

al angulo entre dos vectores de un espacio con producto interno, orienta-

do, de dimension 2. Consideremos la funcion determinante normada ∆ que

representa la orientacion dada. De la identidad

∆(x1, . . . , xn)∆(y1, . . . , yn) = det(〈xi, yi〉)

obtenemos, usando (1.12), que para cada x, y ∈ E, con dimE = 2:

‖x‖2‖y‖2 − 〈x, y〉2 = ∆(x, y)2. (1.13)

Page 31: Álgebra Multilineal

1.3. FUNCION DETERMINANTE 31

Supongamos ahora que x 6= 0 e y 6= 0. Dividiendo (1.13) por ‖x‖2‖y‖2

obtenemos:〈x, y〉2‖x‖2‖y‖2

+∆(x, y)2

‖x‖2‖y‖2= 1

o ( 〈x, y〉‖x‖ ‖y‖

)2

+

(∆(x, y)

‖x‖ ‖y‖)2

= 1

ya que cos2 θ+sin2 θ = 1, se concluye que existe un unico θ ∈ (−π, π) tal que

cos θ =〈x, y〉‖x‖ ‖y‖ , sin θ =

∆(x, y)

‖x‖ ‖y‖ . (1.14)

Definicion 27 El numero θ(= θ(x, y)) se llama el angulo orientado entre x

e y.

Observacion : Si se cambia la orientacion, ∆ se reemplaza por −∆ y luego

θ cambia por −θ. (Ejercicio).

1.3.4 El determinante de Gram

Definicion 28 Dados p vectores x1, . . . , xp en un espacio con producto in-

terno E, el determinante de Gram G(x1, . . . , xp) se define por

G(x1, . . . , xp) = det

〈x1, x1〉 . . . 〈x1, xp〉

......

〈xp, x1〉 . . . 〈xp, xp〉

.

Proposicion 29 G(x1, . . . , xp) ≥ 0 y la igualdad vale si y solo si los vectores

x1, . . . , xp son linealmente dependientes.

Page 32: Álgebra Multilineal

32 CAPITULO 1. ESPACIOS CON PRODUCTO INTERNO

Demostracion.

Caso 1 : Los vectores x1, . . . , xp son L.D. Entonces existen escalares α1, ..., αn

no todos cero tales que α1x1 + ... + αnxn = 0. Luego, para cada i = 1, ..., n

se tiene:

0 = 〈xi, α1x1 + ... + αnxn〉 = α1〈xi, x1〉+ ... + αn〈xi, xn〉.

Entonces las filas de la matriz〈x1, x1〉 . . . 〈x1, xp〉

......

〈xp, x1〉 . . . 〈xp, xp〉

son tambien L.D.; luego, G(x1, . . . , xp) = 0.

Caso 2 : Los vectores x1, . . . , xp son L.I. Sea E1 el subespacio generado por

x1, . . . , xp con el producto interno de E. Sea ∆1 una funcion determinante

normada en E1. Entonces de (1.13)

∆1(x1, . . . , xp)2 = G(x1, . . . , xp).

La independencia lineal de x1, . . . , xp implica que ∆1 6= 0. Luego

G(x1, . . . , xp) > 0.

Esto prueba G(x1, . . . , xp) ≥ 0.

Ademas, por lo anterior, es claro que, si x1, . . . , xp son L.D. entonces

G(x1, . . . , xp) = 0 y, si G(x1, . . . , xp) = 0 entonces, si se supone por ab-

surdo que x1, . . . , xp es L.I. se tiene, por caso 2, que G(x1, . . . , xp) > 0 en

contradiccion.

Observacion : Si p = 2, se deduce de la proposicion anterior la desigualdad

de Schwarz (i.e. la Proposicion 29 es una generalizacion del Teorema 6).

Page 33: Álgebra Multilineal

1.3. FUNCION DETERMINANTE 33

1.3.5 El volumen de un paralelepıpedo

Definicion 30 Sea a1, . . . , ap un conjunto de p-vectores L.I. en un espacio

vectorial E. El conjunto

P =

p∑

i=1

αiai / 0 ≤ αi ≤ 1

se llama paralelepıpedo p-dimensional generado por los vectores a1, . . . , ap.

Ejemplo: Si p = 2 entonces

P = αa + βb : 0 ≤ α ≤ 1, 0 ≤ β ≤ 1.

Definicion 31 El volumen V (a1, . . . , ap) del paralelepıpedo se define como:

V (a1, . . . , ap) = |∆1(a1, . . . , ap)| (1.15)

donde ∆1 es una funcion determinante normada definida en el subespacio

generado por los vectores a1, . . . , ap.

Observaciones :

1) En vista de la identidad

∆2(x1, . . . , xp) = det

〈x1, x1〉 . . . 〈x1, xp〉

......

〈xp, x1〉 . . . 〈xp, xp〉

se tiene que el volumen de un paralelepıpedo se puede tambien escribir como:

V (a1, . . . , ap)2 = det

〈a1, a1〉 . . . 〈a1, ap〉

......

〈ap, a1〉 . . . 〈ap, ap〉

(1.16)

Page 34: Álgebra Multilineal

34 CAPITULO 1. ESPACIOS CON PRODUCTO INTERNO

2) Si p = 2, se obtiene de (1.16):

V (a1, a2)2 = ‖a1‖2‖a2‖2 − 〈a1, a2〉2.

Ahora, si θ denota el angulo entre a1 y a2 entonces

cos θ =〈a1, a2〉‖a1‖ ‖a2‖

luego

cos2 θ =〈a1, a2〉2‖a1‖2‖a2‖2

pero cos2 θ + sin2 θ = 1, de donde 1− sin2 θ =〈a1, a2〉2‖a1‖2‖a2‖2

luego:

sin2 θ = 1− 〈a1, a2〉2‖a1‖2‖a2‖2

=‖a1‖2‖a2‖2 − 〈a1, a2〉2

‖a1‖2‖a2‖2

lo que implica que

‖a1‖2‖a2‖2 sin2 θ = ‖a1‖2‖a2‖2 − 〈a1, a2〉2

de aquı se obtiene, finalmente:

V (a1, a2)2 = ‖a1‖2‖a2‖2 sin2 θ

o sea,

V (a1, a2) = ‖a1‖ ‖a2‖ sin θ

que es una formula conocida para calcular el area de un paralelogramo.

1.3.6 Producto cruz

Sea E un espacio con producto vectorial de dimension 3, orientado, y sea ∆

la funcion determinante normada que representa la orientacion. Sean x ∈ E,

y ∈ E y consideremos la funcion

f : E −→ R (1.17)

Page 35: Álgebra Multilineal

1.3. FUNCION DETERMINANTE 35

definida por f(z) = ∆(x, y, z).

Claramente f es lineal, esto es, f ∈ L(E). En vista del Teorema de Repre-

sentacion de Riesz (Teorema 10), existe un unico vector u ∈ E tal que

f(z) = 〈u, z〉. (1.18)

Definicion 32 El vector u obtenido anteriormente se llama el producto cruz

de x e y y se denota x×y := u. En vista de (1.17) y (1.18) se tiene la relacion

〈x× y, z〉 = ∆(x, y, z) (1.19)

Observacion: El producto cruz depende claramente de la orientacion de E.

Si la orientacion es cambiada (i.e. ∆ por −∆), entonces el producto cruz

cambia de signo.

En lo que sigue veremos algunas propiedades del producto cruz.

Proposicion 33 El producto cruz es distributivo:

(i) (λx1 + x2)× y = λx1 × y + x2 × y.

(ii) x× (λy1 + y2) = λx× y1 + x× y2.

Demostracion. Para cada z ∈ E se tiene:

〈(λx1 + x2)× y, z〉 = ∆(λx1 + x2, y, z)

= λ∆(x1, y, z) + ∆(x2, y, z)

= λ〈x1 × y, z〉+ 〈x2 × y, z〉= 〈λ(x1 × y) + x2 × y, z〉

Page 36: Álgebra Multilineal

36 CAPITULO 1. ESPACIOS CON PRODUCTO INTERNO

Luego, como el producto interno es no degenerado; se obtiene (i).

Analogamente, para cada z ∈ E se tiene:

〈x× (λy1 + y2), z〉 = ∆(x, λy1 + y2, z)

= λ∆(x, y1, z) + ∆(x, y2, z)

= λ〈x× y1, z〉+ 〈x× y2, z〉= 〈λ(x× y1) + x× y2, z〉

lo cual prueba (ii).

Proposicion 34

(a) x× y = −y × x

(b) 〈x× y, x〉 = 0, 〈x× y, y〉 = 0.

(c) x× y 6= 0 si y solo si x e y son L.I.

Demostracion.

(a) Sea z ∈ E:

〈x× y, z〉 = ∆(x, y, z) = −∆(y, x, z) = −〈y × x, z〉 = 〈−y × x, z〉

(b) 〈x× y, x〉 = ∆(x, y, x) = 0 ; 〈x× y, y〉 = ∆(x, y, y) = 0

(c) Supongamos que x × y 6= 0. Entonces, si suponemos por absurdo que x

e y son L.D. tenemos:

x = λy ; λ ∈ R ; λ 6= 0.

Page 37: Álgebra Multilineal

1.3. FUNCION DETERMINANTE 37

Luego, por (a) se tiene que

x× y = λy × y = λ(y × y)

−y × x = −y × λy = −λ(y × y)

lo que implica que y×y = −y×y. Luego y×y = 0, lo que es una contradiccion

pues 0 6= x × y = λ(y × y). Inversamente, supongamos que x e y son L.I.

Sea z ∈ E tal que x, y, z es base de E. Entonces

〈x× y, z〉 = ∆(x, y, z) 6= 0.

Luego, x× y 6= 0.

Proposicion 35

〈x1 × x2, y1 × y2〉 = 〈x1, y1〉〈x2, y2〉 − 〈x1, y2〉〈x2, y1〉.

Demostracion. Sin perdida de generalidad, podemos suponer que x1 y x2

son L.I. (de otro modo el lado izquierdo es cero por (c) de la proposicion

anterior, lo mismo que el lado derecho).

Se tienen las relaciones:

〈x1 × x2, x3〉 = ∆(x1, x2, x3) ; x3 ∈ E

〈y1 × y2, y3〉 = ∆(y1, y2, y3) ; y3 ∈ E.

Como ∆ es una funcion determinante normada se tiene:

〈x1 × x2, x3〉〈y1 × y2, y3〉 = ∆(x1, x2, x3)∆(y1, y2, y3)

= det

〈x1, y1〉 〈x1, y2〉 〈x1, y3〉〈x2, y1〉 〈x2, y2〉 〈x2, y3〉〈x3, y1〉 〈x3, y2〉 〈x3, y3〉

.

Page 38: Álgebra Multilineal

38 CAPITULO 1. ESPACIOS CON PRODUCTO INTERNO

Sea y3 := x1×x2. Note que por proposicion 34 parte (b) tenemos 〈x2, y3〉 = 0

y 〈x1, y3〉 = 0. Si calculemos ahora el determinante derecho por la ultima

columna, obtenemos:

〈x1 × x2, x3〉〈y1 × y2, x1 × x2〉 = 〈x3, y3〉 det

(〈x1, y1〉 〈x1, y2〉〈x2, y1〉 〈x2, y2〉

)

Luego,

〈x1×x2, x3〉〈y1×y2, x1×x2〉 = 〈x3, x1×x2〉[〈x1, y1〉〈x2, y2〉−〈x2, y1〉〈x1, y2〉].(1.20)

Como x1 y x2 son L.I. se tiene que x1× x2 6= 0. Luego, se puede elegir x3 tal

que 〈x1 × x2, x3〉 6= 0. Simplificando este termino en ambos lados de (1.20)

se obtiene la proposicion.

Corolario 36 ‖x× y‖2 = ‖x‖2‖y‖2 − 〈x, y〉2.

Demostracion. Tomar x1 = y1 = x y x2 = y2 = y en la proposicion anterior.

Observacion: Si θ es el angulo entre x e y se puede reescribir el corolario

anterior como

‖x× y‖ = ‖x‖ ‖y‖ sin θ.

Proposicion 37 Sea e1, e2, e3 una base ortonormal positiva de E (i.e.

∆(e1, e2, e3) > 0). Entonces

e1 × e2 = e3 ; e2 × e3 = e1 ; e3 × e1 = e2.

Demostracion. Por (b) de la Proposicion 35:

〈e1 × e2, e1〉 = 0 , 〈e1 × e2, e2〉 = 0

Page 39: Álgebra Multilineal

1.3. FUNCION DETERMINANTE 39

i.e. e1× e2 es ortogonal a e1 y e2 por lo que se obtiene: e1× e2 = λe3. Luego,

∆(e1, e2, e3) = 〈e1 × e2, e3〉 = λ〈e3, e3〉 = λ.

Pero:

∆(e1, e2, e3)2 = det

〈e1, e1〉 〈e1, e2〉 〈e1, e3〉〈e2, e1〉 〈e2, e2〉 〈e2, e3〉〈e3, e1〉 〈e3, e2〉 〈e3, e3〉

= det

1 0 0

0 1 0

0 0 1

= 1.

Con lo que λ = 1, pues ∆(e1, e2, e3) > 0.

Analogamente se prueban los otros dos casos.

Corolario 38 Si x =3∑

i=1

αiei, y =3∑

i=1

βiei; entonces

x× y = (α2β3 − α3β2)e1 + (α3β1 − α1β3)e2 + (α1β2 − α2β1)e3.

Demostracion.

x× y =

(3∑

i=1

αiei

(3∑

j=1

βjej

)

=3∑

i=1

3∑j=1

αiβjei × ej

= α1β1e1 × e1 + α1β2e1 × e2 + α1β3e1 × e3

+ α2β1e2 × e1 + α2β2e2 × e2 + α2β3e2 × e3

+ α3β1e3 × e1 + α3β2e3 × e2 + α3β3e3 × e3

= (α1β2 − α2β1)e1 × e2 + (α1β3 − α3β1)e1 × e3 + (α2β3 − α3β2)e2 × e3

= (α1β2 − α2β1)e3 − (α1β3 − α3β1)e2 + (α2β3 − α3β2)e1

Page 40: Álgebra Multilineal

40 CAPITULO 1. ESPACIOS CON PRODUCTO INTERNO

Observacion: La anterior se toma a veces como definicion del producto

cruz en R3 donde e1 = i, e2 = j, e3 = k.

Observacion : El resultado anterior tambien se escribe:

x× y =

∣∣∣∣∣∣∣∣

e1 e2 e3

α1 α2 α3

β1 β2 β3

∣∣∣∣∣∣∣∣

como una manera nemotecnica de recordar la formula del Corolario 39.

1.4 Ejercicios de recapitulacion

1. Sea V un espacio vectorial sobre R. Demuestre que la suma de dos

productos internos sobre V es un producto interno sobre V . ¿ Es la

diferencia de dos productos internos un producto interno? Mostrar que

un multiplo positivo de un producto interno es un producto interno.

2. Dados los vectores α = (x1, x2) y β = (y1, y2) ∈ R2 se define

〈α, β〉 = x1y1 − x2y1 − x1y2 + 4x2y2 .

(a) Demuestre que 〈, 〉 es un producto interno en R2 .

(b) Pruebe que

|x1y1−x2y1−x1y2+4x2y2| ≤ ((x1−x2)2+3x2)1/2 ((y1−y2)

2+3y2)1/2.

(c) Muestre que en R2 con este producto interno los vectores (x, y)

y (−y, x) son ortogonales si y solo si y =1

2(−3±

√13)x .

Page 41: Álgebra Multilineal

1.4. EJERCICIOS DE RECAPITULACION 41

3. Suponga que 〈, 〉 es un produnto interno sobre R3 . Sea T : R3 → R3

una transformacion lineal definida por

T (x, y, z) = (3x + z,−2x + y,−x + 2y + 4z) .

(a) Demuestre que T es invertible.

(b) Demuestre que pT ((x, y, z), (x1, y1, z1)) = 〈T (x, y, z), T (x1, y1, z1)〉es un producto interno sobre R3 .

(c) Considere 〈, 〉 el producto interno usual en R3 . Con respecto

al producto interno pT dado en (a), calcule el angulo entre los

vectores (−1, 0, 2) y (0, 3,√

3).

4. Demuestre que, un conjunto de n vectores xj 6= 0 donde cualesquiera

dos vectores xi y xj (i 6= j) son ortogonales, es linealmente indepen-

diente.

5. Sean V y W espacios vectoriales sobre R y suponga que 〈, 〉 es un

produnto interno sobre W . Si T es una transformacion lineal invert-

ible de V en W entonces pT (α, β) = 〈T (α), T (β)〉 es un producto

interno sobre V .

6. Sea B = (1,−4, 2), (0, 3, 7), (−1, 0, 5) base de R3 . A partir de B

encontrar una base ortonormal de R3 .

7. Sea A una matriz de 2× 2 con coeficientes en R . Considere X e Y

en M(2× 1 , R) , se define

〈X, Y 〉A = Y tAX

(a) Demostrar que 〈, 〉A es un producto interno en M(2 × 1 , R) si

y solo si A = At , a11 > 0 , a22 > 0 y det(A) > 0 .

(b) Calcular el angulo entre

(1

2

)y

(−1

1

)para A =

(4 1

1 2

)

Page 42: Álgebra Multilineal

42 CAPITULO 1. ESPACIOS CON PRODUCTO INTERNO

8. Sea E un espacio vectorial de dimension finita con producto interno

〈, 〉. Se define T : E → L(E) como:

T (y)(x) = 〈y, x〉.

a) Demuestre que T es lineal.

b) Demuestre que T es inyectiva.

c) Demuestre que T es sobreyectiva.

9. Sea E un espacio vectorial con producto interno 〈, 〉. Sean x, y ∈ E.

a) Demuestre que ‖x + y‖ ≤ ‖x‖+ ‖y‖.b) Demuestre que ‖x + y‖ = ‖x‖+ ‖y‖ si y solo si x = αy, α ≥ 0.

10. Se define la funcion 〈, 〉 : R2 × R2 → R como

〈(x1, x2), (y1, y2)〉 = x1y1 + 3x2y2.

(a) Demuestre que 〈, 〉 es un producto interno para R2.

(b) Con respecto al producto interno en a), calcule el angulo entre

los vectores (0, 2) y (3,√

3).

(c) Con respecto al producto interno en a), calcule el angulo orientado

entre los vectores (0, 2) y (3,√

3).

(d) Con respecto al producto interno en a), encuentre una base

ortonormal para R2.

11. Pruebe que (a× b)× c =< a, c > b − < b, c > a .

12. Sea P2[0, 1] = p : [0, 1] → R : p(x) = a + bx + cx2 ; a, b, c ∈ R .

Considere el producto interno definido por

〈p, q〉 =

∫ 1

0

p(x) q(x) dx

Page 43: Álgebra Multilineal

1.4. EJERCICIOS DE RECAPITULACION 43

(a) Calcular el volumen del paralelepıpedo: V (1, x) .

(b) Sea E = 〈1, 2x + 3〉 , calcular E⊥ .

(c) Dados x1 = 3 + x2 , x2 = 1− x , x3 = 1 + x + x2 , x4 = x + 4x2 ,

en P2[0, 1] , hallar el determinante de Gram G(x1, x2, x3, x4) .

13. Sea B una funcion bilineal con la propiedad que B(A) = 0 para todas

las matrices A ∈ M(2× 2,R) que tienen filas iguales. Demuestre que

B es antisimetrica.

14. Sea T un operador lineal sobre Rn . Defina

DT (α1, . . . , αn) = det(T (α1), . . . , T (αn))

(a) Demostrar que DT es una funcion determinante.

(b) Si c = det(T (e1), . . . , T (en)) demostrar que para n vectores

α1, . . . , αn arbitrarios se tiene det(T (α1), . . . , T (αn)) = c det(α1, . . . , αn) .

15. Sean xi y xj bases ortonormales de un espacio vectorial E, con

producto interno y de dimension n. Demuestre que existe una matriz

ortogonal A = (aij) tal que xi =∑

j

aijxj.

16. Sean ∆ y ∆1 dos funciones determinantes en un espacio vectorial E,

∆1 6= 0. Demuestre que existe λ ∈ R tal que ∆ = λ∆1.

17. Demuestre que el determinante de Gram de un conjunto de vectores

x1, x2, ..., xn es cero si y solo si el conjunto x1, x2, ..., xn es lineal-

mente dependiente.

18. Una forma bilineal φ : E × E → R se dice antisimetrica si φ(x, y) =

−φ(y, x) para cada (x, y) ∈ E × E. Demostrar que cualquier forma

bilineal φ : E × E −→ R es la suma de una forma bilineal simetrica y

una forma bilineal antisimetrica.

Page 44: Álgebra Multilineal

44 CAPITULO 1. ESPACIOS CON PRODUCTO INTERNO

19. Sea ∆((x1, y1), (x2, y2)) = x2y1 − x1y2.

(a) Demuestre que ∆ es una funcion determinante.

(b) Sean x = (1, 1), y = (−1, 0). Encuentre el angulo orientado entre

x e y.

20. Sean x = (1, 1, 1, 1), y = (−1, 1,−1, 1) dos vectores en R4.

(a) Calcule el angulo entre x e y.

(b) Encuentre la proyeccion ortogonal de R4 sobre E1, el subespacio

generado por (0, 1, 0, 0), (0, 0, 1, 0).(c) Encuentre E⊥

1 .

(d) Verifique que E⊥1

⋂E1 = 0

21. Considere el espacio vectorial R3 con el producto interno usual.

(a) Demuestre que 〈u× v, w〉 = 〈u, v × w〉.(b) Calcule el volumen del paralelepipedo determinado por los vec-

tores e1 + e2, 3e1 − 2e3,−7e2 + 3e3.

22. Sea P1[0, 1] = p : [0, 1] → R : p(x) = a + bx; a, b ∈ R. Dados los

vectores 1, x en P1[0, 1] , construir una base ortonormal para P1[0, 1]

con el producto interno definido por

〈p, q〉 = a1a2 +a1b2 + b1a2

2+

b1b2

3,

donde p(x) = a1 + b1x y q(x) = a2 + b2x.

23. Sea T : P1[0, 1] → R tal que T (p) = 2a + b; donde p(x) = a + bx. Sea

〈, 〉 el producto interno para P1[0, 1] definido en el problema anterior.

Encuentre q ∈ P1[0, 1] tal que:

T (p) = 〈q, p〉 para cada p ∈ P1[0, 1].

Page 45: Álgebra Multilineal

1.4. EJERCICIOS DE RECAPITULACION 45

24. Sea E un e.v.p.i. Sean x, y, z ∈ E. Demuestre que

‖x− y‖‖z‖ ≤ ‖y − z‖‖x‖+ ‖z − x‖‖y‖.

25. Calcule el volumen del paralelepipedo generado por los vectores (−5, 6), (1, 7).

Page 46: Álgebra Multilineal

Capıtulo 2

Transformaciones lineales

2.1 Espacios vectoriales normados

Definiremos por medio de tres axiomas lo que entenderemos por una norma,

concepto ya conocido.

Definicion 39 Sea E e.v. sobre R de dimension finita o infinita. Una nor-

ma en E es una funcion ‖ · ‖ : E −→ R con las siguientes propiedades :

N1 : ‖x‖ ≥ 0 ∀x ∈ E y ‖x‖ = 0 ssi x = 0

N2 : ‖x + y‖ ≤ ‖x‖+ ‖y‖

N3 : ‖λx‖ = |λ| ‖x‖.

Un e.v. donde se define una norma se llama e.v normado. La distancia entre

dos vectores x e y en un e.v. normado se define por

d(x, y) = ‖x− y‖.

46

Page 47: Álgebra Multilineal

2.1. ESPACIOS VECTORIALES NORMADOS 47

Observacion : N1, N2 y N3 implican, respectivamente :

d(x, y) > 0 si x 6= y

d(x, y) ≤ d(x, z) + d(z, y) (Desigualdad triangular)

d(x, y) = d(y, x).

Esto dice que d es una metrica en E y define una topologıa en E.

Ejemplos

1) Cada espacio producto interno es un espacio normado, con la norma defini-

da por

‖x‖ =√〈x, x〉.

2) Si C = C[0, 1] entonces una norma se define por

‖f‖ := supt∈[0,1]

|f(t)|.

3) Sea E e.v. de dimension n. Sea en base de E. Se define la norma de un

vector x =∑n

i=1 αiei por

‖x‖ =∑

i

|αi|.

2.1.1 Transformaciones lineales acotadas

Definicion 40 Sea E e.v. normado. Una transformacion lineal ϕ : E −→ E

se llama acotada si existe un numero M tal que

‖ϕ(x)‖ ≤ M‖x‖ ; para cada x ∈ E.

Page 48: Álgebra Multilineal

48 CAPITULO 2. TRANSFORMACIONES LINEALES

Proposicion 41 Una transformacion lineal es acotada si y solo si es con-

tinua.

Demostracion. Sea T : E −→ E una transformacion lineal. Supongamos

que T es acotada.

Sea xn −→ x entonces ‖T (xn)− T (x)‖ = ‖T (xn − x)‖ ≤ M‖xn − x‖ −→ 0.

Por lo tanto, T es continua.

Reciprocamente, supongamos que T es continua. Entonces para ε = 1 existe

δ > 0 tal que si ‖x‖ < δ entonces ‖T (x)‖ < 1.

Sea y ∈ E. Entonces para x :=y

‖y‖δ

2se tiene que ‖x‖ < δ. Luego

‖T (y)‖ =

∥∥∥∥T

(2‖y‖

δx

)∥∥∥∥ ≤2‖y‖

δ‖T (x)‖ ≤ 2

δ‖y‖ = M‖y‖.

Por lo tanto, T es acotada.

Observacion : Se define el conjunto

B(E, E) := T : E −→ E / T es lineal y acotado ,

el cual es un subespacio de L(E; E) := L : E −→ E / T es lineal .

Sea ϕ ∈ B(E, E). Entonces el conjunto

‖ϕ(x)‖ : ‖x‖ = 1

es acotado. Denotemos :

‖ϕ‖ = sup‖x‖=1

‖ϕ(x)‖.

Notar que ‖ϕ(x)‖ ≤ ‖ϕ‖ ‖x‖.

Proposicion 42 ‖ · ‖ es una norma en B(E,E).

Page 49: Álgebra Multilineal

2.1. ESPACIOS VECTORIALES NORMADOS 49

Demostracion.

N1 : ‖ϕ‖ ≥ 0 es obvio por definicion. Si ‖ϕ‖ = 0 entonces sup‖x‖=1

‖ϕ(x)‖ = 0,

esto implica que ϕ(x) = 0 para todo x, ‖x‖ = 1. Luego, ϕ ≡ 0 (Ejercicio).

Inversamente, si ϕ ≡ 0 entonces ‖ϕ‖ = 0 evidentemente.

N3 : ‖λϕ‖ = sup‖x‖=1

|λϕ(x)| = |λ| sup‖x‖=1

|ϕ(x)| = |λ| ‖ϕ‖.

N2 : Para cada x ∈ E,

‖(ϕ + ψ)(x)‖ = ‖ϕ(x) + ψ(x)‖ ≤ ‖ϕ(x)‖+ ‖ψ(x)‖ ≤ (‖ϕ‖+ ‖ψ‖)‖x‖;

por lo tanto,‖ϕ + ψ‖ ≤ ‖ϕ‖+ ‖ψ‖.

Observacion : ‖ · ‖ tiene la propiedad adicional :

‖ψ ϕ‖ ≤ ‖ψ‖ ‖ϕ‖.

Ejercicios

1. Una sucesion infinita de vectores (xn) en un e.v. normado E se dice

convergente a x si : ∀ ε > 0 ∃ N tal que ‖xn − x‖ < ε ∀ n > N

(a) Demuestre que cada sucesion convergente satisface el siguiente

criterio de Cauchy : ∀ ε > 0 ∃ N tal que ‖xn−xm‖ < ε si n > N ,

m > M .

(b) Demuestre que cada sucesion de Cauchy en un e.v. normado de

dimension finita es convergente.

(c) De un ejemplo que muestre que (b) no es cierto si la dimension

es infinita.

Page 50: Álgebra Multilineal

50 CAPITULO 2. TRANSFORMACIONES LINEALES

2. Un e.n. se llama completo si cada sucesion de Cauchy es convergente.

Sea E e.n. completo y ϕ : E −→ E una transformacion lineal tal que

‖ϕ‖ ≤ 1. Demuestre que la serie∑∞

n=0 ϕn es convergente y que la

transformacion lineal

ψ =∞∑

n=0

ϕn

tiene las siguientes propiedades :

(a) (1− ϕ) ψ = ψ (1− ϕ) = 1

(b) ‖ϕ‖ ≤ 1

1− ‖ϕ‖ .

2.2 Transformaciones lineales en espacios con

producto interno

En todo lo que sigue se supone que los espacios vectoriales son de dimension

finita.

2.2.1 Transformacion adjunta

Sean E, F e.v. Sea ϕ : E −→ F lineal. Sean E∗, F ∗ e.v. duales de E y

F respectivamente. Entonces ϕ induce ϕ∗ : F ∗ −→ E∗ una transformacion

lineal definida por

〈ϕ∗(y∗), x〉 = 〈y∗, ϕ(x)〉 ; x ∈ E , y∗ ∈ F ∗.

En el sentido anterior ϕ∗ y ϕ se llaman duales.

Page 51: Álgebra Multilineal

2.2. TRANSFORMACIONES LINEALES EN ESPACIOS CON PRODUCTO INTERNO51

Definicion 43 ϕ∗ se llama la transformacion adjunta.

Si E y F son e.v. con producto interno; reemplazando la dualidad 〈, 〉 por el

producto interno, se obtiene la relacion

〈ϕ(x), y〉F = 〈x, ϕ∗(y)〉E ; x ∈ E , y ∈ F (2.1)

de esta manera cada ϕ : E −→ F determina una transformacion lineal

ϕ∗ : F −→ E.

Observacion : (ϕ∗)∗ = ϕ.

Demostracion. ϕ∗ y (ϕ∗)∗ estan relacionadas por :

〈ϕ∗(y), x〉 = 〈y, (ϕ∗)∗(x)〉 (2.2)

luego, de (2.1) y (2.2) se tiene que

〈ϕ(x), y〉 = 〈(ϕ∗)∗(x), y〉 ∀ y ∈ F , x ∈ E

con lo que ϕ∗∗ = ϕ.

Ejercicio : Mostrar que, con respecto a bases ortonormales, la matriz de

una transformacion adjunta corresponde a la matriz traspuesta.

2.2.2 Transformacion lineal adjunta

Sea E e.v. con producto interno y consideremos el caso F = E. Entonces a

cada transformacion lineal ϕ : E −→ E le corresponde una transformacion

Page 52: Álgebra Multilineal

52 CAPITULO 2. TRANSFORMACIONES LINEALES

lineal adjunta ϕ∗ : E −→ E. Si e y e son vectores propios de ϕ y ϕ∗

respectivamente. Entonces

ϕ(e) = λe

y

ϕ∗(e) = µe.

Pero, por definicion

〈ϕ(e), e〉 = 〈λe, e〉 = λ〈e, e〉

y

〈e, ϕ∗(e)〉 = 〈e, µe〉 = µ〈e, e〉

lo que implica que λ = µ si 〈e, e〉 6= 0. Por lo tanto, si ϕ(e) = λe entonces

ϕ∗(e) = λe.

2.2.3 La relacion entre transformaciones lineales y fun-

ciones bilineales

Sea ϕ : E −→ E una transformacion lineal. Sea E e.v. con producto interno

〈, 〉. Entonces se puede definir una forma bilineal :

φ(x, y) := 〈ϕ(x), y〉.

De esta manera es posible definir una funcion

ρ : L(E; E) −→ B(E × E) = b : E × E −→ R / b es bilineal

por ρ(ϕ) = φ. Esto es, ρ(ϕ)(x, y) = 〈ϕ(x), y〉, para cada x, y ∈ E.

Teorema 44 L(E; E) ∼= B(E × E).

Page 53: Álgebra Multilineal

2.2. TRANSFORMACIONES LINEALES EN ESPACIOS CON PRODUCTO INTERNO53

Demostracion. Probaremos que ρ es un isomorfismo.

1) ρ es lineal : Para cada (x, y) ∈ E × E,

ρ(λϕ + ψ)(x, y) = 〈(λϕ + ψ)(x), y〉= 〈λϕ(x), y〉+ 〈ψ(x), y〉= λρ(ϕ)(x, y) + ρ(ψ)(x, y)

= (λρ(ϕ) + ρ(ψ))(x, y).

2) ρ es 1-1 :

Si ρ(ϕ) = 0 entonces ρ(ϕ)(x, y) = 0 ∀x, ∀ y. Luego, 〈ϕ(x), y〉 = 0 ∀ x,∀ y.

De esta manera ϕ(x) = 0 ∀x. Por lo tanto, ϕ ≡ 0.

3) ρ es sobreyectiva :

Sea φ ∈ B(E × E). Sea x ∈ E fijo y definamos fx : E −→ R por

fx(y) := φ(x, y) entonces fx ∈ L(E).

Por Teorema de Representacion de Riesz (Teorema 11), existe un unico ax

en E tal que

fx(y) = 〈ax, y〉 ∀ y ∈ E.

Sea ϕ : E −→ E definida por : ϕ(x) = ax. Entonces ϕ es lineal (Ejercicio) y

〈ϕ(x), y〉 = 〈ax, y〉 = fx(y) = φ(x, y)

o sea

ρ(ϕ)(x, y) = φ(x, y) o ρ(ϕ) = φ

con lo que se prueba el teorema.

Ası, existe una correspondencia inyectiva entre las funciones lineales y

las bilineales en E. En particular, la identidad (en L(E; E)) corresponde al

producto interno (en B(E × E)).

Page 54: Álgebra Multilineal

54 CAPITULO 2. TRANSFORMACIONES LINEALES

Nota : Se tienen las correspondencias siguientes :

L(E; E)ρ←→ B(E × E)

I ←→ 〈, 〉ϕ ←→ ρ(ϕ) := φ

ϕ∗ ←→ ρ(ϕ∗)

Sea φ la funcion bilineal que corresponde a la transformacion adjunta. En-

tonces

φ(x, y) = 〈ϕ∗(x), y〉= 〈x, ϕ(y)〉= 〈ϕ(y), x〉= φ(y, x).

Luego, φ es igual a φ pero intercambiando los argumentos (esto es, simetrica,

lo cual sera estudiado en detalle posteriormente.)

2.2.4 Transformaciones normales

Definicion 45 Una transformacion lineal ϕ : E −→ E se dice normal si

ϕ∗ ϕ = ϕ ϕ∗.

Proposicion 46 Son equivalentes :

(a) ϕ es normal

(b) 〈ϕ(x), ϕ(y)〉 = 〈ϕ∗(x), ϕ∗(y)〉 ∀ x, y ∈ E.

Page 55: Álgebra Multilineal

2.2. TRANSFORMACIONES LINEALES EN ESPACIOS CON PRODUCTO INTERNO55

Demostracion. Si ϕ es normal se tiene que

〈ϕ(x), ϕ(y)〉 = 〈x, (ϕ∗ ϕ)(y)〉= 〈x, (ϕ ϕ∗)(y)〉= 〈ϕ∗(x), ϕ∗(y)〉.

Recıprocamente, supongamos que (b) vale, entonces :

〈y, (ϕ∗ ϕ)(x)〉 = 〈ϕ(y), ϕ(x)〉 = 〈ϕ∗(y), ϕ∗(x)〉 = 〈y, (ϕ ϕ∗)(x)〉 ∀ y.

Luego, (ϕ∗ ϕ)(x) = (ϕ ϕ∗)(x) ∀x. Por lo tanto, ϕ∗ ϕ = ϕ ϕ∗.

Corolario 47 Si ϕ es normal, entonces ‖ϕ(x)‖ = ‖ϕ∗(x)‖ para cada x ∈ E.

Demostracion.

‖ϕ(x)‖2 = 〈ϕ(x), ϕ(x)〉 = 〈ϕ∗(x), ϕ∗(x)〉 = ‖ϕ∗(x)‖2.

Ejercicio: Suponga que E es un espacio vectorial con producto interno.

Pruebe que si ‖ϕ(x)‖ = ‖ϕ∗(x)‖ ∀ x ∈ E, entonces ϕ es normal.

2.2.5 Transformaciones autoadjuntas

Definicion 48 Una transformacion lineal ϕ : E −→ E se dice autoadjunta

si ϕ∗ = ϕ.

Teorema 49 Sea E e.v. con producto interno de dimension finita. Sea

ϕ : E −→ E autoadjunta. Entonces E posee una base ortonormal de vectores

propios.

Page 56: Álgebra Multilineal

56 CAPITULO 2. TRANSFORMACIONES LINEALES

Demostracion. Sea F : E −→ R definida por F (x) =〈x, ϕ(x)〉‖x‖2

, x 6= 0.

Claramente F es continua. Como x ∈ E / ‖x‖ = 1 es un subconjunto

cerrado y acotado de E, se tiene que inf‖x‖=1

F (x) se alcanza en el subconjunto,

esto es, existe e1 ∈ E, ‖e1‖ = 1 tal que

F (e1) = inf‖x‖=1

F (x). (2.3)

Luego : F (e1) ≤ F (y) para cada y ∈ E, ‖y‖ = 1. Mas aun

F (e1) ≤ F (x) ∀ x ∈ E. (2.4)

En efecto : Si x ∈ E, x 6= 0 y se define y :=x

‖x‖ , entonces ‖y‖ = 1 y luego

por (2.3) :

F (e1) ≤ F (y) = 〈y, ϕ(y)〉=

⟨x

‖x‖ , ϕ(x

‖x‖)

=〈x, ϕ(x)〉‖x‖2

= F (x).

Afirmacion : e1 es un vector propio de ϕ.

Mas aun, probaremos que el valor propio es 〈e1, ϕ(e1)〉. Esto es :

ϕ(e1) = 〈e1, ϕ(e1)〉e1. (2.5)

En efecto: Sea y ∈ E. Definamos f : R −→ R por

f(t) = F (e1 + ty).

De (2.4), f(0) = F (e1) ≤ F (x) ∀x ∈ E. En particular, para cada e1+ty ∈ E.

Esto es :

f(0) ≤ F (e1 + ty) = f(t) ∀ t ∈ R.

Page 57: Álgebra Multilineal

2.2. TRANSFORMACIONES LINEALES EN ESPACIOS CON PRODUCTO INTERNO57

Esto dice que f(0) es un mınimo de f (recuerde que f ′(x) = 0 si y solo si x

es punto critico, esto es maximo o minimo, de f) . Luego :

f ′(0) = 0 (2.6)

De la definicion de F obtenemos :

f(t) = F (e1 + ty) =〈e1 + ty, ϕ(e1 + ty)〉〈e1 + ty, e1 + ty〉

=〈e1 + ty, ϕ(e1) + tϕ(y)〉

〈e1 + ty, e1 + ty〉 .

Derivando esta funcion y evaluando en t = 0 se obtiene :

f ′(0) = 〈e1, ϕ(y)〉+ 〈y, ϕ(e1)〉 − 2〈e1, ϕ(e1)〉〈e1, y〉 (2.7)

En efecto: Se tiene la igualdad :

〈e1 + ty, e1 + ty〉f(t) = 〈e1 + ty, ϕ(e1) + tϕ(y)〉

o equivalentemente

(1+2t〈y, e1〉+t2〈y, y〉)f(t) = 〈e1, ϕ(e1)〉+t〈e1, ϕ(y)〉+t〈y, ϕ(e1)〉+t2〈y, ϕ(y)〉.

Derivando con respecto a t, obtenemos

(2〈y, e1〉+ 2t〈y, y〉)f(t) + (1 + 2t〈y, e1〉+ t2〈y, y〉)f ′(t)= 〈e1, ϕ(y)〉+ 〈y, ϕ(e1)〉+ 2t〈y, ϕ(y)〉.

Evaluando en t = 0 :

2〈y, e1〉f(0) + f ′(0) = 〈e1, ϕ(y)〉+ 〈y, ϕ(e1)〉.

Notar que f(0) = F (e1) = 〈e1, ϕ(e1)〉 luego,

f ′(0) = 〈e1, ϕ(y)〉+ 〈y, ϕ(e1)〉 − 2〈y, e1〉〈e1, ϕ(e1)〉

Page 58: Álgebra Multilineal

58 CAPITULO 2. TRANSFORMACIONES LINEALES

lo cual prueba (2.7).

Teniendo probado (2.7) y usando el hecho que ϕ es autoadjunta se tiene:

f ′(0) = 2〈ϕ(e1), y〉 − 2〈e1, ϕ(e1)〉〈e1, y〉.

Usando ahora (2.6) da:

〈ϕ(e1), y〉 = 〈e1, ϕ(e1)〉〈e1, y〉= 〈e1〈e1, ϕ(e1)〉, y〉

de esta manera

〈ϕ(e1)− 〈e1, ϕ(e1)〉e1, y〉 = 0 ∀ y ∈ E.

Por lo tanto,

ϕ(e1) = 〈e1, ϕ(e1)〉e1.

Esto prueba la afirmacion.

Veamos ahora como se construye una base de vectores ortonormales.

Sea F1 := 〈e1〉 el subespacio (de dimension 1) generado por e1. Entonces

ϕ(F1) ⊆ F1 pues ϕ(e1) = λe1. Esto, y el hecho que ϕ es autoadjunta, implica

que ϕ(F⊥1 ) ⊆ F⊥

1 . (En efecto: Sea y ∈ F⊥1 entonces < y, f >= 0 para cada

f ∈ F1. Luego, para cada g ∈ F1 se tiene < ϕ(y), g >=< y, ϕ(g) >= 0 donde

ϕ(g) ∈ F1. Esto implica que ϕ(y) ∈ F⊥1 ).

Sea ϕ1 : F⊥1 −→ F⊥

1 definida como la restriccion de ϕ a F⊥1 . Claramente

ϕ1 es autoadjunta y luego se puede aplicar la construccion anterior para

obtener un vector e2 ∈ F⊥1 . Ası 〈e2, e1〉 = 0. Continuando de esta manera se

obtiene un sistema de n vectores e1, e2, . . . , en tales que

〈ei, ej〉 = δij.

estos vectores ei forman una base ortonormal de E. En esta base, la

aplicacion ϕ toma la forma :

ϕ(ei) = λiei

Page 59: Álgebra Multilineal

2.2. TRANSFORMACIONES LINEALES EN ESPACIOS CON PRODUCTO INTERNO59

donde λi es el valor propio de ei. Esto prueba el teorema.

Definicion 50 Sea λ un valor propio de una transformacion lineal ϕ : E −→E. Se define el espacio propio correspondiente al valor propio λ como el

conjunto

E(λ) := x ∈ E / ϕ(x) = λx.

Proposicion 51 Sean λ1 y λ2 valores propios de una transformacion lin-

eal autoadjunta. Si λ1 6= λ2 entonces E(λ1)⊥E(λ2) (i.e. espacios propios

correspondientes a valores propios diferentes de una transformacion lineal

autoadjunta, son ortogonales).

Demostracion. Sea e1 ∈ E(λ1) y e2 ∈ E(λ2). Entonces ϕ(e1) = λ1e1,

ϕ(e2) = λ2e2. Luego :

(λ1 − λ2)〈e1, e2〉 = 〈λ1e1, e2〉 − 〈e1, λ2e2〉= 〈ϕ(e1), e2〉 − 〈e1, ϕ(e2)〉= 〈ϕ(e1), e2〉 − 〈ϕ(e1), e2〉= 0

como λ1 6= λ2 entonces 〈e1, e2〉 = 0.

Proposicion 52 Sean λ1, . . . , λr los valores propios diferentes de ϕ (au-

toadjunta) entonces E = E(λ1)⊕ · · · ⊕ E(λr).

Demostracion. Claramente E(λi)∩E(λj) = 0 (pues E(λi)⊥E(λj)) ∀ i 6=j. Por otra parte, si x ∈ E; como existe una base ortonormal de vectores

propios, digamos ei, se tiene :

x = 〈x, e1〉e1︸ ︷︷ ︸∈E(λ1)

+ · · ·+ 〈x, en〉en︸ ︷︷ ︸∈E(λr)

Page 60: Álgebra Multilineal

60 CAPITULO 2. TRANSFORMACIONES LINEALES

esto prueba la proposicion.

2.2.6 Vectores propios de funciones bilineales

Recordemos que L(E; E) := ϕ : E −→ E / ϕ es lineal. Vimos que

L(E; E) ∼= B(E × E) siendo el isomorfismo explıcitamente dado como ρ :

L(E; E) −→ B(E × E) tal que

ρ(ϕ)(x, y) = 〈ϕ(x), y〉.

En particular, a cada funcion bilineal b ∈ B(E × E) le corresponde ϕ ∈L(E; E) tal que se verifica la siguiente relacion

〈ϕ(x), y〉 = b(x, y) ∀x, y ∈ E.

Usando esta relacion se definen vectores y valores propios para b ∈ B(E×E)

como los que corresponden a ϕ. En otras palabras : λ ∈ C es un valor propio

para b si lo es para ϕ, donde ϕ es la unica transformacion lineal tal que

〈ϕ(x), y〉 = b(x, y).

Analogamente se pueden definir vectores propios (Ejercicio).

Como una aplicacion de lo anterior se tiene el siguiente resultado.

Teorema 53 Sea b una funcion bilineal simetrica (i.e. b(x, y) = b(y, x)) en

E × E. Entonces existe una base ortonormal en de E tal que b tiene una

forma diagonal. Esto es, existen escalares λi en C tal que

b(ei, ej) = λiδij.

Page 61: Álgebra Multilineal

2.2. TRANSFORMACIONES LINEALES EN ESPACIOS CON PRODUCTO INTERNO61

Demostracion. Sea b bilineal. Entonces existe una unica ϕ en L(E) tal que

b(x, y) = 〈ϕ(x), y〉. Como b(x, y) = b(y, x), entonces 〈ϕ(x), y〉 = 〈x, ϕ(y)〉.Luego; ϕ = ϕ∗ (i.e. ϕ es autoadjunta). Por lo tanto, existe una base ende E que consiste de vectores propios de E. Sean λn los correspondientes

valores propios. Entonces ϕ(en) = λnen. Luego :

b(ei, ej) = 〈ϕ(ei), ej〉= 〈λiei, ej〉= λi〈ei, ej〉= λiδij.

2.2.7 Proyecciones ortogonales

Sea E un e.v. con producto interno 〈, 〉, no necesariamente de dimension

finita. La siguiente definicion generaliza el concepto de proyeccion.

Definicion 54 Una transformacion lineal π : E −→ E se dice una proyec-

cion ortogonal si es autoadjunta y satisface π2 = π.

Ejemplo. Sea e ∈ E tal que ||e|| = 1. Se define P : E → 〈e〉 =: E1 tal

que P (x) = 〈x, e〉e. Es claro que P es autoadjunta pues:

〈P (x), y〉 = 〈〈x, e〉e, y〉 = 〈x, e〉〈e, y〉= 〈y, e〉〈x, e〉 = 〈x, 〈y, e〉e〉 = 〈x, P (y)〉.

Ademas, P 2 = P pues:

P (P (x)) = P (〈x, e〉e) = 〈x, e〉P (e) = 〈x, e〉〈e, e〉e = 〈x, e〉e = P (x).

Page 62: Álgebra Multilineal

62 CAPITULO 2. TRANSFORMACIONES LINEALES

Proposicion 55 Si π es una proyeccion ortogonal entonces E = ker π⊕imπ.

Demostracion. Sea x ∈ ker π ∩ imπ. Entonces π(x) = 0 y existe z en E

tal que x = π(z). Luego, 0 = π(x) = π2(z) = π(z) = x. Por lo tanto,

ker π ∩ imπ = 0.

Por otra parte, dado x ∈ E escribimos :

x = (x− π(x)) + π(x).

Entonces x−π(x) ∈ ker π pues π(x−π(x)) = π(x)−π2(x) = π(x)−π(x) = 0

y π(x) ∈ imπ por definicion. Hemos probado la proposicion.

Observacion : La restriccion de π a imπ es la identidad, esto es : ∀ y ∈imπ ; π(y) = y. En efecto : Si y ∈ imπ entonces y = π(x), x ∈ E. Luego,

π(y) = π2(x) = π(x) = y.

Proposicion 56 Sea E1 un subespacio de E. Entonces existe una unica

proyeccion ortogonal π : E −→ E tal que imπ = E1.

Demostracion. Se define

π(y) =

y si y ∈ E1

0 si y ∈ E⊥1

y es facil verificar que π2 = π y π∗ = π (Ejercicio).

Page 63: Álgebra Multilineal

2.2. TRANSFORMACIONES LINEALES EN ESPACIOS CON PRODUCTO INTERNO63

2.2.8 Suma de dos proyecciones

Sean π1 : E −→ E1, π2 : E −→ E2 proyecciones ortogonales (i.e. E1 = imπ1,

E2 = imπ2). Queremos saber si la suma π1 +π2 es una proyeccion ortogonal.

Como una preparacion para el resultado que nos da la respuesta, veamos la

siguiente :

Proposicion 57 Sean E1, E2 subespacios de E y sean π1 : E −→ E1 y

π2 : E −→ E2 las proyecciones ortogonales. Entonces π2 π1 = 0 si y solo si

E1⊥E2.

Demostracion. Si E1⊥E2 entonces dado x ∈ E se tiene que 〈y, π1(x)〉 = 0

para todo y en E2. Luego, π1(x) ∈ E⊥2 .

Notar que π2(z) = 0 si z ∈ E⊥2 . En efecto: ‖π2(z)‖2 = 〈π2(z), π2(z)〉 =

〈z, π22(z)〉 = 〈z, π2(z)〉 = 0. Esto implica que π2 π1(x) = 0.

Inversamente, si π2 π1 = 0 entonces π1x ∈ E⊥2 para todo x en E. En

efecto: Si π2(π1(x)) = 0 entonces π1(x) ∈ ker π2. Como E = ker π2 ⊕ imπ2

se deduce que E⊥2 = (imπ2)

⊥ = ker π2. Ası, π1(x) ∈ E⊥2 .

Luego, E1 ⊂ E⊥2 . En efecto: Si z ∈ E1 = imπ1 entonces z = π1(x), x ∈ E,

luego z ∈ E⊥2 .

Sean ahora x1 ∈ E1 (luego, x1 ∈ E⊥2 ,) y x2 ∈ E2. Entonces 〈x1, x2〉 = 0. Por

lo tanto, E1⊥E2.

Teorema 58 π1 + π2 es una proyeccion sobre E1 ⊕ E2 si y solo si E1⊥E2.

Demostracion. Sea π := π1 + π2. Vamos a ver que π es la proyeccion de E

sobre E1 ⊕ E2.

Claramente π es lineal, pues es la suma de transformaciones lineales. Tambien

π es autoadjunta, por lo mismo. Resta ver que π2 = π. Para esto, vamos a

Page 64: Álgebra Multilineal

64 CAPITULO 2. TRANSFORMACIONES LINEALES

ver que π(x1 + x2) = x1 + x2 en E1 ⊕ E2 y π(x) = 0 en (E1 ⊕ E2)⊥. Esto

probara que π es la proyeccion de E sobre E1 ⊕ E2.

En efecto: Por linealidad, si x1 + x2 ∈ E1 ⊕ E2 se tiene:

π(x1 + x2) = π(x1) + π(x2)

= (π1 + π2)(x1) + (π1 + π2)(x2)

= π1(x1) + (π1 + π2)(x2)

= π1(x1) + π2(x2)

= x1 + π2(x2)

= x1 + x2.

Por otra parte, observemos que:

(E1 ⊕ E2)⊥ = E⊥

1 ∩ E⊥2 (∗)

Luego: Si x ∈ (E1 ⊕ E2)⊥ entonces x ∈ E⊥

1 y x ∈ E⊥2 , de esta manera

x ∈ ker π1 y x ∈ ker π2. Por lo tanto, π(x) = π1(x) + π2(x) = 0 + 0 = 0.

Verifiquemos (*) :

Sea x ∈ (E1 ⊕ E2)⊥ entonces 〈x, x1 + x2〉 = 0 ∀x1 ∈ E1, x2 ∈ E2. Luego,

〈x, x1〉 = 0 (con x2 = 0) y 〈x, x2〉 = 0 (con x1 = 0) lo que implica que x ∈ E⊥1

y x ∈ E⊥2 . Por lo tanto, x ∈ E⊥

1 ∩ E⊥2 .

Inversamente, sea x ∈ E⊥1 ∩ E⊥

2 . Entonces 〈x, x1〉 = 0 ∀ x1 ∈ E1, 〈x, x2〉 =

0 ∀x2 ∈ E2. Sea y ∈ E1 ⊕ E2. Entonces y = y1 + y2; y1 ∈ E1, y2 ∈ E2.

Luego: 〈x, y〉 = 〈x, y1〉 + 〈x, y2〉 = 0 + 0 = 0. Ası x ∈ (E1 ⊕ E2)⊥. De esta

manera, hemos probado que π1 + π2 es una proyeccion sobre E1 ⊕ E2.

Supongamos ahora que π1 +π2 es una proyeccion ortogonal. Vamos a probar

que E1⊥E2. Para esto probaremos, equivalentemente por Proposicion 58,

que π1 π2 = 0. En efecto: Por hipotesis,

(π1 + π2)2 = π1 + π2

Page 65: Álgebra Multilineal

2.2. TRANSFORMACIONES LINEALES EN ESPACIOS CON PRODUCTO INTERNO65

o equivalentemente

(π1 + π2) (π1 + π2) = π1 + π2

o sea,

π21 + π1 π2 + π2 π1 + π2

2 = π1 + π2

lo que es equivalente a

π1 + π1 π2 + π2 π1 + π2 = π1 + π2

de esta manera,

π1 π2 + π2 π1 = 0 (2.8)

componiendo por π1 a la derecha tenemos:

π1 π2 π1 + π2 π1 = 0 (2.9)

y componiendo en (2.8) por π1 a la izquierda tenemos :

π1 π2 + π1 π2 π1 = 0.

Luego, sumando las expresiones anteriores da :

π1 π2 π1 + π2 π1 + π1 π2︸ ︷︷ ︸=0 por (2.8)

+π1 π2 π1 = 0

ası,

π1 π2 π1 = 0

y reemplazando esto ultimo en (2.9) obtenemos :

π2 π1 = 0

esto prueba el teorema.

Lema 59 Si π : E −→ E1 es una proyeccion entonces I − π es proyeccion

sobre E⊥1 .

Page 66: Álgebra Multilineal

66 CAPITULO 2. TRANSFORMACIONES LINEALES

Demostracion. Sea ψ := I − π. Es claramente autoadjunta y

ψ2 = (I − π)2 = I − 2π + π2 = I − 2π + π = I − π = ψ.

Resta ver que imψ = E⊥1 .

Sea x ∈ imψ = im (I − π) entonces x = y − π(y). Sea z ∈ E1 = imπ

entonces z = π(w) y:

〈x, z〉 = 〈y − π(y), z〉= 〈y − π(y), π(w)〉= 〈π(y)− π2(y), w〉= 〈π(y)− π(y), w〉= 0

esto implica que x ∈ E⊥1 .

Inversamente queremos probar : E⊥1 ⊆ imψ, equivalentemente:

(imψ)⊥ ⊆ E1

esto es

ker ψ ⊆ E1.

En efecto: Sea x ∈ ker ψ entonces ψ(x) = 0 esto es, (I − π)(x) = 0 o sea,

π(x) = x. Por lo tanto, x ∈ imπ = E1, lo cual prueba el lema.

Teorema 60 π1 − π2 es una proyeccion si y solo si E2 ⊆ E1.

Page 67: Álgebra Multilineal

2.2. TRANSFORMACIONES LINEALES EN ESPACIOS CON PRODUCTO INTERNO67

Demostracion.

E2 ⊆ E1 ⇐⇒ E⊥1 ⊆ E⊥

2

⇐⇒ E⊥1 ⊥E2 (Ejercicio)

⇐⇒ (I − π1) + π2 =: ϕ es proyeccion (Teorema 59 y Lema 60)

⇐⇒ I − (π1 − π2) =: ϕ es proyeccion(∗)⇐⇒ π1 − π2 es proyeccion .

(*) Si ϕ es proyeccion, entonces I−ϕ = π1−π2 es proyeccion. Inversamente,

si π1 − π2 es proyeccion entonces I − (π1 − π2) =: ϕ lo es (por Lema 60).

Veamos ahora el comportamiento del producto de proyecciones.

Teorema 61 Sean π1 : E −→ E1 y π2 : E −→ E2 dos proyecciones or-

togonales. Entonces π2 π1 es una proyeccion sobre E1 ∩ E2 si y solo si

π2 π1 = π1 π2.

Demostracion. Supongamos que π2 π1 = π1 π2.

Vamos a ver que π2 π1 : E −→ E1 ∩ E2 es una proyeccion mostrando que:

(a) (π2 π1)(x) = x para cada x ∈ E1 ∩ E2.

(b) (π2 π1)(x) = 0 para cada x ∈ (E1 ∩ E2)⊥.

En efecto:

(a) Sea x ∈ E1 ∩ E2 entonces

π2(π1(x)) = π2(x) pues x ∈ E1

= x pues x ∈ E2.

(b) Primero observamos que (E1 ∩ E2)⊥ = E⊥

1 + E⊥2 (Ejercicio). Luego,

si x ∈ (E1 ∩ E2)⊥ entonces x = x1 + x2; x1 ∈ E⊥

1 , x2 ∈ E⊥2 .

Page 68: Álgebra Multilineal

68 CAPITULO 2. TRANSFORMACIONES LINEALES

En consecuencia

π2(π1(x)) = π2(π1(x1)) + π2(π1(x2))

= π2(0) + π1(π2(x2))

= 0 + π1(0)

= 0.

Supongamos ahora que π2 π1 es una proyeccion. Entonces

π2 π1 = (π2 π1)∗ = π∗1 π∗2 = π1 π2

esto prueba el teorema.

2.3 Isometrıas

Definicion 62 Sean E, F e.v. con producto interno. Una transformacion

lineal ϕ : E −→ F es llamada isometrıa (o unitaria) si

〈ϕ(x1), ϕ(x2)〉 = 〈x1, x2〉 ; x1, x2 ∈ E.

Una caracterizacion la tenemos en el siguiente resultado.

Proposicion 63 ϕ es una isometrıa si y solo si ‖ϕ(x)‖ = ‖x‖ para cada

x ∈ E.

Demostracion.

(i) Suponer que ϕ es una isometrıa y tomar x1 = x2 = x.

(ii) 2〈ϕ(x1), ϕ(x2)〉 = ‖ϕ(x1 + x2)‖2 − ‖ϕ(x1)‖2 − ‖ϕ(x2)‖2

Page 69: Álgebra Multilineal

2.3. ISOMETRIAS 69

= ‖x1 + x2‖2 − ‖x1‖2 − ‖x2‖2

= 2〈x1, x2〉.

Observacion : Si ϕ es una isometrıa, entonces ϕ es inyectiva.

Proposicion 64 Supongamos dim E < ∞ y sea ϕ : E −→ E una isometrıa.

Entonces ϕ es un isomorfismo.

Demostracion. Es claro que ϕ es inyectiva. Para ver que es sobreyectiva,

notar que

dim(imϕ) + dim(ker ϕ) = dim E

luego, imϕ = E pues ϕ es inyectiva. (Teorema de dimension).

Observacion : En particular, en las condiciones anteriores, existe ϕ−1.

Proposicion 65 Sea dim E < ∞ y ϕ : E −→ E. Entonces ϕ es una

isometrıa si y solo si ϕ−1 = ϕ∗.

Demostracion.

(i) Sean x ∈ E, y ∈ E. Si ϕ es una isometrıa entonces 〈ϕ(x), ϕ(y)〉 = 〈x, y〉.Sea z = ϕ(x) entonces ϕ−1(z) = x. Por lo tanto, 〈z, ϕ(y)〉 = 〈ϕ−1(z), y〉luego, 〈ϕ∗(z), y〉 = 〈ϕ−1(z), y〉 ∀ y. De esta manera, ϕ∗ = ϕ−1.

(ii) Supongamos que ϕ∗ = ϕ−1. Entonces, para cada x ∈ E, y ∈ E:

〈ϕ(x), ϕ(y)〉 = 〈x, ϕ∗ϕ(y)〉 = 〈x, ϕ−1ϕ(y)〉 = 〈x, y〉.

Page 70: Álgebra Multilineal

70 CAPITULO 2. TRANSFORMACIONES LINEALES

Definicion 66 Una isometrıa ϕ : E −→ E, donde dim E < ∞, se llama

una rotacion.

Recordemos que si φ : E → E es una transformacion lineal, donde E

es un espacio de dimension finita, entonces la matriz de φ con respecto a

cualquier base de E tiene el mismo valor del determinante. De esta manera,

convenimos en denotar detφ a ese valor, y lo llamaremos el determinante de

la funcion φ.

Observacion : En vista de la formula ϕ∗ = ϕ−1, esto es, ϕϕ∗ = 1, se

tiene

(det ϕ)2 = 1

esto es, det ϕ = ±1.

Definicion 67 Una rotacion se llama propia si det ϕ = 1, e impropia si

det ϕ = −1.

Proposicion 68 Sea E un e.v. sobre R. Los valores propios de una rotacion

son +1 o -1 .

Demostracion. Sea λ valor propio de una rotacion ϕ : E −→ E con vector

propio e. Entonces

ϕ(e) = λe.

Luego ‖ϕ(e)‖ = |λ|‖e‖ pero, como ϕ es una isometrıa, se tiene que ‖e‖ =

|λ|‖e‖. De esta manera, λ = ±1.

Proposicion 69 El producto de rotaciones es una rotacion.

Demostracion. Ejercicio.

Proposicion 70 La inversa de una rotacion es una rotacion.

Page 71: Álgebra Multilineal

2.3. ISOMETRIAS 71

Demostracion. Ejercicio.

2.3.1 Comparacion con matrices

Si Q es una matriz correspondiente a una rotacion ϕ : E −→ E; entonces la

condicion ϕ∗ = ϕ−1 es equivalente a decir que Q es invertible y

Q−1 = QT

donde QT es la matriz traspuesta (suponiendo coefientes reales, de otra ma-

nera, Q∗ = QT). Este tipo de matrices se llaman tambien ortogonales.

El siguiente resultado nos indica como construir matrices ortogonales (o

rotaciones).

Teorema 71 Una matriz Q de n× n es ortogonal si y solo si las columnas

de Q forman una base ortonormal para Rn.

Demostracion.

Sea Q =

a11 a12 · · · a1n

a21 a22 · · · a2n

...

an1 an2 · · · ann

. Entonces QT =

a11 a21 · · · an1

a12 a22 · · · an2

...

a1n a2n · · · ann

.

Sea B = (bij) = QT Q; entonces

bij = a1ia1j + a2ia2j + · · ·+ anianj =n∑

p=1

apiapj

= 〈(a1i, a2i, . . . , ani), (a1j, a2j, . . . , anj)〉 (∗)

Page 72: Álgebra Multilineal

72 CAPITULO 2. TRANSFORMACIONES LINEALES

Si las columnas de Q son ortogonales :

bij =

0 si i 6= j

1 si i = j(2.10)

es decir, B = I.

inversamente, si QT = Q−1, entonces QT Q = I = B, de manera que vale

(2.10) y (*) muestra que las columnas son ortonormales.

Ejemplos

1) Es facil ver que los vectores (1/√

2, 1/√

2, 0), (−1/√

6, 1/√

6, 2/√

6),

(1/√

3,−1/√

3, 1/√

3) forman una base ortonormal en R3. Ası, la matriz

1/√

2 −1/√

6 1/√

3

1/√

2 1/√

6 −1/√

3

0 2/√

6 1/√

3

es ortogonal.

2) La matriz

(1/√

2 1/√

2

1/√

2 −1/√

2

)es ortogonal.

Ejercicios

1. Demuestre que Q =

2/3 1/3 2/3

1/3 2/3 −2/3

−2/3 2/3 1/3

es ortogonal. Halle la

rotacion ϕ : R3 −→ R3 asociada.

2. Sea ϕ1 : R2 −→ R2 definida por ϕ1(x, y) = ( 1√2x− 1√

2y, 1√

2x + 1√

2y) y

ϕ2 : R2 −→ R2 definida por (13x−

√8

3y,

√8

3x + 1

3y)

Page 73: Álgebra Multilineal

2.3. ISOMETRIAS 73

(a) Verifique que ϕ1 y ϕ2 son rotaciones.

(b) Verifique que ϕ1 ϕ2 es una rotacion.

3. Demuestre que para cada t ∈ R, la matriz

A =

(sin t cos t

cos t − sin t

)

es ortogonal. Halle la transformacion de rotacion asociada.

4. Sea Q una matriz ortogonal y v, w ∈ Rn. Demuestre que

](v, w) = ](Qv, Qw).

2.3.2 Aspectos geometricos

(a) R2.

Sea e1, e2 la base canonica de R2

-X

•e2

6

Y

•e1

Si se rotan los ejes en un angulo θ en sentido positivo alrededor del origen,

entonces e1 rota a un vector v1 y e2 rota a un vector v2 tal que v1, v2 es

una base ortonormal para R2.

Page 74: Álgebra Multilineal

74 CAPITULO 2. TRANSFORMACIONES LINEALES

-X

•e2

6

Y

•e1

¡¡

¡¡¡µ

v1 = (x, y)

@@

@@@I

v2

θ

Sea T : R2 −→ R2 tal que T (e1) = v1, T (e2) = v2. Entonces T es una

rotacion pues la matriz correspondiente es ortogonal ya que v1, v2 son las

columnas de la matriz y forman una base ortonormal.

Notemos que v1 =

(cos θ

sin θ

), v2 =

(− sin θ

cos θ

).

En efecto :

b

•¾

6

a

@@

@@@I

(a, b)

θ

Note que

v1 = (x, y) = (r cos θ, r sin θ) donde r = 1

(o se puede ver como: cos θ =cat. adj.

hip.=

x

1, sin θ =

cat. op.

hip.=

y

1).

Analogamente cos θ =cat. adj.

hip.= b , sin θ =

cat. op.hip.

= −a luego

v2 = (a, b) = (− sin θ, cos θ).

Page 75: Álgebra Multilineal

2.3. ISOMETRIAS 75

Luego: T (e1) = (cos θ, sin θ) , T (e2) = (− sin θ, cos θ). Por lo tanto,

[T ] =

(cos θ − sin θ

sin θ cos θ

).

(b) R3.

En R3 se puede rotar en sentido positivo alrededor del eje x, eje y o eje z

(ası, los ejes x, y y z forman un sistema coordenado de la mano derecha).

Ejercicios

1. Una rotacion positiva en un angulo θ alrededor del eje z producira una

base v, w, e3 donde v es vector obtenido al rotar e1 y w es el vector

obtenido al rotar e2. Demuestre que

v =

cos θ

sin θ

0

, w =

− sin θ

cos θ

0

.

Encuentre Y : R3 −→ R3 la rotacion correspondiente.

2. Una rotacion positiva en un angulo α alrededor del eje x producira

una base e1, v, w donde v es el vector obtenido al rotar e2 y w es el

vector obtenido al rotar e3. Demuestre que

v =

0

cos α

sin α

, w =

0

− sin α

cos α

.

Encuentre R : R3 −→ R3 la rotacion correspondiente.

Page 76: Álgebra Multilineal

76 CAPITULO 2. TRANSFORMACIONES LINEALES

3. Una rotacion positiva en un angulo ϕ alrededor del eje y producira

una base v, e2, w donde v es el vector obtenido al rotar e1 y w es el

vector obtenido al rotar e3. Demuestre que

v =

cos ϕ

0

− sin ϕ

, w =

sin ϕ

0

cos ϕ

.

Encuentre P : R3 −→ R3 la rotacion correspondiente.

Sean Y , R y P las transformaciones de rotacion de los ejercicios 1, 2 y 3.

Las matrices Y , R y P para cualesquiera tres angulos tienen interpretaciones

geometricas similares a la de una matriz de rotacion en R2.

Sea M cualesquiera de estas matrices de rotacion. Sea u = ae1+be2+ce3 ∈R3. Entonces r = Mu dara las coordenadas del vector obtenido al rotar el

vector u.

Por ejemplo : Y R(u) representa una rotacion positiva en un angulo α

alrededor del eje x seguida de una rotacion positiva en un angulo θ alrededor

del eje z.

Recordemos que E1 se dice un subespacio estable de E si ϕ(E1) ⊆ E1.

El principal resultado que caracteriza las rotaciones es el siguiente:

Teorema 72 Sea ϕ una rotacion. Entonces existe una descomposicion de

E en subespacios estables de dimension 1 y 2 . Esto es,

E = E1 ⊕ E2 ⊕ · · ·Er

donde dim Ei = 1 o 2 ∀ i = 1, . . . , r y∑r

i=1 dim Ei = dim E.

La demostracion de este teorema se hara en pasos sucesivos:

Page 77: Álgebra Multilineal

2.3. ISOMETRIAS 77

Proposicion 73 Sea p : E −→ E una rotacion. E espacio vectorial sobre

R. Sean E1 y E2 los espacios correspondientes a los valores propios 1 y -1

respectivamente. Entonces E1⊥E2.

Demostracion. Sea x1 ∈ E1 y sea x2 ∈ E2. Entonces ϕ(x1) = x1 y ϕ(x2) =

−x2. Luego,

〈x1, x2〉 = 〈ϕ(x1), ϕ(x2)〉 pues ϕ es isometrıa (rotacion)

= 〈x1,−x2〉= −〈x1, x2〉.

Por lo tanto, 〈x1, x2〉 = 0.

Notar que, en particular, E1∩E2 = 0 pues si x ∈ E1 y x ∈ E2, entonces

−x = ϕ(x) = x, lo que implica que x = 0.

Consideremos la suma (directa, ya que E1 ∩ E2 = 0) de E1 y E2:

E1 ⊕ E2,

entonces E1 ⊕ E2 es estable bajo ϕ. En efecto : Si x ∈ ϕ(E1 ⊕ E2) entonces

x = ϕ(x1 + x2) ; x1 ∈ E1 , x2 ∈ E2

= ϕ(x1) + ϕ(x2)

= x1 − x2 ∈ E1 ⊕ E2.

Por lo tanto, ϕ(E1 ⊕ E2) ⊆ E1 ⊕ E2.

Note que E1 = E11 ⊕ · · ·⊕E1

p donde p es la multiplicidad del valor propio

1; y E2 = E21 ⊕ · · · ⊕ E2

q donde q es la multiplicidad del valor propio -1.

Ademas, dim Eji = 1 ∀ j = 1, 2; para cada i (Ejercicio).

Proposicion 74 Sea ϕ : E −→ E una rotacion. Si F es estable bajo ϕ,

entonces F⊥ es estable bajo ϕ.

Page 78: Álgebra Multilineal

78 CAPITULO 2. TRANSFORMACIONES LINEALES

Demostracion. Queremos probar: ϕ(F⊥) ⊆ F⊥. Sea x ∈ F⊥. Entonces,

para y ∈ F :

〈ϕ(x), y〉 = 〈x, ϕ∗(y)〉 = 〈x, ϕ−1(y)〉.

Notar que ϕ−1(y) ∈ F pues ϕ(F ) ⊆ F . En efecto: ϕ : F → F implica que

ϕ−1 : F → F . Luego, 〈ϕ(x), y〉 = 0, por lo tanto, ϕ(x) ∈ F⊥.

En particular, concluimos que, si F := (E1⊕E2)⊥, entonces F⊥ = E1⊕E2

es estable bajo ϕ (por lo visto antes), luego:

ϕ(F ) ⊆ F ( pues F⊥⊥ = F ).

En lo que sigue, denotaremos F := (E1 ⊕ E2)⊥.

Proposicion 75 La dimension de F es par.

Demostracion. Supongamos que dim F es impar.

Notemos que ϕ : F −→ F sigue siendo una rotacion (por la Proposicion 76).

Consideremosla como una matriz. Entonces cuando calculamos los valores

propios de ϕ debemos calcular las raıces del polinomio p(λ) = det(ϕ−λI) =

0.

Ahora, si el espacio vectorial es sobre R, entonces en dimension impar hay

que ver si un polinomio de grado impar tiene o no raıces en R. Pero sabemos

que tal polinomio tiene al menos una raız, digamos λ0 y λ0 = ±1 pues ϕ es

rotacion. Sea e0 ∈ F el vector propio asociado, esto es :

ϕ(e0) = λ0e0 , e0 6= 0. (2.11)

Notar que e0 ∈ F = (E1 ⊕ E2)⊥. Pero, por (2.11), e0 ∈ E1 o e0 ∈ E2; lo que

es una contradiccion. Por lo tanto, la dimension de F es par.

En particular, note que ϕ no tiene vectores propios en F .

Page 79: Álgebra Multilineal

2.3. ISOMETRIAS 79

Consideremos ahora la transformacion :

ψ = ϕ + ϕ∗ = ϕ + ϕ−1 : F −→ F.

Notar que ψ es autoadjunta : ψ∗ = ϕ∗ + ϕ∗∗ = ϕ∗ + ϕ = ψ.

Luego, existe un vector propio para ψ. Sea λ el correspondiente valor

propio, entonces ψ(e) = λe, e ∈ F, e 6= 0, esto es :

ϕ(e) + ϕ−1(e) = λe , e ∈ F.

Luego, multiplicando por ϕ, se tiene

ϕ2(e) = −e + λϕ(e) , e ∈ F. (2.12)

Ya que ϕ no tiene vectores propios en F , entonces e, ϕ(e) es L.I. En efecto :

Si fueran L.D. entonces e = αϕ(e) esto implica que ϕ2(e) = −αϕ(e)+λϕ(e) =

(λ−α)ϕ(e). Luego, ϕ(ϕ(e)) = (λ−α)ϕ(e). Por lo tanto, ϕ(e) es vector pro-

pio de ϕ en F .

Sea F1 := subespacio generado por e, ϕ(e) =: 〈e, ϕ(e)〉. Claramente,

dim F1 = 2.

Proposicion 76 ϕ(F1) ⊆ F1.

Demostracion. Sea x ∈ F1 entonces x = αe + βϕ(e). De esta manera,

ϕ(x) = αϕ(e) + βϕ2(e)

= αϕ(e) + β[−e + λϕ(e)] por (2.12)

= αϕ(e) + (−βe) + βλϕ(e)

= (α + βλ)ϕ(e)− βe ∈ 〈e, ϕ(e)〉 = F1.

Luego, se puede definir ϕ : F1 −→ F1. Claramente ϕ es otra vez una

isometrıa.

Ası, ϕ(F⊥1 ) ⊆ F⊥

1 y se puede repetir la construccion para F⊥1 .

Page 80: Álgebra Multilineal

80 CAPITULO 2. TRANSFORMACIONES LINEALES

Continuando de esta manera, se puede finalmente obtener una descom-

posicion ortogonal de F en subespacios estables mutuamente ortogonales,

esto es:

F = F1 ⊕ F2 ⊕ · · · ⊕ Fr y∑

dim Fj = dim F = par .

Luego,

E = E1 ⊕ E2 ⊕ F (F = (E1 ⊕ E2)⊥)

= E1 ⊕ E2 ⊕ F1 · · · ⊕ Fr.

Claramente dim Fi = 2 ∀ i = 1, . . . , r y E1 = E11 ⊕ E1

2 ⊕ · · ·E1p ; dim E1

i =

1 , i = 1, . . . , p , E2 = E21 ⊕ E2

2 ⊕ · · · ⊕ E2q ; dim E2

j = 1 , j = 1, . . . , q.

Esto prueba el teorema.

Observacion : La matriz de rotacion tiene la forma canonica (en gener-

al)

ε1

. . .

εp 0

cos θ1 sin θ1

− sin θ1 cos θ1

0. . .

cos θn sin θn

− sin θn cos θn

; con εi = ±1.

2.3.3 Transformaciones antisimetricas

Definicion 77 Una transformacion lineal ψ : E −→ E se llama anti-

simetrica si ψ∗ = −ψ.

Page 81: Álgebra Multilineal

2.3. ISOMETRIAS 81

Proposicion 78 ψ es antisimetrica si y solo si 〈ψ(x), y〉 + 〈x, ψ(y)〉 = 0

para todo x, y ∈ E.

Demostracion.

=⇒)〈ψ(x), y〉+〈x, ψ(y)〉 = 〈x, ψ∗(y)〉+〈x, ψ(y)〉 = 〈x,−ψ(y)〉+〈x, ψ(y)〉 = 0.

⇐=)〈(ψ∗ + ψ)(x), y〉 = 〈ψ∗(x), y〉 + 〈ψ(x), y〉 = 〈x, ψ(y)〉 + 〈ψ(x), y〉 = 0

para todo y. Esto implica que (ψ∗ + ψ)(x) = 0 para todo x. Por lo tanto,

ψ∗ = −ψ.

Proposicion 79 ψ es antisimetrica si y solo si 〈x, ψ(x)〉 = 0 para todo x.

Demostracion.

=⇒) Tomar x = y en la proposicion anterior. De esta manera, se obtiene

〈ψ(x), x〉+ 〈x, ψ(x)〉 = 0; esto es, 〈x, ψ(x)〉 = 0.

⇐=) Reemplazando x por x + y, obtenemos 〈x + y, ψ(x + y)〉 = 0 esto

es:

〈x, ψ(x)〉︸ ︷︷ ︸=0

+〈x, ψ(y)〉+ 〈y, ψ(x)〉+ 〈y, ψ(y)〉︸ ︷︷ ︸=0

= 0,

luego 〈x, ψ(y)〉+ 〈y, ψ(x)〉 = 0. Por lo tanto, ψ es antisimetrica por proposi-

cion anterior.

La siguiente proposicion nos dice acerca de los valores propios de una

transformacion lineal antisimetrica.

Proposicion 80 Si ψ es antisimetrica y λ es valor propio de ψ entonces

λ = 0.

Page 82: Álgebra Multilineal

82 CAPITULO 2. TRANSFORMACIONES LINEALES

Demostracion. Sea λ valor propio de ψ. Sea e 6= 0 tal que ψ(e) = λe,

entonces

0 = 〈e, ψ(e)〉 = 〈e, λe〉 = λ〈e, e〉.

Por lo tanto, λ = 0.

En la siguiente proposicion dim E < ∞.

Proposicion 81 Si ψ es antisimetrica entonces det ψ = (−1)n det ψ.

Demostracion. Como ψ∗ = −ψ entonces det ψ∗ = (−1)n det ψ. Luego

det ψ = (−1)n det ψ.

Corolario 82 Si ψ es antisimetrica y dim E es impar, entonces det ψ = 0.

Proposicion 83 Si ψ es antisimetrica entonces ψ es normal.

Demostracion. ψ∗ψ = −ψψ = ψ(−ψ) = ψψ∗.

2.3.4 Forma matricial (o canonica) de una transforma-

cion antisimetrica

Sea ϕ := ψ2, donde ψ es una transformacion antisimetrica. Entonces ϕ∗ =

(ψ2)∗ = ψ∗ψ∗ = −ψ(−ψ) = ψ2 = ϕ; esto es, ϕ es autoadjunta. Luego, existe

una base ortonormal en de E que consiste de vectores propios, digamos

λn, de ϕ. Ası:

ϕ(en) = λnen.

Page 83: Álgebra Multilineal

2.3. ISOMETRIAS 83

Mas precisamente, ϕ tiene forma matricial diagonal:

λ1 0

λ2

. . .

0 λn

.

Veamos ahora que en este caso especial (ϕ := ψ2 con ψ antisimetrica), se

tiene:

λi ≤ 0 ∀ i.

En efecto:

λi = 〈ei, λiei〉 = 〈ei, ϕ(ei)〉= 〈ei, ψ

2(ei)〉= 〈ψ∗(ei), ψ(ei)〉= 〈−ψ(ei), ψ(ei)〉= −〈ψ(ei), ψ(ei)〉 ≤ 0.

Reordenemos ahora los vectores ei con i = 1, 2, . . . , n, de manera tal que:

λi < 0 (i = 1, 2, . . . , p) y λi = 0 (i = p + 1, . . . , n).

Observacion: p debe ser par. (Ejercicio).

Definamos una nueva base an en E como sigue:

a1 = e1 , a2 =1√−λ1

ψ(e1) , a3 = e2 ,

a4 =1√−λ2

ψ(e2) , . . . , ap+1 = ep+1 , ap+2 = ep+2 , . . .

Page 84: Álgebra Multilineal

84 CAPITULO 2. TRANSFORMACIONES LINEALES

Entonces ai es una base ortonormal (Ejercicio), ademas

ψ(a1) = ψ(e1) =√−λ1a2

ψ(a2) =1√−λ1

ψ2(e1) =1√−λ1

ϕ(e1) =λ1√−λ1

e1 = −√−λ1e1 = −

√−λ1a1

ψ(a3) = ψ(e2) =√−λ2a4

ψ(a4) =1√−λ2

ψ2(e2) =1√−λ2

ϕ(e2) =λ2√−λ2

e2 = −√−λ2e2 = −

√−λ2a3

...

Por lo tanto, la matriz toma la forma:

0 −√−λ1 0 0 · · · 0√−λ1 0 0 0

0 0 0 −√−λ2

0 0√−λ2 0

...... 0 0

. . .

0 0 0 0 0 0

o, si definimos Kj :=√−λj:

0 −K1 0 0

K1 0 0 0

0 0 0 −K2

0 0 K2 0. . .

0 −Kp

Kp 0. . .

0

.

Page 85: Álgebra Multilineal

2.3. ISOMETRIAS 85

Ejercicios

1. Sea ψ una transformacion antisimetrica. Sea

ϕ = (ψ + I) (ψ − I)−1.

(a) Demuestre que ϕ es una rotacion.

(b) Demuestre que -1 no es un valor propio de ϕ.

2. Suponga que ϕ es una rotacion y que -1 no es valor propio de ϕ.

Demuestre que

ψ = (ϕ− I) (ϕ + I)−1

es antisimetrica.

3. Sea ϕ : R2 −→ R2 una transformacion normal. Muestre que existe

λ > 0 y ψ rotacion tal que

ϕ = λψ.

4. Sea ϕ una rotacion. Demuestre que existe una familia continua ϕt

(0 ≤ t ≤ 1) de rotaciones tales que ϕ0 = I y ϕ1 = ϕ.

5. Sea p(λ) el polinomio caracterıstico de una rotacion propia. Demuestre

que

p(λ) = (−λ)np(λ−1) ; λ ∈ R.

6. Sea ϕ : R2 −→ R2 antisimetrica. Muestre que

〈ϕ(x), ϕ(y)〉 = det ϕ · 〈x, y〉.

7. Sea ϕ : E −→ E una transformacion lineal. Demuestre que

ϕ = ψ1 + iψ2

donde ψ1 y ψ2 son autoadjuntas.

Page 86: Álgebra Multilineal

86 CAPITULO 2. TRANSFORMACIONES LINEALES

8. Sea ϕ : E −→ E una transformacion lineal que satisface ϕ∗ = λϕ,

λ ∈ R. Demuestre que ϕ es autoadjunta o antisimetrica.

2.3.5 Funciones bilineales simetricas

Definicion 84 Sea E e.v. sobre R y φ : E × E −→ R una funcion bilineal.

φ se dice simetrica si

φ(x, y) = φ(y, x) ∀x, y ∈ E.

Proposicion 85 Sea φ bilineal simetrica. Se define la funcion ψ : E −→ R(no lineal) por :

ψ(x) = φ(x, x).

Entonces ψ satisface la identidad del paralelogramo :

ψ(x + y) + ψ(x− y) = 2(ψ(x) + ψ(y)).

Demostracion.

ψ(x + y) = φ(x + y, x + y) = φ(x, x) + φ(x, y) + φ(y, x) + φ(y, y)

= φ(x, x) + 2φ(x, y) + φ(y, y) pues φ es simetrica

= ψ(x) + 2φ(x, y) + ψ(y)

ψ(x− y) = φ(x− y, x− y) = φ(x, x)− φ(y, x)− φ(x, y) + φ(y, y)

= φ(x, x)− 2φ(x, y) + φ(y, y)

= ψ(x)− 2φ(x, y) + ψ(y).

Sumando obtenemos : ψ(x + y) + ψ(x− y) = 2(ψ(x) + ψ(y)).

Page 87: Álgebra Multilineal

2.3. ISOMETRIAS 87

Definicion 86 Una funcion ψ : E −→ R continua que satisface la identidad

del paralelogramo se llama una funcion cuadratica.

Cada funcion bilineal simetrica da origen a una funcion cuadratica (toman-

do x = y). Veremos que, inversamente, cada funcion cuadratica puede ser

obtenida de esta forma.

Teorema 87 Sea ψ : E −→ R una funcion cuadratica. Entonces existe una

funcion bilineal simetrica φ : E × E −→ R tal que

ψ(x) = φ(x, x).

Demostracion. Sea

φ(x, y) :=1

2ψ(x + y)− ψ(x)− ψ(y). (2.13)

Probaremos que φ es bilineal y simetrica. Luego a fin de ver que ψ(x) =

φ(x, x), definimos ψ1(x) := φ(x, x) y se tiene:

ψ1(x + y) = φ(x + y, x + y)

= φ(x, x) + 2φ(x, y) + φ(y, y)

= ψ1(x) + 2φ(x, y) + ψ1(y).

Luego, φ(x, y) = 12ψ1(x + y)− ψ1(x)− ψ1(y). De esta manera, por (2.13)

ψ1(x + y)− ψ1(x)− ψ1(y) = ψ(x + y)− ψ(x)− ψ(y) ∀x , ∀ y.

Ademas, con x = −y tenemos

ψ1(0)− ψ1(x)− ψ1(−x) = ψ(0)− ψ(x)− ψ(−x) (∗)

pero ψ(0) = 0 y ψ1(0) = 0 ya que ψ y ψ1 satisfacen la identidad del parale-

logramo . En efecto,

ψ(x + y) + ψ(x− y) = 2(ψ(x) + ψ(y))

Page 88: Álgebra Multilineal

88 CAPITULO 2. TRANSFORMACIONES LINEALES

Sea x = y = 0 entonces 2ψ(0) = 2(2ψ(0)) = 4ψ(0) luego, 2ψ(0) = 0. Por lo

tanto, ψ(0) = 0.

Luego, ya que

ψ(x + y) + ψ(x− y) = 2(ψ(x) + ψ(y))

con x = 0 se tiene

ψ(y) + ψ(−y) = 2(ψ(0) + ψ(y))

ψ(y) + ψ(−y) = 2ψ(y)

ψ(−y) = ψ(y).

Ası concluimos de (*) que 2ψ1(x) = 2ψ(x), esto es, ψ1(x) = ψ(x). Esto

prueba que : φ(x, x) = ψ(x).

Resta ver que φ es bilineal y simetrica.

(a) Simetrıa.

φ(y, x) =1

2ψ(y +x)−ψ(y)−ψ(x) =

1

2ψ(x+y)−ψ(x)−ψ(y) = φ(x, y).

(b) φ(x1 + x2, y) = φ(x1, y) + φ(x2, y).

En efecto, de (2.13) :

2φ(x1 + x2, y) = ψ(x1 + x2 + y)− ψ(x1 + x2)− ψ(y)

2φ(x1, y) = ψ(x1 + y)− ψ(x1)− ψ(y)

2φ(x2, y) = ψ(x2 + y)− ψ(x2)− ψ(y).

Luego,

2φ(x1 + x2, y)− φ(x1, y)− φ(x2, y)(∗)= ψ(x1 + x2 + y) + ψ(y) − ψ(x1 + y) + ψ(x2 + y)− ψ(x1 + x2)− ψ(x1)− ψ(x2)

Page 89: Álgebra Multilineal

2.3. ISOMETRIAS 89

Como φ satisface la identidad del paralelogramo, por hipotesis, se tiene:

ψ(x1+x2+y)+ψ(y) =1

2ψ(x1+x2+2y)+ψ(x1+x2) ( con x = x1+x2+y , y = y)

(2.14)

y

ψ(x1+y)+ψ(x2+y) =1

2ψ(x1+x2+2y)+ψ(x1−x2) ( con x = x1+y , y = x2+y).

(2.15)

Restando (2.14) y (2.15) se obtiene; usando otra vez identidad del parale-

logramo:

ψ(x1 + x2 + y) + ψ(y) − ψ(x1 + y) + ψ(x2 + y)=

1

2ψ(x1 + x2)− ψ(x1 − x2)

=1

2ψ(x1 + x2)− [2(ψ(x1) + ψ(x2))− ψ(x1 + x2)]

=1

22ψ(x1 + x2)− 2ψ(x1)− 2ψ(x2)

= ψ(x1 + x2)− ψ(x1)− ψ(x2).

esto es,

ψ(x1+x2+y)+ψ(y)−ψ(x1+y)+ψ(x2+y) = ψ(x1+x2)−ψ(x1)−ψ(x2).

(2.16)

Si ponemos (2.16) en (*) obtenemos : φ(x1 + x2, y)− φ(x1, y)− φ(x2, y) = 0

lo cual verifica (b).

(c) φ(λx, y) = λφ(x, y); λ ∈ R.

En efecto : Colocando en (b) x1 = x y x2 = −x se obtiene:

φ(0, y) = φ(x, y) + φ(−x, y)

pero, φ(0, y) = 12ψ(y) − ψ(0) − ψ(y) = 1

2ψ(0) = 0 (pues ψ cuadratica

implica ψ(0) = 0). Luego,

φ(−x, y) = −φ(x, y). (2.17)

Page 90: Álgebra Multilineal

90 CAPITULO 2. TRANSFORMACIONES LINEALES

Concluimos que:

φ(−kx, y) = −kφ(x, y) ∀ k ∈ Z+. (2.18)

En efecto : de (2.17) y (b) :

φ(−2x, y) = φ(−x−x, y) = φ(−x, y)+φ(−x, y) = −φ(x, y)−φ(x, y) = −2φ(x, y).

Por induccion se obtiene (2.18) (Ejercicio).

Analogamente concluimos que

φ(kx, y) = kφ(x, y) ∀ k ∈ Z. (2.19)

Sea λ ∈ Q. Entonces λ = pq, p y q enteros. Entonces

qφ(p

qx, y) = φ(q · p

qx, y) = φ(px, y) = pφ(x, y).

Luego,

φ(p

qx, y) =

p

qφ(x, y). (2.20)

Sea λ ∈ R. Entonces existe una sucesion λn en Q tal que λn → λ.

Ahora notamos que como ψ es continua entonces φ es continua y, luego, como

φ(λnx, y) = λnφ(x, y) por (2.20)

se obtiene, haciendo n →∞, que φ(λx, y) = λφ(x, y). Esto prueba el teore-

ma.

Observacion: De esta manera probamos que hay una correspondencia in-

yectiva entre funciones bilineales simetricas y funciones cuadraticas.

Page 91: Álgebra Multilineal

2.3. ISOMETRIAS 91

2.3.6 El caso de dimension finita; forma diagonal de

una funcion cuadratica

Sea E e.v. de dimension finita y φ : E × E −→ R una funcion bilineal

simetrica. Sea ei una base de E. Entonces, dados x, y ∈ E:

x =∑

xiei , y =∑

yjej.

Luego:

φ(x, y) =∑

i

∑j

xiyjφ(ei, ej).

Si ponemos x = y obtenemos la funcion cuadratica:

ψ(x) =∑

i

∑j

xixjφ(ei, ej) (2.21)

lo cual se puede reescribir como:

ψ(x) =(

x1 · · · xn

)

φ(e1, e1) · · · φ(e1, en)...

...

φ(en, e1) · · · φ(en, en)

x1

...

xn

.

Esta ultima representacion de ψ se llama forma cuadratica (en dimension

finita). Notese que, como φ es simetrica, entonces la matriz

A =

φ(e1, e1) · · · φ(e1, en)...

...

φ(en, e1) · · · φ(en, en)

es autoadjunta (pues φ(ei, ej) = φ(ej, ei) por definicion de bilineal simetrica).

Recordemos ahora que, para funciones bilineales simetricas, existe una

base ortogonal vn de E tal que φ tiene forma diagonal, esto es:

φ(ei, ej) = λiδij

Page 92: Álgebra Multilineal

92 CAPITULO 2. TRANSFORMACIONES LINEALES

donde δij =

1 si i = j

0 si i 6= j.

En consecuencia: Existe una base ortonormal vn de E donde

A =

λ1 0. . .

0 λn

.

En tal caso, se escribe:

ψ(x) =(

x1 · · · xn

)

λ1 0. . .

0 λn

x1

...

xn

= λ1x21 + λ2x

22 + · · ·+ λnx

2x.

esto es, el polinomio cuadratico que representa a ψ no tiene ”terminos mix-

tos”. Ademas, cualquier forma cuadratica tiene una representacion diagonal

de esta forma.

Ejemplo: Consideremos la siguiente forma cuadratica sobre R2:

ψ(x1, x2) = 2x21 − 12x1x2 + 5x2

2.

Entonces

ψ(x1, x2) =(

x1 x2

) (2 −6

−6 5

)(x1

x2

)

donde A =

(2 −6

−6 5

)= (aij).

Una forma de diagonalizar ψ, esto es, escribirlo como polinomio sin

terminos mixtos, es la siguiente:

Page 93: Álgebra Multilineal

2.3. ISOMETRIAS 93

Caso 1. Si a11 6= 0 hacemos la sustitucion:

x1 = y1 − 1

a11

(a12y2 + · · ·+ a1nyn)

x2 = y2

...

xn = yn

lo que lleva a la ecuacion

ψ(x1, . . . , xn) = a11y21 + ψ1(y2, . . . , yn)

donde ψ1 es tambien un polinomio cuadratico.

Caso 2. Si a11 = 0 pero, por ejemplo, a12 6= 0, hacemos la sustitucion

x1 = y1 + y2 , x2 = y1 − y2 , x3 = y3 , . . . , xn = yn

lo cual lleva a la ecuacion

ψ(x1, . . . , xn) =∑

bijyiyj (∗)

donde (b11, b22) 6= (0, 0) y se puede aplicar el caso 1. (Note que puede ser

aun b11 = 0).

Caso 3. Para realizar un cambio en el caso a11 = 0, pero aij 6= 0 con

i 6= j, se hace

xi = yi + yj

xj = yi − yj

xp = yp si p 6= i , p 6= j

Esto lleva a una forma como (*) con (bii, bjj) 6= (0, 0) ( o sea bii 6= 0 o

bjj 6= 0).

Page 94: Álgebra Multilineal

94 CAPITULO 2. TRANSFORMACIONES LINEALES

Usemos este metodo en el ejemplo anterior: Allı

(a11 a12

a21 a22

)=

(2 −6

−6 5

),

luego hacemos la sustitucion

x1 = y1 − 1

2((−6)y2) = y1 + 3y2

x2 = y2,

obtenemos

ψ(x1, x2) = 2(y1 + 3y2)2 − 12(y1 + 3y2)y2 + 5y2

2

= 2[y21 + 6y1y2 + 9y2

2]− 12y1y2 − 36y22 + 5y2

2

= 2y21 + 12y1y2 + 18y2

2 − 12y1y2 − 36y22 + 5y2

2

= 2y21 − 13y2

2

que es la forma diagonal pedida.

Veamos otro ejemplo:

Sea ψ(x1, x2, x3) = 2x21 − 8x1x2 + x2

2 − 16x1x3 + 14x2x3 + 5x23 entonces la

matriz simetrica perteneciente a la forma cuadratica anterior es:

A =

2 −4 −8

−4 1 7

−8 7 5

=

a11 a12 a13

a21 a22 a23

a31 a32 a33

.

La idea para obtener A es la siguiente: La matriz autoadjunta A = (aij) que

representa a ψ(x1, x2, x3) tiene las componentes aii de la diagonal iguales a

los coeficientes de x2i y las componentes aij y aji iguales cada una a la mitad

del coeficiente xixj.

Diagonalizemos ahora a ψ: Como a11 6= 0 hacemos la sustitucion:

x1 = y1 − 1

2((−4)y2 + (−8)y3) = y1 + 2y2 + 4y3

x2 = y2

x3 = y3.

Page 95: Álgebra Multilineal

2.3. ISOMETRIAS 95

Luego:

ψ(x1, x2, x3) = 2(y1 + 2y2 + 4y3)2 − 8(y1 + 2y2 + 4y3)y2 + y2

2

− 16(y1 + 2y2 + 4y3)y3 + 14y2y3 + 5y23

= (y1 + 2y2 + 4y3)[2y1 + 4y2 + 8y3 − 8y2 − 16y3]

+ y22 + 14y2y3 + 5y2

3

= (y1 + 2y2 + 4y3)(2y1 − 4y2 − 8y3) + y22 + 14y2y3 + 5y2

3

= 2y21 − 4y1y2 − 8y1y3 + 4y1y2 − 8y2

2 − 16y2y3

+ 8y1y3 − 16y2y3 − 32y23 + y2

2 + 14y2y3 + 5y23

= 2y21 − 7y2

2 − 18y2y3 − 27y23

esto es: ψ(x1, x2, x3) = 2y11 − (7y2

2 + 18y2y3 + 27y23) = 2y2

1 − ψ1(y2, y3) donde

ψ1(y2, y3) = 7y22 + 18y2y3 + 27y2

3 es un polinomio cuadratico donde volvemos

a aplicar la sustitucion. Aquı

A1 =

(7 9

9 27

)

luego, sea

y1 = z1

y2 = z2 − 1

7(9z3) = z2 − 9

7z3

y3 = z3

Page 96: Álgebra Multilineal

96 CAPITULO 2. TRANSFORMACIONES LINEALES

entonces

ψ1(y2, y3) = 7(z2 − 9

7z3)

2 + 18(z2 − 9

7z3)z3 + 27z2

3

= (z2 − 9

7z3)[7z2 − 9z3 + 18z3] + 27z2

3

= (z2 − 9

7z3)(7z2 + 9z3) + 27z2

3

=1

7(7z2 − 9z3)(7z2 + 9z3) + 27z2

3

=1

7(49z2

2 − 81z23) + 27z2

3

= 7z22 +

81

7z23 + 27z2

3 = 7z22 + (

81

7+ 27)z2

3 .

Por lo tanto, ψ(x1, x2, x3) = 2z21 − 7z2

2 − (817

+ 27)z23 es la forma diagonal

pedida.

El siguiente resultado es fundamental para la proxima definicion.

Teorema 88 Sea φ una forma bilineal simetrica en E. Entonces existe una

base de E en la cual φ se representa por una matriz diagonal. Ademas,

cualquier otra matriz diagonal tiene el mismo numero P de componentes

positivas y el mismo numero N de componentes negativas.

Demostracion. Sabemos, por teorema anterior, que existe una base

u1, . . . , un de E en la cual φ se representa por una matriz diagonal, por

ejemplo, con P y N componentes positivas y negativas respectivamente.

Supongamos ahora que w1, . . . , wn es otra base de E en la cual φ se re-

presenta tambien por una matriz diagonal, por ejemplo, con P ′ y N ′ com-

ponentes positivas y negativas respectivamente. Sin perdida de generalidad,

podemos suponer que en cada matriz aparecen primero las componentes pos-

itivas. Como P +N = P ′+N ′ (dim(ran φ)) es suficiente probar que P = P ′.

Sea U := subespacio generado por u1, . . . , up y W := subespacio generado

por wP ′+1, . . . , wn. Entonces : φ(v, v) > 0 para todo v ∈ U y φ(v, v) ≤ 0

Page 97: Álgebra Multilineal

2.3. ISOMETRIAS 97

para todo v ∈ W , con v 6= 0.

Note que : U ∩W = 0 y observemos que dim U = P y dim W = n − P ′.

Luego,

dim(U + W ) = dim U + dim W − dim(U ∩W ) (Teorema de dimension)

= P + (n− P ′)− 0

= P − P ′ + n.

Pero : dim(U + W ) ≤ dim E = n; luego P − P ′ + n ≤ n o P ≤ P ′.

Similarmente, P ′ ≤ P (intercambiando el rol de P por P ′ en el argumento

anterior). Luego, P = P ′.

Corolario 89 Cualquier forma cuadratica (real) ψ tiene una representacion

unica en la forma

ψ(x1, . . . , xn) = x21 + · · ·+ x2

s − x2s+1 − · · · − x2

r.

Observacion: El resultado anterior a veces se enuncia como la Ley de Inercia

o el teorema de Sylvester.

Definicion 90 La signatura de una forma cuadratica es el numero de com-

ponentes positivas menos el numero de componentes negativas.

Definicion 91 Una forma bilineal simetrica φ se llama semidefinida no ne-

gativa si

ψ(x) = φ(x, x) ≥ 0 ∀ x ∈ E

y se dice que es definida positiva si

ψ(x) = φ(x, x) > 0 ∀x ∈ E, x 6= 0.

Page 98: Álgebra Multilineal

98 CAPITULO 2. TRANSFORMACIONES LINEALES

Ejemplos

1) La forma bilineal ψ(x1, x2) = 2x21 − 12x1x2 + 5x2

2 se escribe en forma

diagonal como

ψ(x1, x2) = 2y21 − 13y2

2;

luego P = 1 y N = 1. Por lo tanto, S = 0.

2) La forma bilineal ψ(x1, x2, x3) = 2x21− 8x1x2 +x2

2− 16x1x3 +14x2x3 +5x23

se escribe en forma diagonal como

ψ(x1, x2, x3) = 2z21 − 7z2

2 − (81

7+ 27)z2

3

luego P = 1 y N = 2. Ası, S = −1.

3) Hallar una transformacion de coordenadas que diagonalice la forma cuadratica

ψ(x1, x2) = 2x21 − 4x1x2 + 5x2

2.

La matriz simetrica que representa a ψ es A =

(2 −2

−2 5

).

Metodo 1. Hacemos la sustitucion

x1 = y1 − 1

2(−2y2) = y1 + y2

x2 = y2.

Luego:

ψ(x1, x2) = 2(y1 + y2)2 − 4(y1 + y2)y2 + 5y2

2

= 2[y21 + 2y1y2 + y2

2]− 4y1y2 − 4y22 + 5y2

2

= 2y21 + 4y1y2 + 2y2

2 − 4y1y2 − y22

= 2y21 + y2

2.

Ası, P = 2 y luego, S = 2.

Page 99: Álgebra Multilineal

2.4. EJERCICIOS DE RECAPITULACION 99

Metodo 2. Buscamos los valores propios de la matriz A :

p(λ) = det(λI − A) = det

(λ− 2 2

2 λ− 5

)

= (λ− 2)(λ− 5)− 4

= λ2 − 7λ + 6

= (λ− 6)(λ− 1).

Los valores propios son λ = 6 y λ = 1. Como son diferentes, se tiene que

existe P invertible tal que P−1AP =

(6 0

0 1

). Mas precisamente:

ψ(z1, z2) = 6z21 + z2

2 .

De esta manera, S = 2.

Notese que el cambio de coordenadas con respecto al metodo 1 es diferente.

2.4 Ejercicios de Recapitulacion

1. Sea E un espacio vectorial con producto interno 〈 , 〉. Recuerde que

L(E; E) = f : E → E : f es lineal y B(E × E) = b : E × E → R :

b es bilineal . Sea ρ : L(E; E) → B(E × E) definida como

ρ(φ)(x, y) = 〈φ(x), y〉.

a) Demuestre que ρ es lineal.

b) Demuestre que ρ es inyectiva.

c) Demuestre que ρ es sobreyectiva.

2. Sea φ : E → E una transformacion lineal autoadjunta. Sean λ1, λ2 val-

ores propios de φ. Suponga que λ1 6= λ2. Demuestre que E(λ1)⊥E(λ2).

Page 100: Álgebra Multilineal

100 CAPITULO 2. TRANSFORMACIONES LINEALES

3. Sea π una proyeccion ortogonal definida en un espacio con producto

interno (E, 〈 , 〉). Demuestre que E = Kerπ ⊕ Imπ.

4. Sea ϕ : R3 → R3 una transformacion lineal cuya representacion ma-

tricial es R , con

R =

cos(135) sen(135) 0

−sen(135) cos(135) 0

0 0 1

cos(30) 0 sen(30)

0 1 0

−sen(30) 0 cos(30)

Demuestre que ϕ es una rotacion. Interprete esta rotacion geometricamente.

5. Sea π : R2 → R2 definida por φ(x, y) = ( 1√2x − 1√

2y, 1√

2x + 1√

2y).

Demuestre que φ es una rotacion.

6. Sean E un espacio vectorial de dimension finita y ϕ : E → E una

transformacion lineal.

(a) Demuestre que (Ker(ϕ∗))⊥ = Im(ϕ) . Concluya que

E = Im(ϕ)⊕

Ker(ϕ∗).

(b) Si ϕ es normal entonces Ker(ϕ) = Ker(ϕ∗) . Concluya que

E = Im(ϕ)⊕

Ker(ϕ).

(c) Si ϕ es normal y v es un vector tal que ϕ2(v) = 0 entonces

ϕ(v) = 0 .

7. Sea φ : E → E una transformacion lineal definida en un espacio E

con producto interno.

(a) Suponga que φ es normal. Demuestre que φ − λI es tambien

normal.

Page 101: Álgebra Multilineal

2.4. EJERCICIOS DE RECAPITULACION 101

(b) Demuestre que (kerφ∗) = (Imφ)⊥ .

(c) Demuestre que Imφ∗ ⊆ (kerφ)⊥ .

8. Sea φ : R2 → R2 una transformacion normal. Demuestre que existe

λ > 0 y una rotacion ψ tal que φ = λψ .

9. Sea E = C con el producto interno 〈z, w〉 = Rezw . Sea z ∈ C y

Mz : C→ C definido por Mz(w) = zw

(a) Verifique que Mz es lineal.

(b) Demuestre que (Mz)∗ = Mz .

(c) Para que numeros complejos z es Mz autoadjunto?

(d) Para cuales z es Mz una rotacion?

(e) Para cuales z es Mz antisimetrica?

10. Sea T : C2 → C2 definida por T (e1) = (1+i, 2) , T (e2) = (i, i) , donde

e1, e2 es la base canonica de C2 . Hallar T ∗ . ¿ Es T normal ? ¿ Es

T autoadjunta ?

11. Sea E espacio vectorial con producto interno, dim E = n. Sea ϕ :

E −→ E. Demuestre que las siguientes afirmaciones son equivalentes:

(i) ϕ es autoadjunta y 〈ϕ(x), x〉 ≥ 0 ∀x ∈ E.

(ii) ϕ = ψ2, para algun ψ : E −→ E autoadjunto.

12. Sea T : R2 → R2 definida por T (x, y) = (x + 2y, 2x− y). Calcule ‖T‖.

13. Sea T : E → E una transformacion lineal, demuestre que T = R+ iS

donde S y R son autoadjuntas.

14. Sea E espacio vectorial de dimension n sobre R. Demuestre que el poli-

nomio caracterıstico, p(λ), de una transformacion lineal antisimetrica

Page 102: Álgebra Multilineal

102 CAPITULO 2. TRANSFORMACIONES LINEALES

satisface la ecuacion:

p(−λ) = (−1)np(λ).

15. Sea E espacio vectorial sobre C, con producto interno. Sea ϕ : E −→ E

normal.

(a) Sea x ∈ E. Demuestre que ϕ(x) = 0 si y solo si ϕ∗(x) = 0 .

(b) Demuestre que ϕ− λI es normal (λ ∈ C).

(c) Demuestre que cada vector propio de ϕ es un vector propio de

ϕ∗ .

16. Suponga que E es un espacio vectorial con producto interno 〈, 〉 .Demuestre que una transformacion lineal T : E → E es normal si y

solo si ‖T (x)‖ = ‖T ∗(x)‖ para cada x ∈ E .

17. Sea φ : E → E . Suponga que φ2 = φ . Demuestre que φ es autoad-

junta si y solo si φ es normal.

18. Sea T : C2 → C2 definida por T (e1) = (1, 2), T (e2) = (i,−1) , donde

e1, e2 es la base canonica de C2 . Hallar T ∗(x, y) .

19. Sea T : C2 → C2 definida por T (e1) = (1 + i, 2), T (e2) = (i, i). Hallar

T ∗ . ¿Es T normal ?

20. Sea E un espacio vectorial sobre C con producto interno. Sea φ :

E → E una transformacion lineal autoadjunta.

(a) Demuestre que ‖x + iφ(x)‖ = ‖x− iφ(x)‖ para cada x ∈ E.

(b) Demuestre que x + iφ(x) = y + iφ(y) si y solo si x = y .

(c) Demuestre que −1 no es valor propio de I + iφ .

(d) Demuestre que −1 no es valor propio de I − iφ .

Page 103: Álgebra Multilineal

2.4. EJERCICIOS DE RECAPITULACION 103

(e) Demuestre que ψ := (I − iφ)(I + iφ)−1 es una rotacion.

21. Sea E un espacio vectorial con producto interno 〈 , 〉 . Sea T : E → E

una transformacion lineal. Entonces ρ(x, y) := 〈T (x), y〉 es tambien

un producto interno en E . Sea U : E → E un operador lineal y

U∗ : E → E su adjunto con respecto a 〈 , 〉.

(a) Suponga que U es una rotacion con respecto a ρ . Demuestre

que T = U∗TU .

(b) Suponga que T = U∗TU . Demuestre que U es una rotacion con

respecto a ρ .

22. Sea E = R4 y E1 = subespacio generado por (1, 0, 0, 0), (0, 0, 1, 0).Encuentre P : E → E proyeccion ortogonal tal que ImP = E1 .

23. Sea E espacio vectorial con producto interno. Sean P , Q : E →E proyecciones ortogonales. Demuestre que P Q = 0 si y solo si

ImP⊥ImQ .

24. Sea E un espacio vectorial con producto interno. Sea π : E −→ E1

una proyeccion ortogonal y J ⊆ E un subespacio.

(a) Suponga que J es estable bajo π (esto es, π(J) ⊆ J). Demuestre

que

J = J ∩ E1 ⊕ J ∩ E⊥1 .

(b) Suponga que J = J ∩ E1 ⊕ J ∩ E⊥1 . Demuestre que J es estable

bajo π .

25. Si π : E → Imπ es una proyeccion, demuestre que I − π es una

proyeccion sobre (Imπ)⊥.

Page 104: Álgebra Multilineal

104 CAPITULO 2. TRANSFORMACIONES LINEALES

26. Sea Q : R2 → R2 definida por Q(x, y) = (ax + by, cx + dy). Suponga

que Q es una rotacion. Demuestre que b = ±c .

27. Sea T : C2 → C2 definida por T (z, w) = (z + iw, z − iw).

(a) Hallar T ∗.

(b) Demuestre que T ∗T = TT ∗ = 2I.

(c) Encuentre explicitamente T1 y T2 operadores autoadjuntos tales

que T = T1 + iT2.

(d) Demuestre que, en general, un operador lineal T es normal si y

solo si T1T2 = T2T1 .

28. Una forma bilineal φ : E × E −→ R se dice antisimetrica si

φ(x, y) = −φ(y, x) ∀x, y ∈ E.

Demuestre que φ es antisimetrica si y solo si φ(x, x) = 0 ∀x ∈ E .

29. Mostrar que cualquier forma bilineal φ : E × E −→ R es la suma de

una forma bilineal simetrica y una forma bilineal antisimetrica.

30. Hallar la matriz autoadjunta y la signatura que corresponden a la

forma cuadratica: ψ(x1, x2, x3) = x1x2 + x2x3.

31. Sea a ∈ R y sea b : R2 → R2 la funcion bilineal simetrica definida

como

b((x1, y1), (x2, y2)) = x1x2 + ay1x2 + y1y2.

Demuestre que b es definida positiva si |a| < 2 .

32. Demuestre que una funcion bilineal simetrica b : E×E → R es definida

positiva si y solo si el operador lineal autoadjunto T asociado a b tiene

solo valores propios positivos.

Page 105: Álgebra Multilineal

2.4. EJERCICIOS DE RECAPITULACION 105

33. Sea b(x, y) = 5x2 + 6xy + 4y2. Encuentre T ∈ L(R2;R2) tal que

ρ(T ) = b, donde ρ es el isomorfismo entre L(R2;R2) y B(R2 × R2) .

34. Encuentre la signatura de la forma cuadratica definida por T (x, y) =

2x2 − 12xy + 5y2.

35. Hallar la matriz simetrica que corresponde a cada una de las siguientes

formas cuadraticas.

(a) ψ(x, y) = 4x2 − 6xy − 7y2.

(b) ψ(x, y) = xy + y2.

(c) ψ(x, y, z) = 3x2 + 4xy − y2 + 8xz − 6yz + z2.

(d) ψ(x, y, z) = x2 − 2yz + xz.

36. Hallar la signatura de la funcion bilineal simetrica asociada a la forma

cuadratica definida por medio de la matriz

A =

0 1 1

1 −2 2

1 2 −1

.

Idea: Aplicar el cambio de variables

x1 = y1 + y3

x2 = y2

x3 = y1 − y3.

37. Sea φ la forma bilineal simetrica asociada con la forma cuadratica

ψ(x1, x2) = ax21 + bx1x2 + cx2

2 . Demuestre que φ es definida positiva si

y solo si a > 0 y b2 − 4ac < 0 .

38. Hallar la matriz simetrica y la signatura perteneciente a la forma

cuadratica ψ(x1, x2, x3) = x1x2 + x2x3 .

Page 106: Álgebra Multilineal

Capıtulo 3

Producto tensorial

3.1 Transformaciones multilineales

Definicion 92 Sean E, F y G tres espacios vectoriales. Una transformacion

ϕ : E × F −→ G se llama bilineal si satisface las siguientes condiciones:

ϕ(λx1 + x2, y) = λϕ(x1, y) + ϕ(x2, y) ; x1, x2 ∈ E, y ∈ F ; λ ∈ R o C

ϕ(x, λy1 + y2) = λϕ(x, y1) + ϕ(x, y2) ; y1, y2 ∈ F, x ∈ E; λ ∈ R o C.

Observacion: Si G = R o C, ϕ se llama una funcion bilineal.

Sea ϕ(E × F ) := z ∈ G / z = ϕ(x, y) ; x ∈ E , y ∈ F. Entonces

ϕ(E×F ) no es necesariamente un subespacio de G. Por lo tanto denotamos:

im ϕ = 〈ϕ(E × F )〉 ≡ subespacio generado por ϕ(E × F ).

Ademas, denotamos

B(E, F ; G) := ϕ : E × F −→ G / ϕ es transformacion bilineal .

Si definimos

(ϕ1 + ϕ2)(x, y) = ϕ1(x, y) + ϕ2(x, y) ; x ∈ E, y ∈ F

106

Page 107: Álgebra Multilineal

3.1. TRANSFORMACIONES MULTILINEALES 107

(λϕ)(x, y) = λϕ(x, y) ; x ∈ E, y ∈ F, λ ∈ R o C.

Entonces B(E, F ; G) es un espacio vectorial.

Observacion: Si G = R o C, B(E, F ; G) ≡ B(E × F ) es el espacio de

todas las funciones bilineales de E × F en R o C.

Definicion 93 Sean E, F y G espacios vectoriales y sea ϕ : E × F −→ G

una transformacion bilineal. El par (G,ϕ) se llama un producto tensorial

para E y F si se satisfacen las condiciones siguientes:

⊗1 : im ϕ = G.

⊗2: Si ψ : E×F −→ H es una transformacion bilineal de E×F en cualquier

espacio vectorial H, entonces existe una transformacion lineal f : G −→ H

tal que ψ = f ϕ (Propiedad de factorizacion).

Observacion: En forma de diagrama, ⊗2 dice que el diagrama:

E × Fψ−→ H

ϕ ↓G

puede siempre completarse a un diagrama conmutativo:

E × Fψ−→ H

ϕ ↓ f

G

.

Proposicion 94 Las condiciones ⊗1 y ⊗2 son equivalentes a la condicion :

⊗: Si ψ : E × F −→ H es una transformacion bilineal en cualquier espacio

vectorial H, entonces existe una unica transformacion lineal f : G −→ H tal

que ψ = f ϕ (propiedad de factorizacion unica).

Page 108: Álgebra Multilineal

108 CAPITULO 3. PRODUCTO TENSORIAL

Demostracion.

(i) Sea ψ : E × F −→ H y supongamos que existen dos transformaciones

lineales f1 : G −→ H y f2 : G −→ H tales que

ψ = f1 ϕ y ψ = f2 ϕ.

Entonces

(f1 − f2) ϕ = 0.

Lo cual implica que f1 = f2. En efecto: Sea x ∈ G. Por ⊗1, x ∈ 〈ϕ(E×F )〉,esto es, x =

∑λiϕ(xi, yi); donde xi ∈ E, yi ∈ F . Luego:

(f1 − f2)(x) =∑

λi(f1 ϕ)(xi, yi)−∑

λi(f2 ϕ)(xi, yi)

=∑

λiψ(xi, yi)−∑

λiψ(xi, yi)

= 0.

(ii) Supongamos que el par (G,ϕ) satisface ⊗. Entonces ⊗2 se cumple.

Debemos probar ⊗1. En efecto: se define la aplicacion bilineal ϕ∗ : E×F −→im ϕ por

ϕ∗(x, y) = ϕ(x, y)

(esto es, tomamos H = im ϕ)

E × Fϕ∗−→ im ϕ

ϕ ↓G f

.

Por hipotesis existe f : G −→ im ϕ tal que f ϕ = ϕ∗.

Sea j : im ϕ −→ G la inclusion canonica (i.e. j(x) = x ∀x, pues im ϕ es un

subespacio de G). Entonces j ϕ∗ = ϕ. Ademas,

(j f) ϕ = j (f ϕ) = j ϕ∗ = ϕ.

Page 109: Álgebra Multilineal

3.1. TRANSFORMACIONES MULTILINEALES 109

Pero, por otra parte, i ϕ = ϕ, donde i : G −→ G es la identidad (i.e.

i(x) = x ∀x). Luego, por unicidad, se debe tener:

j f = i.

Esto implica que j : im ϕ −→ G es sobreyectiva (En efecto: Si z ∈ G entonces

existe f(z) en im ϕ tal que j(f(z)) = i(z) = z). Por lo tanto, im ϕ = G.

Notacion: Si el par (G,ϕ) es un producto tensorial para E y F , escribimos

G como E ⊗ F y ϕ(x, y) como x⊗ y. Luego, la bilinealidad se expresa en la

siguiente forma:

(λx1 + x2)⊗ y = λx1 ⊗ y + x2 ⊗ y ; x1, x2 ∈ E, y ∈ F

x⊗ (λy1 + y2) = λx⊗ y1 + x⊗ y2 ; x ∈ E, y1, y2 ∈ F, λ ∈ R o C.

Ejemplos

1) Sea E u e.v. sobre R y se define una transformacion bilineal ⊗ : R×E −→E como

λ⊗ x = λx.

Entonces el par (E,⊗) es un producto tensorial de R y E.

En efecto: Veamos ⊗1: ⊗(R⊗E) = R ·E = E, luego, es claro que im ⊗ = E.

Veamos ⊗2: Sea ψ : R × E −→ H bilineal y definamos f : E −→ H como

f(x) := ψ(1, x) y tal que

R× Eψ−→ H

⊗ ↓E f

.

Entonces f(λ ⊗ x) = f(λx) = ψ(1, λx) = λψ(1, x) = ψ(λ, x); esto es,

f ⊗ = ψ. Esto prueba ⊗2.

Page 110: Álgebra Multilineal

110 CAPITULO 3. PRODUCTO TENSORIAL

Concluimos que el par (E,⊗) es un producto tensorial de R y E. Esto es:

R⊗ E = E. En particular Γ⊗ Γ = Γ con λ⊗ µ = µ.

2) Sea β : Rn × Rm −→ Mn×m(R) definida por

β((x1, . . . , xn), (y1, . . . , ym)) =

x1y1 · · · x1ym

......

xny1 · · · xnym

n×m

.

Probaremos que (Mn×m(R), β) es un producto tensorial para Rn y Rm (luego,

Rn ⊗ Rm = Mn×m(R)).

En efecto : Veamos ⊗1 : 〈β(Rn × Rm)〉 = Mn×m(R). Sea A ∈ Mn×m(R) tal

que A =

α11 α12 · · · α1m

α21 α22 · · · α2m

......

...

αn1 αn2 · · · αnm

entonces

β((α11, α21, . . . , αn1), (1, 0, 0, . . .)) + β((α12, α22, . . . , αn2), (0, 1, 0, . . .))

+ · · ·+ β((α1m, α2m, . . . , αnm), (0, 0, . . . , 1))

=

α11 0 · · · 0

α21 0 · · · 0...

......

αn1 0 · · · 0

+

0 α12 0 · · ·0 α22 0 · · ·...

......

0 αn2 0 · · ·

+ · · ·+

0 · · · 0 α1m

0 · · · 0 α2m

......

...

0 · · · 0 αnm

=

α11 · · · α1m

......

αn1 · · · αnm

o sea: Dado A ∈ Mn×m(R), existen xi ∈ Rn, yi ∈ Rm tales que

A =∑

β(xi, yi).

Page 111: Álgebra Multilineal

3.1. TRANSFORMACIONES MULTILINEALES 111

Por lo tanto A ∈ 〈β(Rn × Rm)〉.Veamos ahora ⊗2: Sea ψ : Rn × Rm −→ H bilineal.

Rn × Rm ψ−→ H

β ↓ f

Mn×m(R)

.

Por ejemplo: con n = m = 2, definamos:

f

(a b

c d

)= ψ((1, 0), (a, b)) + ψ((0, 1), (c, d)).

Entonces f lineal:

f

(a1 b1

c1 d1

)+

(a2 b2

c2 d2

))= f

(λa1 + a2 λb1 + b2

λc1 + c2 λd1 + d2

)

= ψ((1, 0), (λa1 + a2, λb1 + b2)) + ψ((0, 1), (λc1 + c2, λd1 + d2))

= ψ((1, 0), λ(a1, b1) + (a2, b2)) + ψ((0, 1), λ(c1, d1) + (c2, d2))

= λψ((1, 0), (a1, b1))+ψ((1, 0), (a2, b2))+λψ((0, 1), (c1, d1))+ψ((0, 1), (c2, d2))

= λ[ψ((1, 0), (a1, b1))+ψ((0, 1), (c1, d1))]+[ψ((1, 0), (a2, b2))+ψ((0, 1), (c2, d2))]

= λf

(a1 b1

c1 d1

)+ f

(a2 b2

c2 d2

)

Finalmente,

Page 112: Álgebra Multilineal

112 CAPITULO 3. PRODUCTO TENSORIAL

(f β)((x1, x2), (y1, y2)) = f

(x1y1 x1y2

x2y1 x2y2

)

= ψ((1, 0), (x1y1, x1y2)) + ψ((0, 1), (x2y1, x2y2))

= ψ((1, 0), x1(y1, y2)) + ψ((0, 1), x2(y1, y2))

= x1ψ((1, 0), (y1, y2)) + x2ψ((0, 1), (y1, y2))

= ψ(x1(1, 0), (y1, y2)) + ψ(x2(0, 1), (y1, y2))

= ψ((x1, 0), (y1, y2)) + ψ((0, x2), (y1, y2))

= ψ((x1, 0) + (0, x2), (y1, y2))

= ψ((x1, x2), (y1, y2)).

Luego, f β = ψ.

La generalizacion se deja como ejercicio.

3.1.1 Propiedades del producto tensorial

1.- a⊗ b 6= 0 si a 6= 0 y b 6= 0.

Demostracion. Si a 6= 0 y b 6= 0, existen f : E −→ R lineal y g : F −→ Rlineal respectivamente tales que f(a) 6= 0 y g(b) 6= 0 (sino: f(a) = 0 ∀ f ∈ E∗

entonces a = 0 pues la forma bilineal 〈f, a〉 es no degenerada).

Consideremos ahora la funcion bilineal p : E×F −→ R definida por p(x, y) =

f(x)g(y).

E × Fp−→ R

⊗ ↓ h

E ⊗ F

.

Page 113: Álgebra Multilineal

3.1. TRANSFORMACIONES MULTILINEALES 113

En vista de ⊗2, existe una funcion lineal h : E ⊗ F −→ R tal que h ⊗ = p

esto es,

h(x⊗ y) = f(x)g(y) para cada (x, y) ∈ E × F .

Luego: h(a⊗ b) = f(a)g(b) 6= 0. Por lo tanto, a⊗ b 6= 0.

2.- Sea z ∈ E ⊗ F , z 6= 0; entonces z =∑r

i=1 xi ⊗ yi donde xi y yi son

L.I.

Demostracion. Sea z ∈ E ⊗ F entonces z =∑r

i=1 λiwi ⊗ yi =∑r

i=1 xi ⊗ yi

donde xi ≡ λiwi ∀ i y r es el minimo de manera que la descomposicion

anterior se cumple.

Si r = 1 entonces x1 6= 0 y y1 6= 0 (por la Propiedad 1), en consecuencia x1y y1 son dos conjuntos de vectores L.I. cada uno.

Supongamos que xiri=1 son L.D. entonces, sin perdida de generalidad,

xr =r−1∑i=1

λixi

luego,

z =r−1∑i=1

xi ⊗ yi + xr ⊗ yr =r−1∑i=1

xi ⊗ yi + (r−1∑i=1

λixi)⊗ yr

=r−1∑i=1

xi ⊗ yi +r−1∑i=1

λi(xi ⊗ yr)

=r−1∑i=1

xi ⊗ (yi + λiyr)

=r−1∑i=1

xi ⊗ yi

lo cual contradice la minimalidad de r. En la misma forma se puede mostrar

que los vectores yiri=1 son L.I. Esto prueba la propiedad.

3.- Sean ajrj=1 ⊆ E y bjr

j=1 un subconjunto de vectores L.I. de F . En-

tonces la ecuacion∑r

j=1 aj ⊗ bj = 0 implica que aj = 0 ∀ j = 1, . . . , r.

Page 114: Álgebra Multilineal

114 CAPITULO 3. PRODUCTO TENSORIAL

Demostracion. Ya que bj es un conjunto L.I. de vectores en F , se pueden

definir g1, . . . , gr : F −→ R funciones lineales tales que:

gi(bj) = δij

(e.g.: g : 〈b1, . . . , br〉 −→ R tal que g1(x) = g1(∑r

i=1 λibi) = λ1. Luego:

Sea g1 : F −→ R tal que g1(x) =

g1(x) , x ∈ 〈b1, . . . , br〉

0 , otro caso

entonces g1(b1) = 1 y g1(bj) = 0 ∀ j = 2, . . . , r. )

Consideremos ahora la funcion bilineal

F (x, y) =∑

i

fi(x)gi(y)

donde fi : E −→ R son funciones lineales (cualesquiera) en E.

E × F −→ R⊗ ↓ h

E ⊗ F

.

Por ⊗2, existe h : E ⊗ F −→ R lineal tal que:

h(x⊗ y) = F (x, y) =∑

i

fi(x)gi(y)

luego,

h(r∑

j=1

aj ⊗ bj) =∑

j

h(aj ⊗ bj)

=∑

j

∑i

fi(aj)gi(bj)

=r∑

i=1

fi(ai).

Page 115: Álgebra Multilineal

3.1. TRANSFORMACIONES MULTILINEALES 115

Ahora, por hipotesis:∑r

j=1 aj ⊗ bj = 0; por lo tanto,∑r

i=1 fi(ai) = 0.

Como los fi son cualesquiera, elegimos fi ≡ 0 para cada i 6= k (por cada

k = 1, . . . , r fijo), esto da:

fk(ak) = 0.

Como fn sigue siendo arbitrario, se tiene que ak = 0 (k = 1, . . . , r).

Corolario 95 Si E y F tienen dimension 1, entonces E⊗F tiene dimension

1.

Demostracion. Ejercicio.

4.- E ⊗ F ∼= F ⊗ E (conmutatividad del producto tensorial).

Demostracion.E × F

ϕ2−→ F ⊗ E

ϕ1 ↓ f

E ⊗ F

esto es: ϕ1(x, y) =: x⊗y y ϕ2(x, y) =: y⊗x. Luego, debemos demostrar que

ϕ1 = ϕ2.

Ya que ϕ2 es bilineal, existe f : E ⊗ F −→ F ⊗ E lineal tal que

f ϕ1 = ϕ2.

Esto es: f(x⊗ y) = y ⊗ x.

De la misma formaE × F

ϕ1−→ E ⊗ F

ϕ2 ↓ g

F ⊗ E

existe g : F ⊗ E −→ E ⊗ F tal que g ϕ2 = ϕ1; esto es:

g(y ⊗ x) = x⊗ y.

Page 116: Álgebra Multilineal

116 CAPITULO 3. PRODUCTO TENSORIAL

Entonces:

g f ϕ1 = g ϕ2 = ϕ1 y f g ϕ2 = f ϕ1 = ϕ2

esto es:

g f ϕ1 = ϕ1 y f g ϕ2 = ϕ2

o equivalentemente:

(g f)(x⊗ y) =︸︷︷︸(1)

(x⊗ y) y (f g)(y ⊗ x) = (y ⊗ x).

Como im ϕ1 = E ⊗ F se tiene que g f = I. En efecto: Sea v ∈ E ⊗ F .

Entonces v =∑

λixi ⊗ yi, luego:

(g f)(v) = (g f)(∑

λixi ⊗ yi)

=∑

λi(g f)(xi ⊗ yi)

=∑

λi(xi ⊗ yi) de (1)

= v.

Analogamente: f g = I. Esto prueba que f (o g) es 1-1 y sobreyectiva. Por

lo tanto, E ⊗ F ∼= F ⊗ E.

5.- Unicidad del producto tensorial.

Supongamos que E⊗F y E⊗F son productos tensoriales de E y F . Entonces

E ⊗ F ∼= F ⊗ E.

Demostracion.

E × Fϕ2−→ E⊗F

ϕ1 ↓ f

E ⊗ F

Page 117: Álgebra Multilineal

3.1. TRANSFORMACIONES MULTILINEALES 117

luego, ϕ1(x, y) = x⊗ y y ϕ2(x, y) = x⊗y.

Ya que ϕ2 es bilineal, la propiedad de factorizacion implica que existe f :

E ⊗ F −→ E⊗F lineal tal que:

f ϕ1 = ϕ2.

Analogamente:

E × Fϕ1−→ E ⊗ F

ϕ2 ↓ g

E⊗F

existe g : E⊗F −→ E⊗F tal que gϕ2 = ϕ1. Combinando ambas relaciones

se obtiene:

(g f)(x⊗ y) = x⊗ y y (f g)(x⊗y) = x⊗y.

Nuevamente, como im ϕ1 = E ⊗ F y im ϕ2 = E⊗F se obtiene que f g = i

y g f = i, de donde sigue el resultado.

6.- Asociatividad del producto tensorial: (E ⊗ F )⊗G ∼= E ⊗ (F ⊗G).

Demostracion. Sea z ∈ G fijo. Definamos βz : E × F → E ⊗ (F ⊗ G) por

βz(x, y) = x⊗ (y ⊗ z). Es claro que βz es bilineal: En efecto,

βz(λx1 + x2, y) = (λx1 + x2)⊗ (y ⊗ z)

= λx1 ⊗ (y ⊗ z) + x2 ⊗ (y ⊗ z)

= λβz(x1, y) + βz(x2, y)

βz(x, λy1 + y2) = x⊗ (λy1 + y2 ⊗ z)

= x⊗ [λy1 ⊗ z + y2 ⊗ z]

= x⊗ (λy1 ⊗ z) + x⊗ (y2 ⊗ z)

= λx⊗ (y1 ⊗ z) + x⊗ (y2 ⊗ z)

= λβz(x, y1) + βz(x, y2)

Page 118: Álgebra Multilineal

118 CAPITULO 3. PRODUCTO TENSORIAL

Por definicion de producto tensorial, el siguiente diagrama es conmutativo:

E × Fβz−→ E ⊗ (F ⊗G)

⊗ ↓ hz

E ⊗ F

esto es, existe una unica transformacion lineal hz : E ⊗ F → E ⊗ (F ⊗ G)

tal que hz ⊗ = βz, esto es:

hz(x⊗ y) = βz(x, y) = x⊗ (y ⊗ z) ∀x ∈ E, y ∈ F.

Sea ψ : (E ⊗ F )×G → E ⊗ (F ⊗G) definida por:

ψ(x⊗ y, z) = hz(x⊗ y).

Entonces ψ es bilineal: En efecto,

ψ(λ(x1 ⊗ y1) + (x2 ⊗ y2), z) = hz(λ(x1 ⊗ y1) + (x2 ⊗ y2))

= λhz(x1 ⊗ y1) + hz(x2 ⊗ y2)

= λψ(x1 ⊗ y1, z) + ψ(x2 ⊗ y2, z)

Ademas, por unicidad, hλz1+z2 = λhz1 + hz2 de donde sigue la linealidad en

la segunda componente (Ejercicio).

Ası, el siguiente diagrama es conmutativo:

(E ⊗ F )×Gψ−→ E ⊗ (F ⊗G)

⊗ ↓ g

(E ⊗ F )⊗G

esto es, existe una unica transformacion lineal g : (E⊗F )⊗G → E⊗(F⊗G)

tal que g ⊗ = ψ, esto es:

g((x⊗ y)⊗ z) = ψ(x⊗ y, z) = hz(x⊗ y) = x⊗ (y ⊗ z) (3.1)

Page 119: Álgebra Multilineal

3.1. TRANSFORMACIONES MULTILINEALES 119

Sea ahora x ∈ E fijo. Definamos αx : F ×G → (E ⊗ F )⊗G por αx(y, z) =

(x ⊗ y) ⊗ z. Claramente αx es bilineal. El siguiente diagrama es ahora

conmutativo:F ×G

αx−→ (E ⊗ F )⊗G

⊗ ↓ bhx

F ⊗G

esto es, existe una transformacion lineal hx : F ⊗G → (E ⊗ F )⊗G tal que

hx ⊗ = αx esto es:

hx(y ⊗ z) = αx(y, z) = (x⊗ y)⊗ z.

Sea ψ : E × (F ⊗G) → (E ⊗ F )⊗G definida por

ψ(x, y ⊗ z) = αx(y ⊗ z).

Entonces ψ es bilineal y el siguiente diagrama es conmutativo:

E × (F ⊗G)bψ−→ (E ⊗ F )⊗G

⊗ ↓ bgE ⊗ (F ⊗G)

esto es, existe una unica g : E ⊗ (F ⊗G) → (E ⊗F )⊗G tal que: g ⊗ = ψ,

esto es:

g(x⊗ (y ⊗ z)) = ψ(x, y ⊗ z) = (x⊗ y)⊗ z. (3.2)

Luego, de (3.1) y (3.2) :

(g g)(x⊗ (y ⊗ z)) = g((x⊗ y)⊗ z) = x⊗ (y ⊗ z)

y

(g g)((x⊗ y)⊗ z) = g(x⊗ (y ⊗ z)) = (x⊗ y)⊗ z.

Por lo tanto, g g = id y g g = id, luego g es un isomorfismo y, por lo tanto,

(E ⊗ F )⊗G ∼= E ⊗ (F ⊗G).

Page 120: Álgebra Multilineal

120 CAPITULO 3. PRODUCTO TENSORIAL

Teorema 96 (Reduccion de transformaciones bilineales a lineales).

Sean E y F e.v. y E ⊗ F un producto tensorial. Entonces

L(E ⊗ F ; G) ∼= B(E, F ; G)

para cada espacio vectorial G.

Demostracion. Se define φ : L(E ⊗ F ; G) −→ B(E, F ; G) como:

φ(f) := f ⊗ ∀ f ∈ L(E ⊗ F ; G)

i.e. φ(f) : E × F −→ G tal que φ(f)(x, y) = f(x⊗ y).

Claramente φ es lineal:

φ(λf1 + f2)(x, y) = (λf1 + f2)(x⊗ y)

= λf1(x⊗ y) + f2(x⊗ y)

= λφ(f1)(x, y) + φ(f2)(x, y)

= (λφ(f1) + φ(f2))(x, y).

i) φ es sobreyectiva.

Sea b ∈ B(E, F ; G), entonces b : E×F −→ G es bilineal. Luego, por ⊗2,

existe f : E ⊗ F −→ G tal que es lineal y f ⊗ = b, esto es, φ(f) = b.

ii) φ es inyectiva.

Como φ es lineal basta ver que φ(f) = 0 implica f = 0. En efecto: Sea

φ(f) = 0, entonces (f ⊗)(x, y) = 0 ∀x ∈ E, y ∈ F , esto es: f(x ⊗ y) =

0 ∀x ∈ E, y ∈ F . Sea z ∈ E ⊗ F . Entonces z =∑

xi ⊗ yi. Luego:

f(z) =∑

f(xi ⊗ yi) = 0. Por lo tanto, f ≡ 0.

Page 121: Álgebra Multilineal

3.1. TRANSFORMACIONES MULTILINEALES 121

Ejercicios

1. Suponga que a ⊗ b 6= 0. Demuestre que a ⊗ b = a′ ⊗ b′ si y solo si

a′ = λa y b′ = λ−1b; λ ∈ R, λ 6= 0.

2. Sea (G,ϕ) un producto tensorial de E y F . Sean E1 ≤ E, F1 ≤ F . Sea

ϕ1 : E1× F1 −→ G la restriccion de ϕ a E1× F1. Entonces (im ϕ1, ϕ1)

es un producto tensorial para E1 y F1.

3. Sean ai y bi bases de E y F respectivamente. Entonces ai ⊗ bjes una base de E ⊗ F .

4. Demuestre que

dim B(E, F ; G) = dim E dim F dim G.

5. Sean E1 y E2 subespacios de E. Sea F e.v. de dimension finita

entonces

(E1 ⊗ F ) ∩ (E2 ⊗ F ) = (E1 ∩ E2)⊗ F.

6. Sea E = E1 ⊕ E2 y F = F1 ⊕ F2. Entonces

E ⊗ F = E1 ⊗ F1 ⊕ E1 ⊗ F2 ⊕ E2 ⊗ F1 ⊕ E2 ⊗ F2.

3.1.2 Producto tensorial de transformaciones lineales

Sean E, E ′, F , F ′ cuatro espacios vectoriales.

Consideremos dos transformaciones lineales :

ϕ : E → E ′ ; ψ : F → F ′.

Page 122: Álgebra Multilineal

122 CAPITULO 3. PRODUCTO TENSORIAL

Queremos definir una transformacion lineal

ϕ⊗ ψ : E ⊗ F → E ′ ⊗ F ′

para esto procedemos como ilustra el siguiente diagrama:

E × Fp−→ H

⊗ ↓ f

E ⊗ F

.

Dados E y F , existe el producto tensorial E ⊗ F . Por definicion, sabemos

que dada cualquier funcion bilineal p : E × F → H, H cualquier espacio

vectorial, existe una unica f : E ⊗ F → H tal que f ⊗ = p (propiedad de

factorizacion unica). Escojamos

p : E × F → E ′ ⊗ F ′

definida por p(x, y) = ϕ(x)⊗ ψ(y).

Claramente p es bilineal. Luego, existe una unica funcion lineal γ : E⊗F →E ′ ⊗ F ′ tal que γ(x⊗ y) = p(x, y).

Se define: γ ≡ ϕ⊗ ψ. Luego, por definicion:

(ϕ⊗ ψ)(x⊗ y) = ϕ(x)⊗ ψ(y)

y se llama el producto tensorial de las transformaciones lineales ϕ y ψ.

3.1.3 Transformaciones Multilineales

Sea E un espacio vectorial y consideremos

T k(E) := f : E × · · · × E︸ ︷︷ ︸k−veces

→ R / F es multilineal

Page 123: Álgebra Multilineal

3.1. TRANSFORMACIONES MULTILINEALES 123

el conjunto de todas las funciones que son multilineales. Los elementos de

T k(E) los llamaremos tensores de orden k.

Problema: Definir un producto en T k(E) y estudiar este espacio.

Recordemos el isomorfismo:

T k(E) ∼= L(⊗kE;R)

definido en la seccion anterior. Aquı, ⊗k = E ⊗ E ⊗ · · · ⊗ E︸ ︷︷ ︸k−veces

.

Consideremos ahora dos transformaciones lineales:

T : ⊗kE → R S : ⊗lE → R.

De acuerdo a la seccion anterior, podemos definir una unica transformacion

lineal T ⊗ S : ⊗kE ⊗⊗lE → R⊗ R, esto es:

T ⊗ S : ⊗k+lE → R,

tal que (T ⊗S)(x⊗ y) = T (x)S(y). Notar que T (x)⊗T (y) = T (x)T (y) pues

se trata del producto tensorial en R y R⊗ R ∼= R.

Mas precisamente,

(T ⊗ S)(x1 ⊗ · · · ⊗ xk ⊗ y1 ⊗ · · · ⊗ yl) = T (x1 ⊗ · · · ⊗ xk)S(y1 ⊗ · · · ⊗ yl)

donde T ⊗ S ∈ L(⊗k+lE;R).

Ya que L(⊗k+lE;R) ∼= T k+l(E), lo anterior se puede traducir en terminos

de funciones multilineales, esto es, se puede definir un (unico) producto de

funciones multilineales (o tensores de orden k).

Mas precisamente, si T ∈ T k(E) y S ∈ T l(E), entonces la definicion

(T ⊗ S)(x1, . . . , xk, y1, . . . , yl) = T (x1, . . . , xk)S(y1, . . . , yl) (∗)

produce una funcion T⊗S ∈ T k+l(E) llamada el producto de tensores T y S .

Page 124: Álgebra Multilineal

124 CAPITULO 3. PRODUCTO TENSORIAL

Ejemplos de Tensores

1. Una funcion determinante es un tensor.

En efecto, basta recordar la definicion de la seccion 1.3: Es una funcion

∆ : E × · · · × E → R multilineal y antisimetrica.

2. Un producto interior es un tensor de orden 2.

En efecto: Recordemos de la seccion 1.1 que un producto interior en una fun-

cion 〈, 〉 : E × E → R bilineal, que es ademas simetrica y definida positiva.

Proposicion 97 (Propiedades del producto de Tensores)

a) (S1 + S2)⊗ T = S1 ⊗ T + S2 ⊗ T

b) S ⊗ (T1 + T2) = S ⊗ T1 + S ⊗ T2

c) (aS)⊗ T = S ⊗ (aT ) = a(S ⊗ T )

d) (S ⊗ T )⊗ U = S ⊗ (T ⊗ U)

Demostracion. Usando la definicion (∗), se probara (a). Las partes (b), (c)

y (d) quedan de ejercicio.

[(S1 + S2)⊗ T ](x1, x2, . . . , xk, y1, y2, . . . , yl)

= (S1 + S2)(x1, . . . , xk)T (y1, . . . , yl)

= [S1(x1, . . . , xk) + S2(x1, . . . , xk)]T (y1, . . . , yl)

= S1(x1, . . . , xk)T (y1, . . . , yl) + S2(x1, . . . , xk)T (y1, . . . , yl)

= (S1 ⊗ T )(x1, . . . , xk, y1, . . . , yl) + (S2 ⊗ T )(x1, . . . , xk, y1, . . . , yl)

= [(S1 ⊗ T ) + (S2 ⊗ T )](x1, . . . , xk, y1, . . . , yl)

Supongamos que E tiene dimension finita. El siguiente resultado nos dice

como es T k(E) internamente:

Page 125: Álgebra Multilineal

3.1. TRANSFORMACIONES MULTILINEALES 125

Teorema 98 Sea e1, . . . , en base de E y sea f1, . . . , fn la base dual (esto

es, la base de L(E;R), que verifica fi(ej) = δij). Entonces el conjunto de

todos los productos tensoriales de k-factores:

fi1 ⊗ fi2 ⊗ · · · ⊗ fik ; 1 ≤ i1, . . . , ik ≤ n

es una base de T k(E), que ademas tiene dimension nk.

Demostracion. Es claro que, por definicion

(fi1 ⊗ fi2 ⊗ · · · ⊗ fik)(x1, . . . , xk) = fi1(x1)fi2(x2) · · · fik(xk)

es una funcion k-lineal, esto es, un elemento de T k(E).

Ademas

(fi1 ⊗ fi2 ⊗ · · · ⊗ fik)(ej1 , ej2 , . . . , ejk) = fi1(ej1)fi2(ej2) · · · fik(ejk

)

= δi1,j1δi2,j2 · · · δik,jk

=

1 si j1 = i1 , j2 = i2 , . . . , jk = ik,

0 otro caso(∗)

Veamos que el conjunto de vectores genera T k(E). Sea T ∈ T k(E). Entonces

T : E × · · · × E → R es multilineal. Sean w1, . . . , wk ∈ E; entonces para

cada wj:

wi =n∑

j=1

aijej (∗∗).

Luego :

T (w1, . . . , wk) = T (n∑

j1=1

a1j1ej1 , . . . ,

n∑jk=1

akjkejk

)

=n∑

j1,··· ,jk=1

a1j1 · · · akjkT (ej1 , . . . , ejk

) (∗ ∗ ∗)

Ahora, de (∗) y (∗∗) notemos que:

(fi1 ⊗ fi2 ⊗ · · · ⊗ fik)(w1, . . . , wk) = fi1(w1) · · · fik(wk)

Page 126: Álgebra Multilineal

126 CAPITULO 3. PRODUCTO TENSORIAL

donde, por ejemplo,

fi1(w1) = fi1(n∑

j=1

a1jej) =n∑

j=1

a1jfi1(ej) = a1i1 .

Ası,

(fi1 ⊗ fi2 ⊗ · · · ⊗ fik)(w1, . . . , wk) = a1i1a2i2 · · · akik ;

por lo tanto insertando esto en (∗ ∗ ∗) se obtiene:

T (w1, . . . , wk) =n∑

i1,...,ik=1

T (ei1 , . . . , eik)(fi1 ⊗ fi2 ⊗ · · · ⊗ fik)(w1, . . . , wk)

luego ,

T =n∑

i1,...,ik=1

T (ei1 , . . . , eik)(fi1 ⊗ fi2 ⊗ · · · ⊗ fik).

Esto prueba que el conjunto genera T k(E).

Veamos ahora que el conjunto es L.I.

Supongamos que existen escalares ai1ai2 · · · aik tales que

n∑i1,...,ik=1

ai1ai2 · · · aik(fi1 ⊗ fi2 ⊗ · · · ⊗ fik) = 0.

Aplicando el vector de la base (ej1 , . . . , ejk) se obtiene de (∗) que todos los

elementos de la suma son cero excepto cuando j1 = i1, j2 = i2, . . . , jk = ik,

esto es:

aj1 , aj2 , . . . , ajk= 0.

Esto prueba que el conjunto es L.I.

Se deja como ejercicio para el lector probar que esta base tiene nk ele-

mentos.

Page 127: Álgebra Multilineal

3.1. TRANSFORMACIONES MULTILINEALES 127

3.1.4 Producto Exterior

Consideremos el tensor ”determinante”∆ ∈ T k(E). Este tensor es impor-

tante pues, como vimos, permite entre otros definir el producto cruz en es-

pacios de dimension 3 y la nocion de orientacion de un espacio de dimension

finita.

Recordemos que, por definicion, un determinante no solo es una funcion

multilineal, sino tambien alternada. Consideremos el conjunto (de todos los

determinantes)

Λk(E) = f : E × E × · · · × E → R / f es multilineal y alternada .

Es claro que Λk(E) es un subespacio de T k(E). A fin de estudiar de mejor

manera esta parte de T k(E) se define la siguiente funcion:

Alt : T k(E) → T k(E)

como

Alt(T )(v1, . . . , vk) =1

k!

∑σ∈Sk

sgn σT (vσ(1), . . . , vσ(k))

donde sgn σ es +1 si la permutacion σ es par y es−1 si es impar. Ademas, Sk

es el conjunto de todas las permutaciones del conjunto de numeros 1, 2, . . . , k.

Teorema 99

(1) Si T ∈ T k(E) entonces Alt(T ) ∈ Λk(E).

(2) Si w ∈ Λk(E) entonces Alt(w) = w.

(3) Si T ∈ T k(E) entonces Alt(Alt(T )) = Alt(T ).

A fin de tener una mejor visualizacion del Teorema anterior, consideremos el

caso k = 1 y k = 2.

Para k = 1 se tiene: Alt : T 1(E) → T 1(E) tal que Alt(T )(v) = T (v); esto

es,

Alt(T ) = T o Alt ≡ Id.

Page 128: Álgebra Multilineal

128 CAPITULO 3. PRODUCTO TENSORIAL

Para k = 2 se tiene: Alt : T 2(E) → T 2(E) tal que

Alt(T )(v1, v2) =1

2[T (v1, v2)− T (v2, v1)].

En lo que sigue probaremos el teorema en el caso k = 2. El caso general

queda de ejercicio para el lector.

(1) Sea T ∈ T 2(E) entonces es claro que Alt(T ) esta en T 2(E) (i.e. es

bilineal) pues, por ejemplo,

Alt(T )(λv1 + w1, v2) =1

2[T (λv1 + w1, v2)− T (v2, λv1 + w1)]

=1

2[λT (v1, v2) + T (w1, v2)− λT (v2, v1) + T (v2, w1)]

= λ1

2[T (v1, v2)− T (v2, v1)] +

1

2[T (w1, v2)− T (v2, w1)]

= λAlt(T )(v1, v2) + Alt(T )(w1, v2)

Veamos que ademas es alternada: Alt(T )(v1, v2) = −Alt(T )(v2, v1).

En efecto:

Alt(T )(v2, v1) =1

2[T (v2, v1)− T (v1, v2)]

= −1

2[T (v1, v2)− T (v2, v1)] = −Alt(T )(v1, v2).

(2) Sea w ∈ Λ2(E). Entonces

Alt(T )(w)(v1, v2) =1

2[w(v1, v2)− w(v2, v1)]

=1

2[2w(v1, v2)] pues w es alternada ssi w(v1, v2) = −w(v2, v1)

= w(v1, v2).

Por lo tanto, Alt(w) = w.

(3) Sea T ∈ T 2(E). Entonces por (1) w := Alt(T ) ∈ Λ2(E). Luego, por (2):

Alt(Alt(T )) = Alt(w) = w = Alt(T ).

Page 129: Álgebra Multilineal

3.1. TRANSFORMACIONES MULTILINEALES 129

El problema siguiente es determinar la dimension de Λk(E). Para ello se

necesitara un teorema analogo al visto para el caso T k(E). Por esto, necesi-

tamos definir un producto en Λk(E), el cual llamaremos producto exterior, y

que se define como sigue:

Dados w ∈ Λk(E) y η ∈ Λl(E), se define ω ∧ η ∈ Λk+l(E) como:

ω ∧ η :=(k + l)!

k!l!Alt(ω ⊗ η).

Observaciones:

1) Note que, efectivamente, ω ∧ η ∈ Λk+l(E) gracias a que por el Teorema

anterior parte (1), si ω ⊗ η ∈ T k+l(E) entonces Alt(ω ⊗ η) ∈ Λk+l(E).

2) El producto ω ⊗ η no sirve pues no esta en Λk+l(E) necesariamente.

Proposicion 100 (Propiedades del Producto Exterior)

a) (ω1 + ω2) ∧ η = ω1 ∧ η + ω2 ∧ η

b) ω ∧ (η1 + η2) = ω ∧ η1 + ω ∧ η2

c) aω ∧ η = ω ∧ aη = a(ω ∧ η)

d) ω ∧ η = (−1)klη ∧ ω.

Probaremos la propiedad (a), el resto queda de ejercicio.

(ω1 + ω2) ∧ η =(k + l)!

k!l!Alt((ω1 + ω2)⊗ η)

=(k + l)!

k!l!Alt(ω1 ⊗ η + ω2 ⊗ η)

=(k + l)!

k!l!Alt(ω1 ⊗ η) +

(k + l)!

k!l!Alt(ω2 ⊗ η) (Ejercicio)

= ω1 ∧ η + ω2 ∧ η.

Page 130: Álgebra Multilineal

130 CAPITULO 3. PRODUCTO TENSORIAL

Teorema 101

(1) Si S ∈ T k(E), T ∈ T l(E) y Alt(S) = 0, entonces

Alt(S ⊗ T ) = Alt(T ⊗ S) = 0.

(2) Alt(Alt(ω ⊗ η)⊗ θ) = Alt(ω ⊗ η ⊗ θ) = Alt(ω ⊗ Alt(η ⊗ θ))

(3) Si ω ∈ Λk(E), η ∈ Λl(E) y θ ∈ Λm(E) entonces

(ω ∧ η) ∧ θ = ω ∧ (η ∧ θ) =(k + l + m)!

k!l!m!Alt(ω ⊗ η ⊗ θ)

Demostracion. Veamoslo para el caso k = l = 1

(1)

Alt(S ⊗ T )(v1, v2) =1

2[(S ⊗ T )(v1, v2)− (S ⊗ T )(v2, v1)]

=1

2[S(v1)T (v2)− S(v2)T (v1)]

Como, Alt(S)(v) = S(v) = 0 se obtiene que Alt(S⊗T )(v1, v2) = 0. Analogamente

se demuestra que Alt(T ⊗ S) = 0.

Las partes (2) y (3) quedan de ejercicio para el lector.

Teorema 102 Sea e1, . . . , en base de E y f1, . . . , fn base dual. El con-

junto

fi1 ∧ fi2 ∧ · · · ∧ fik 1 ≤ i1 < i2 < · · · < ik ≤ n

es una base para Λk(E), que tiene dimension:

(n

k

)=

n!

k!(n− k)!.

Demostracion. Ejercicio.

Page 131: Álgebra Multilineal

Bibliografıa

[1] W. H. Greub, Linear Algebra, Springer-Verlag, vol. 97, Berlin-

Heidelberg, 1967.

[2] W. H. Greub, Multilinear Algebra, Springer-Verlag, vol.136, Berlin-

Heidelberg, 1967.

131