Álgebra ii (lm-pm) - algebra-lineal.webs.com · demostración: queda de tarea para el alumno ......
TRANSCRIPT
Álgebra II (LM-PM) - Álgebra Lineal (Ings.) - F.C.E. y T.- UNSE
Unidad 6 1
ÁLGEBRA
LINEAL Ingenierías
ÁLGEBRA II LM - PM
Unidad Nº 6 Valores y Vectores propios.
FCEyT - UNSE
Álgebra II (LM-PM) - Álgebra Lineal (Ings.) - F.C.E. y T.- UNSE
Unidad 6 2
Unidad Nº6: VALORES Y VECTORES PROPIOS
1.- VALORES Y VECTORES PROPIOS DE UN OPERADOR LINEAL Definición 1 Sea V un espacio vectorial sobre un cuerpo F (R o C). Un operador lineal sobre V es una transformación lineal de V en V. Definición 2
Sea V ≠ {0v} un espacio vectorial sobre un cuerpo F, y sea T un operador lineal sobre V. Un escalar F∈λ es un valor propio de T si y sólo si existe algún vector no nulo Vv∈ tal que
vvT )( λ= . Definición 3
Sea V ≠ {0v} un espacio vectorial sobre un cuerpo F, y sea T un operador lineal sobre V. Si F∈λ es un valor propio de T , se llama vector propio de T asociado al valor propio λ, a todo
vector no nulo v ∈ V que verifica la condición T (v) = λ v.
Notas:
1.- Los valores propios de un operador lineal T sobre un espacio vectorial VF pertenecen al cuerpo F en el que está definido el espacio vectorial V.
2.- Son sinónimos
a) valor propio, valor característico, raiz característica, autovalor, eigenvalor, valor espectral
b) vector propio, vector característico, autovector, eigenvector
3.- Si v es un vector propio de T asociado a un valor propio λ, entonces T (v) es un múltiplo escalar de v, ya que T (v) = λ v. En el caso en que λ ≠ 0 entonces v y T(v) son paralelos, por definición de paralelismo de vectores.
4.- Los valores y vectores propios tienen una interpretación geométrica útil en los espacios vectoriales reales R2 y R3.
Esto es así, ya que si v es un vector propio de un operador lineal T sobre R2 (o R3 ), asociado a un valor propio λ, entonces T dilata a v, contrae a v, invierte el sentido de v, etc. según sea el valor de λ.
λ v v v v λ v λ v O O O Proposición 1
Sea F∈λ un valor propio de un operador lineal FF VVT →: . El conjunto Eλ formado por todos los vectores Vv∈ tales que vvT )( λ= es un subespacio vectorial de V. Esto es,
{ } VvvTVvS ≺ )(/ λλ =∈=
Demostración: Queda de tarea para el alumno Definición 4
λS se denomina espacio propio asociado al valor propio F∈λ .
λ > 0 0 < λ < 1 1< λ < 0
Álgebra II (LM-PM) - Álgebra Lineal (Ings.) - F.C.E. y T.- UNSE
Unidad 6 3
Proposición 2
Sea FF VVT →: un operador lineal. Entonces el conjunto de vectores propios de T asociados a valores propios diferentes es linealmente independiente. Demostración:
Sean nvvv ,...,, 21 vectores propios de T asociados a Fn ∈λλλ ..., , , 21 respectivamente, tales que
ji λλ ≠ , si ji ≠ .
Es decir:
iii vvT )( λ= , con ji λλ ≠ , si ji ≠ .
Debemos probar que { nvvv ,...,, 21 } es linealmente independiente, es decir que
==∀⇒=∈∀ ∑=
0 ; ..., ,1 0 , v1
i
n
iii anivaNn : P(n)
Para ello, demostraremos que la proposición P(n) es verdadera empleando inducción en n � Si 1=n , entonces
00 111 =⇒= ava v
ya que 1v es vector propio y por lo tanto vv 01 ≠
Luego, se verifica que la Proposición P(n) es verdadera para 1=n , es decir { }1v es linealmente independiente.
� Si suponemos que la Proposición P(n) es válida para hn = , debemos probar que la Proposición P(n) es verdadera para 1+= hn .
En esta situación la hipótesis inductiva es: la Proposición P(n) es verdadera para hn = , es decir que el conjunto { }hvvv ,...,, 21 es linealmente independiente.
Debemos probar que la Proposición P(n) es verdadera para 1+= hn , es decir que el conjunto { }1,,...,, 21 +hh vvvv es linealmente independiente.
Para ello tomemos la siguiente combinación lineal, de valor v0 , de estos 1+h vectores propios
v0 1
1
=∑+
=
h
iii va (1)
Aplicamos T en ambos miembros de (1):
( )v0 1
1
TvaTh
iii =
∑
+
=
Por Propiedades 1 y 3 de Transformaciones lineales, resulta
( ) v0 1
1
=∑+
=
h
iii vTa
Por hipótesis iii vvT )( λ= , con ji λλ ≠ , si ji ≠ entonces reemplazando se tiene
Álgebra II (LM-PM) - Álgebra Lineal (Ings.) - F.C.E. y T.- UNSE
Unidad 6 4
v0 1
1
=∑+
=
h
iiii va λ (2)
Ahora, multiplicamos ambos miembros por 1+hλ en (1)
v1
1
11 0 +
+
=+ =∑ h
h
iiih va λλ
Por propiedad distributiva del producto de un escalar por una combinación lineal, es
v
1
11 0 =∑
+
=+
h
iiih vaλ
Como el producto es conmutativo en el cuerpo F, resulta
v
1
11 0 =∑
+
=+
h
iihi va λ (3)
Si restamos miembro a miembro (3)-(2), tenemos
v
1
1
1
11 0 =−∑ ∑
+
=
+
=+
h
i
h
iiiiihi vava λλ
y realizando las operaciones correspondientes, obtenemos
( ) v1
1 0 =−∑=
+
h
iiihi va λλ
esto es,
( ) ( ) ( ) v0 =−++−+− +++ hh1hh221h2111h1 vλλa...vλλavλλa
Observemos que ésta expresión es una combinación lineal de valor 0v de vectores del conjunto { }hvv ..., ,1 , que es linealmente independiente por hipótesis inductiva, de modo que los escalares
deben ser simultáneamente nulos.
Es decir, ( ) 00 1111 =⇒=−+ aa h λλ
( ) 00 2212 =⇒=−+ aa h λλ
: : : :
( ) 00 1 =⇒=−+ hh aa hh λλ
Esto es así ya que los valores propios son diferentes entre sí, por hipótesis del teorema, por lo tanto los escalares son simultáneamente nulos
a1 = a2 = ... = ah = 0
Reemplazando en (1) el valor de estos escalares, obtenemos
v11 0 0... 0 0 21 =++++ ++ hhh vavvv
de donde,
00 111 =⇒= +++ hhh ava v
ya que vhv 01 ≠+ por ser vector propio de T.
Álgebra II (LM-PM) - Álgebra Lineal (Ings.) - F.C.E. y T.- UNSE
Unidad 6 5
Luego { }1,,...,, 21 +hh vvvv es linealmente independiente, y por lo tanto la proposición P(n) es
verdadera para todo n ∈ N.
Q.E.D.
Observación:
La proposición recíproca de la Proposición 2 es falsa, pues puede ocurrir que un conjunto de vectores propios sea linealmente independiente y estos vectores estén asociados a valores propios no necesariamente distintos, hasta puede ocurrir que todos los valores propios sean iguales. Tal es el caso del operador lineal Identidad sobre el espacio vectorial real R3 , este es, Id : R
3 →→→→ R3/ Id (x, y, z) = (x, y, z) en donde el conjunto de vectores propios {(1, 0, 0), (0, 1, 0), (0, 0, 1)} es linealmente independiente y estos vectores propios están asociados al valor propio λ1 = λ2 = λ3 = 1.
Teorema 1
Sea FV un espacio vectorial de dimensión finita n y sea T un operador lineal sobre V. Si existe
una base B de V formada por vectores propios nvvv ..., , , 21 de T, asociados a los valores propios
nλλλ ..., , , 21 , no necesariamente diferentes, entonces la matriz asociada a T respecto a la base B de
V es una matriz diagonal y en su diagonal principal se encuentran los valores propios de T. Demostración:
Por hipótesis, tenemos que B { }nvvv ..., , , 21= es una base de V tal que
111 )( vvT λ= , 222 )( vvT λ= , ..., nnn vvT )( λ= ,
con los iλ no necesariamente diferentes.
Expresamos a cada uno de los vectores ),( 1vT )( 2vT , ... , )( nvT en término de los vectores de la
base B , es decir, como combinación lineal de los vectores de B :
nvvvvT 0... 0 )( 2111 +++= λ
nvvvvT 0... 0)( 2212 +++= λ
: : : :
nn vvvvT n ... 0 0)( 21 λ+++=
Es claro que las columnas de la matriz asociada a T respecto a la base B son las coordenadas de los vectores ),( 1vT )( 2vT , ..., )( nvT respecto de la base B.
Es decir que las columnas de la matriz asociada a T respecto a la base B son los vectores:
[ ] 1
1
1
0
0nx
B FvT ∈
=:
:)(
λ
, [ ] 12
2
0
0
nxB FvT ∈
=:
:)(
λ, …, [ ] 1
0
0
nx
n
Bn FvT ∈
=
λ:
:)(
Luego la matriz asociada a T respecto a la base B es
Álgebra II (LM-PM) - Álgebra Lineal (Ings.) - F.C.E. y T.- UNSE
Unidad 6 6
nxn
n
FM ∈
=
λ
λλ
...00
:...::
:...::
0...0
0 ... 0
2
1
M es una matriz diagonal, cuya diagonal principal está formada por los valores propios del operador lineal T; con lo que queda demostrado el teorema. Observación:
En el Teorema 1 no se requiere que los escalares λi sean distintos, incluso pueden ser todos iguales como vimos en el caso del operador lineal Identidad Id : R
3 →→→→ R3/ Id (x, y, z) = (x, y, z) que tiene tres valores propios coincidentes λ1 = λ2 = λ3 = 1 y los vectores propios asociados son los tres vectores canónicos (1, 0, 0), (0, 1, 0), (0, 0, 1) que constituyen un conjunto linealmente independientes y por lo tanto es una base de R3 y en consecuencia la matriz asociada al operador lineal Identidad con respecto de esta base, es una matriz diagonal, más aún es una matriz escalar, los elementos de su diagonal principal son unos . Definición 5
Sea FV un espacio vectorial de dimensión finita n y sea T un operador lineal sobre V. T es diagonalizable si y sólo si existe una base de V formada por vectores propios de T.
Proposición 3
Sea FV un espacio vectorial de dimensión finita n y sea T un operador lineal sobre V. Si T tiene n valores propios diferentes, entonces T es diagonalizable. Demostración: Por hipótesis el operador lineal T admite n valores propios λ1, λ2, …,λ n diferentes, entonces por el Teorema 1, el conjunto {v1, v2, …, vn } formado por los n vectores propios de T asociados a los valores propios λ1, λ2, …,λ n respectivamente, es linealmente independiente.
Además, como la dimensión del espacio vectorial V es igual a n, resulta que {v1, v2, …, vn} es una base de V. Luego por la Definición 5 el operador lineal T es diagonalizable. 2.- VALORES Y VECTORES PROPIOS DE UNA MATRIZ Definición 1
Sea nnFA x ∈ . Un escalar F∈λ es un valor propio de A si y sólo si existe algún vector no nulo 1 x nFv∈ tal que vvA λ= .
Definición 2
Álgebra II (LM-PM) - Álgebra Lineal (Ings.) - F.C.E. y T.- UNSE
Unidad 6 7
Si F∈λ es un valor propio de nnFA x ∈ . Los vectores no nulos 1 x nFv∈ que verifican la condición vvA λ= se denominan vectores propios de A asociados al valor propio λ .
Proposición 1
El conjunto λE de los vectores 1 x nFv∈ tales que verifican la condición vvA λ= es un
subespacio vectorial de V. Esto es
{ } VvvAFvE nx / 1≺λλ =∈=
Demostración:
Queda para el alumno.(Es similar a la Proposición 1 correspondiente a los operadores lineales).
Definición 3
El conjunto λE de los vectores 1 x nFv∈ tales que verifican la condición vvA λ= se denomina
espacio propio correspondiente al valor propioλ . Proposición 2
Sea nnFA x ∈ . El conjunto de vectores propios de A asociados a valores propios diferentes es linealmente independiente. Demostración: Queda para el alumno.(Es similar a la Proposición 2 correspondiente a los operadores lineales). Proposición 3
Sea nnFA x ∈ , F∈λ es un valor propio de A si y sólo si la matriz AI n −λ es singular (no
inversible), siendo In la matriz unidad de orden n. Demostración
F∈λ es un valor propio de A⇔ v0 1 x ≠∧∈∃ vFv n , tal que vvA λ= ⇔ v0 1 x ≠∧∈∃ vFv n
tal que vvAvI n 0 =−λ ⇔ v0 1 x ≠∧∈∃ vFv n tal que ( ) vn vAI 0 =−λ ⇔ el sistemas de
ecuaciones homogéneo ( ) vn vAI 0 =−λ es compatible indeterminado ⇔ la matriz AI n − λ no es
inversible (es singular).
Definición 4
Sea nnFA x∈ :
� AI n −λ se denomina Matriz Característica.
� ( )AI n −λdet se denomina Polinomio Característico. Es un polinomio de grado n en la variable
λ con coeficientes en el cuerpo F. La notación usual es ( )AIP n −= λλ det)( .
� ( ) 0det =− AI nλ se denomina Ecuación Característica. Es una ecuación de grado n en la
variable λ con coeficientes en el cuerpo F.
Álgebra II (LM-PM) - Álgebra Lineal (Ings.) - F.C.E. y T.- UNSE
Unidad 6 8
Nota:
Por el Corolario del Teorema Fundamental de Álgebra, la ecuación característica ( ) 0det =− AI nλ admite exactamente
n raíces. Estas raíces pueden o no pertenecer al cuerpo F. Únicamente las raíces pertenecientes al cuerpo F son los
valores propios de la matriz nxnFA∈ .
Procedimiento para determinar los valores y vectores propios
Sea nnFA x ∈
I. ( ) 0 det =− AI nλ . Las raíces de esta ecuación pertenecientes al cuerpo F son los valores propios
de la matriz A.
II. Para cada valor propio iλ ∈ F, formamos el sistema de ecuaciones lineales homogéneo
( ) v0 =− vAI niλ , donde v es el vector incógnita. De cada uno de estos sistemas de ecuaciones
lineales se determina el conjunto solución, que es precisamente el espacio propio Eiλ
correspondiente al valor propio iλ .
III. Determinamos una base B i de cada espacio propio Eiλ . Cada una de estas bases está
formada por los vectores propios linealmente independientes asociados al valor propio iλ .
Proposición 4 Los valores propios de una matriz triangular son los elementos de su diagonal principal. Demostración Sea nnFA x ∈ , una matriz triangular superior, con
=
nna
a
a
A
...
:...::
*...
*...
*...*
00
00
0 22
11
.
El polinomio característico de A viene dado por:
( )( ) ( )nn
nn
n aaa
a
a
a
AI −−−=
−
−−
=− λλλ
λ
λλ
λ ...
...00
:...::
*...00
*...0
*...*
)det( 2211
22
11
Consideramos la ecuación característica
( ) 0det =− AI nλ ,
Álgebra II (LM-PM) - Álgebra Lineal (Ings.) - F.C.E. y T.- UNSE
Unidad 6 9
esto es,
( )( ) ( ) 0...2211 =−−− nnaaa λλλ
Al resolver la ecuación característica, observamos que las raíces son precisamente los elementos de
la diagonal principal de la matriz triangular superior A, esto es:
nnn a
a
a
=
==
λ
λλ
:
:222
111
Es decir, que los valores propios de la matriz A son los elementos de su diagonal principal.
En forma análoga procedemos si la matriz A es una matriz triangular inferior. Q.E.D.
Proposición 5 Los valores propios de una matriz diagonal son los elementos de su diagonal principal.
Demostración: Queda para el alumno
2.1. SEMEJANZA DE MATRICES Definición 5
Sean dos matrices nnFBA x , ∈ .
A es semejante a B si y sólo si existe una matriz nnFP x∈ inversible, tal que PAPB 1−= . Proposición 6
La relación de semejanza de matrices es una relación de equivalencia. Demostración:
i) La relación de semejanza de matrices es Reflexiva
Sea la matriz nnFA x ∈ . Es claro que A es semejante a A, ya que existe la matriz unidad Id ∈ Fnxn ,
que es inversible, tal que A = Id –1 A Id
ii) La relación de semejanza de matrices es Simétrica
Sean dos matrices nxnFBA ∈ , . Probaremos que “si A es semejante a B, entonces B es semejante a
A”.
Como A es semejante a B, entonces existe una matriz nnFP x∈ inversible, tal que
Álgebra II (LM-PM) - Álgebra Lineal (Ings.) - F.C.E. y T.- UNSE
Unidad 6 10
PAPB 1−=
Multiplicamos en ambos miembros a la izquierda por P y a la derecha por P -1, y tenemos
P B P –1 = P (P –1 A P) P –1
Como el producto de matrices es asociativo resulta
P B P –1 = (P P –1) A (P P –1)
De aquí se sigue P B P –1 = A
Luego B es semejante a A, ya que P es la inversa de P –1.
iii) La relación de semejanza de matrices es Transitiva
Sean tres matrices A, B, C ∈ Fnxn. Probaremos que “ si A es semejante a B y B es semejante a C,
entonces A es semejante a C.
Como A es semejante a B y B es semejante a C entonces, existen dos matrices inversibles P, S ∈
Fnxn tales que
PAPB 1−= ∧ SBSC 1−=
entonces, SP APSC ) ( 11 −−=
Y como el producto de matrices es asociativo, resulta
) ) ( 11 S(P APSC −−=
Empleando la propiedad de la inversa del producto de matrices inversibles, esto es
( ) 1− SP = 11 −− PS ,
observamos que existe una matriz inversible P S ∈ Fnxn tal que
S) P( A S)P (C 1−=
Por lo tanto A es semejante a C.
Finalmente de i), ii) y iii) se sigue que la relación de semejanza de matrices es una relación de
equivalencia.
Q.E.D.
Nota:
En adelante, si una matriz A es semejante a otra matriz B diremos simplemente que “A y B son semejantes”, esto es debido a que la equivalencia de matrices es una relación de equivalencia.
Proposición 7
Si dos matrices son semejantes entonces tienen el mismo polinomio característico y por lo tanto tienen los mismos valores propios. Demostración
Álgebra II (LM-PM) - Álgebra Lineal (Ings.) - F.C.E. y T.- UNSE
Unidad 6 11
Sean nnFBA x , ∈ matrices semejantes y sea nnFP x∈ inversible tal que PAPB 1−= . Probaremos
que det (λ In - B) = det (λ In - A)
En efecto,
( ) ( ) ( )
( ) ( )( ) ( ) ( ) ( )
( ) ( ) ( ) ( ) ( ) ( ) ( )
1 1 1
1 1 1 1
1 1
(
n n n
n n n
n n n n
det I B det I P A P det I P P ) P A P
det P ( I ) P P A P det P I A P det P det I A det P
det P det P det I A det P P det I A det I det I A
− − −
− − − −
− −
λ − = λ − = λ − =
= λ − = λ − = λ − =
= λ − = λ − = λ −
( )
ndet I A
=
= λ −
Q.E.D.
Observación:
El recíproco de la Proposición 7 es falso, ya que dos matrices pueden tener los mismos valores propios sin ser matrices semejantes.
2.2.- MATRICES DIAGONALIZABLES Definición 6
Sea nnFA x∈ . La matriz A es diagonalizable si y sólo si existe una matriz diagonal D nnF x∈ tal que A es semejante a D.
Observaciones:
1.- Como vimos en la Proposición 7, si una matriz A es semejante a una matriz D, entonces resulta que A y D tienen los mismos valores propios. Además, la Proposición 5, asegura que si D es una matriz diagonal entonces los valores propios de D son los elementos de su diagonal principal. De estos resultados se desprende que si una matriz A es semejante a una matriz diagonal D entonces los valores propios de A son precisamente los elementos de la diagonal principal de la matriz diagonal D y por Definición 6 la matriz A es diagonalizable . 2.- Empleando las definiciones 6 y 5 podemos realizar el siguiente razonamiento:
A∈ F nxn
es diagonalizable ⇔ existe una matriz diagonal D ∈ F nxn
tal que A es semejante a D ⇔ por Def. 6
⇔ existe una matriz inversible P ∈ F nxn
tal que D = P -1
A P por Def. 5 3.- De las observaciones 1 y 2 podemos advertir que la matriz inversible P diagonaliza a la matriz A y la matriz diagonal D semejante a A, tiene en su diagonal principal a los valores propios de la matriz A.
Proposición 8
Álgebra II (LM-PM) - Álgebra Lineal (Ings.) - F.C.E. y T.- UNSE
Unidad 6 12
Una matriz nnFA x∈ es diagonalizable si y sólo si A tiene n vectores propios que forman un
conjunto linealmente independiente. En tal caso la matriz diagonal D semejante a la matriz A está
dada por:
nn
n
FD x
...00
:...::
:...::
0...0
0...0
2
1
∈
=
λ
λλ
donde nλλλ ..., , , 21 son los valores propios de A. Si nnFP x∈ es una matriz cuyas columnas son
vectores propios linealmente independientes de la matriz A entonces
PAPD 1−= . Demostración:
a) Supongamos que A tiene n vectores linealmente independientes nvvv ..., , , 21
respectivamente asociados a los valores propios nλλλ ..., , , 21 (no necesariamente diferentes)
de la matriz A. Es decir,
nnn vvAvvAvvA , ... , , 222111 λλλ === (1)
Probaremos que la matriz A es diagonalizable.
Para ello, sea nnFP x∈ la matriz cuyas columnas son los vectores propios nvvv ..., , , 21 de la matriz
A, esto es,
=||||
......
||||
21 nj vvvvP , con njF
p
p
p
v n
nj
j
j
j
,..., ,
:
: 11x2
1
=∀∈
=
Observemos que la columna j-ésima de PA es igual a jvA de modo que:
|
|
...
|||
...
|||
21
= nj vAvAvAvAPA
Luego, por (1), se tiene
Álgebra II (LM-PM) - Álgebra Lineal (Ings.) - F.C.E. y T.- UNSE
Unidad 6 13
|
|
...
|||
...
|||
2211
= nnjj vvvvPA λλλλ (2)
Por otro lado,
la columna j-ésima de PD es igual a jj
nj
j
jnj
jj
jj
j v
p
p
p
p
p
p
Pj
j
:
:
:
:
0
:
:
0
2
1
2
1
λλ
λ
λλ
λ =
=
=
,
por lo tanto,
=|
|
...
|||
...
|||
2211 nnjj vvvvPD λλλλ (3)
Teniendo en cuenta (2) y (3) se sigue que
PADP = (4) y como { }nvvv ,...,, 21 es linealmente independiente entonces P es inversible, por lo tanto si
multiplicamos a izquierda en ambos miembros de (4) por P -1 , resulta
PAPD 1−= (5)
Es claro que D es una matriz diagonal semejante a A, ya que existe una matriz P inversible que verifica la igualdad (5), luego, por Definición 6, A es diagonalizable. b) Ahora demostraremos que:
Si la matriz A es diagonalizable, entonces A tiene n vectores propios que forman un conjunto linealmente independiente. Por hipótesis la matriz A es diagonalizable, entonces por Definición 6 existe una matriz diagonal D
semejante a A, y en consecuencia por Definición 5, existe una matriz P inversible tal que
PAPD 1−= (α)
multiplicamos a izquierda en ambos miembros de (α) por P y resulta
P ) ( 1 PAPPD −=
Aplicando la propiedad asociativa del producto de matrices tenemos
P PAPPD ) ( 1−=
Álgebra II (LM-PM) - Álgebra Lineal (Ings.) - F.C.E. y T.- UNSE
Unidad 6 14
Luego
PADP = (β)
Ahora, si a la matriz diagonal D la representamos por
=
n
D
λ
λλ
...00
:...::
:...::
0...0
0...0
2
1
∈ Fnxn,
donde nλλλ ..., , , 21 no son necesariamente diferentes. Y si a la matriz P la expresamos a través de
sus columnas, es decir
=||||
......
||||
21 nj vvvvP ∈ F nxn , con vj columna de P; ∀ j = 1, …, n
Entonces los productos PD y AP expresados en términos de sus columnas son
=|
|
...
|||
...
|||
2211 nnjj vvvvPD λλλλ (δ)
y
|
|
...
|||
...
|||
21
= nj vAvAvAvAPA (ρ)
Luego, de (β), (δ) y (ρ) se sigue que las respectivas columnas de PD y de AP son iguales es
decir
nnn vvAvvAvvA , ... , , 222111 λλλ ===
Esto nos indica que nvvv ..., , , 21 son vectores propios de A asociados a los valores propios
nλλλ ..., , , 21 respectivamente; y como P es inversible entonces { nvvv ..., , , 21 } es linealmente
independiente.
Q.E.D. Corolario
Si nxnFA∈ admite n valores propios diferentes entonces A es diagonalizable. Demostración
Álgebra II (LM-PM) - Álgebra Lineal (Ings.) - F.C.E. y T.- UNSE
Unidad 6 15
Por hipótesis la matriz A tiene n valores propios diferentes. Sean nλλλ ..., , , 21 los n valores propios
diferentes de la matriz A, y sean nvvv ..., , , 21 n vectores propios de A asociados a cada uno de los
valores propios respectivamente, esto es
nnn vvAvvAvvA , ... , , 222111 λλλ === ,
entonces, por Proposición 2, el conjunto { nvvv ..., , , 21 } es linealmente independiente.
Esto es, la matriz A tiene n vectores propios que forman un conjunto linealmente independiente,
entonces por la Proposición 8 resulta que A es diagonalizable.
Q.E.D.
Teorema de Cayley-Hamilton (sin demostración) Toda matriz nnFA x∈ es un cero de su polinomio característico. 3.- MATRICES REALES SIMÉTRICAS-DIAGONALIZACIÓN ORTO GONAL Definición 1
Sea la matriz nnA xR∈ . La matriz A es simétrica si y sólo si A es igual a su transpuesta.
En símbolos nnA x R∈ es simétrica ⇔ tAA =
También podemos expresar este concepto como sigue:
[ ] nnijaA x R∈= es simétrica ⇔ njniaa jiij , ... , , , ... , , 2 ,12 ,1 =∀=∀= .
Teorema1 Sea A una matriz real simétrica de orden n, entonces:
I. A tiene n valores propios (reales).
II. A tiene n vectores propios linealmente independientes.
Teorema 2 Sea nnA x R∈ una matriz simétrica. Si 21 y λλ son valores propios diferentes con vectores propios asociados v1 y v2 respectivamente, entonces v1 y v2 son ortogonales. Demostración
Por hipótesis 21 y λλ son valores propios de A, con 21 λλ ≠ . Además,
1v ∈ Fnx1
es un vector propio de A asociado al valor propio 1λ , es decir
111 vvA λ= (1)
Álgebra II (LM-PM) - Álgebra Lineal (Ings.) - F.C.E. y T.- UNSE
Unidad 6 16
2v ∈ Fnx1
es un vector propio de A asociado al valor propio 2λ , es decir
222 vvA λ= (2)
Probaremos que 21 vv ⊥ . Esto es equivalente a probar que 021 =• vv , donde • es un producto
interior en Rn.
En efecto, empleando el producto interior calculemos ( ) ( ) 21121121 vvvvvvA ••• == λλ (3)
por (1) / por Axioma de Prod. Interior Por otro lado
( ) ( ) 2 21221212 121 vvvvvAvvAvvvA t
••••• ==== λλ (4)
por Propiedad Auxiliar / A es simétrica / por (2) / por Propiedad de Producto Interior De (3) y (4) se sigue:
( )211 vv •λ = ( ) 2 21vv •λ
Como 21 λλ ≠ , entonces
21 vv • = 0. Por lo tanto,
21 y vv son ortogonales, con lo que queda
demostrado el teorema. Propiedad Auxiliar:
Si A ∈ Rnxn
y u, v ∈ Rnx1 , entonces A u • v = u • A
t v
En efecto, A u • v = (A u) t v = (u t A
t ) v = u t ( A t v) = u • A
t v
Con lo que queda así demostrado. Definición Sea una matriz Q ∈ R
nxn . Q es ortogonal si y sólo si su inversa coincide con su transpuesta.
En símbolos, Q ∈ R
nxn es ortogonal ⇔ tQQ 1 =−
Teorema Sea A una matriz simétrica real de orden n. Entonces A tiene n vectores propios ortogonales. De
donde, la matriz A puede expresarse por A = QDQt o bien AQQD t= , siendo la matriz Q
ortogonal y D una matriz diagonal cuyos elementos en su diagonal son los valores propios de A.
Demostración
Por el Teorema 1I., la matriz A tiene n valores propios reales. Determinamos una base de cada
Espacio propio asociado a cada valor propio real. Si aplicamos el proceso de Gram-Schmidt a cada
Álgebra II (LM-PM) - Álgebra Lineal (Ings.) - F.C.E. y T.- UNSE
Unidad 6 17
una de estas bases, obtenemos su correspondiente base ortogonal cuyos vectores siguen siendo
vectores propios asociados al respectivo valor propio. Por el Teorema 2 los vectores propios
asociados a valores propios diferentes son ortogonales, por lo tanto los vectores de bases distintas
son ortogonales, y por el Teorema 1II. la matriz A tiene n vectores linealmente independientes,
entonces si realizamos la unión de las bases ortogonales se obtiene un conjunto de n vectores
propios ortogonales. En consecuencia la matriz A es diagonalizable. Normalizando los n vectores
propios ortogonales de A se consigue un conjunto de n vectores propios ortonormales. Luego, si Q
es la matriz cuyas columnas son los n vectores propios ortonormales de A entonces, Q es una matriz
ortogonal y por tanto
AQQD t=
donde D es una matriz diagonal semejante a A, con los valores propios de A en su diagonal.
Un esquema práctico es el siguiente:
Procedimiento para diagonalizar una matriz real simétrica I. Resolver la ecuación característica ( ) 0det =− AI nλ . Como A es real simétrica, se obtienen n
valores propios reales.
II. Para cada valor propio, se encuentra el espacio propio asociado.
III. Para cada espacio propio se encuentra una base.
IV. A cada base se aplica el proceso de ortogonalización de Gram-Schmidt y se normaliza, si es necesario, a fin de obtener una base ortonormal de cada espacio propio.
V. Se construye la matriz Q, cuyas columnas son los n vectores propios ortonormales que constituyen la unión las bases ortonormales.
Q es la matriz que diagonaliza ortogonalmente a la matriz A.
Definición
Una matriz A ∈ Rnxn es diagonalizable ortogonalmente si y sólo si existe una matriz Q ortogonal
tal que QAQD t = , donde ( )ndiagD `21 ..., , , λλλ= , donde iλ son valores propios de A y las
columnas de Q son los vectores propios ortogonales de A.
4.- FORMAS LINEALES. FORMAS BILINEALES. FORMAS CUADRÁT ICAS I.- FORMAS LINEALES
Definición
Álgebra II (LM-PM) - Álgebra Lineal (Ings.) - F.C.E. y T.- UNSE
Unidad 6 18
Sea V un espacio vectorial sobre un cuerpo F y sea una función :V Fϕ → , ϕ es una forma
lineal (o una funcional lineal) si y sólo si
i) , ; ( ) ( ) ( )u v V u v u v∀ ∈ ϕ + =ϕ +ϕ
ii) ; ( ) ( )F v V u u∀ α ∈ ∧ ∀ ∈ ϕ α =α ϕ
Es decir, una forma lineal sobre V es una transformación lineal de V en F. Ejemplos
1.- La función proyección 1 1 1 2 1: / ( , ,..., )nnR R x x x xπ π→ = es una forma lineal sobre Rn
2.- Sea V el espacio vectorial de las matrices de orden n sobre el cuerpo F. La función traza
definida por
11 22 1,2,...,1,2,...,
: / ( ) ... , donde n nnn ij i n
j n
tr F F tr A a a a A a×==
→ = + + + =
es una forma lineal sobre Fnxn
Proposición
El conjunto de las formas lineales de un espacio vectorial V sobre un cuerpo F es un espacio
vectorial sobre el cuerpo F, con la suma de formas lineales y el producto de un escalar por una
forma lineal definidas por
;( )( ) ( ) ( )
; ( )( ) ( )
v V v v v
v V a F a v a v
ϕ σ ϕ σϕ ϕ
∀ ∈ + = +∀ ∈ ∧ ∀ ∈ =
y donde φ y σ son formas lineales sobre V. Este espacio vectorial se llama el espacio dual de V y se
denota por V*
II.- FORMAS BILINEALES
Definición 1
Sea V un espacio vectorial de dimensión finita sobre un cuerpo F (R o C) y sea f una función que a
cada par de vectores le asigna un escalar del cuerpo; es decir:
:
( , ) ( , )
f V V F
u v f u v
× →֏
La función f es una forma bilineal si y sólo si satisface los siguientes axiomas
Álgebra II (LM-PM) - Álgebra Lineal (Ings.) - F.C.E. y T.- UNSE
Unidad 6 19
1
2
3
: ( ', ) ( , ) ( ', ) , ',
: ( , ') ( , ) ( , ') , , '
: ( , ) ( , ) ( , ) , ,
Ax f u u v f u v f u v u u v V
Ax f u v v f u v f u v u v v V
Ax f au v f u av af u v u v V a F
+ = + ∀ ∈+ = + ∀ ∈
= = ∀ ∈ ∀ ∈
Nota
Estos axiomas expresan que f es lineal en la primera y en la segunda componente.
Proposición 1
Sea V un espacio vectorial de dimensión finita sobre un cuerpo F (R o C). Si :f V V F× → es una
forma bilineal sobre V, entonces
) ( ,0 ) (0 , ) 0
) ( , ) ( , ) ( , )v vi f u f v
ii f u v f u v f u v
= =− = − = −
Demostración (queda para el alumno)
Ejemplos
1 – Sea V = 2R , la siguiente función es una forma bilineal:
( )
2 2
1 1 2 2 1 2
:
( , ), ( , )
f R R R
x y x y x y
× →֏
2- La función
( )2 2
1 2 1 2 1 2: / ( , ), ( , )f R R R f x x y y x y× → = +
No es una forma bilineal ya que no se verifica el 1Ax , en efecto:
( ) ( )( ) ( ) ( ) ( )
1 2 1 2 1 2 1 1 2 2 1 2 1 1 2
1 2 1 2 1 2 1 2 1 2 1 2
( , ) ( ' , ' ), ( , ) = ( ' , ' ), ( , ) ' ( )
( , ), ( , ) ( ' , ' ), ( , ) ' ()
f x x x x y y f x x x x y y x x y
f x x y y f x x y y x y x y
αβ
+ + + = + +
+ = + + +
Obsérvese que ( ) ( )α β≠ y por lo tanto
( ) ( ) ( )1 2 1 2 1 2 1 2 1 2 1 2 1 2( , ) ( ' , ' ), ( , ) ( , ), ( , ) ( ' , ' ), ( , )f x x x x y y f x x y y f x x y y+ ≠ +
3- Si φ y σ son formas lineales arbitrarias sobre un espacio vectorial V, entonces la función
: / ( , ) ( ) ( )f V V F f u v u vϕ σ× → =
Es una forma bilineal pues φ y σ son formas lineales.
Nota
Una forma bilineal de esta clase se llama “Producto Tensorial” de φ y σ , y se representa en general por
Álgebra II (LM-PM) - Álgebra Lineal (Ings.) - F.C.E. y T.- UNSE
Unidad 6 20
f ϕ σ= ⊗
4- Todo producto interior es una forma bilineal. En particular son formas bilineales:
4.1- El producto escalar en R2 2 2
1 2 1 2 1 1 2 2 : / ( , ) ( , )R R R x x y y x y x y× → = +i i
4.2- La función definida por ( ) ( )b
af x g x dx∫ en el espacio vectorial [ ],a bC de las funciones reales
continuas definidas en el intervalo [ ],a b .
5- Sea nxnA R∈ , la función 1 1 : n nf R R R× ×× → / ( , ) tf X Y X AY= es bilineal como
consecuencia de las propiedades del producto y la transposición de matrices.
Formas Bilineales sobre Rn
Sean 1 2, 1 2( , ..., ) ( , ..., )n nu x x x w y y y= = y sean X e Y los respectivos vectores de coordenadas
respecto de la base canónica.
La expresión tX AYdefine una forma bilineal sobre Rn para toda matriz nxnA R∈ .
En el caso de n = 2 se tiene:
( ) [ ] 11 12 1
1 2 1 2 1 221 22 2
( , ), ( , )a a y
f x x y y x xa a y
=
Ejemplo
Sea ( )2 21 2 1 2 1 1 1 2 2 1 2 2: x / ( , ), ( , ) 3 6 5 4f f x x y y x y x y x y x y→ = − + +ℝ ℝ ℝ
Es una forma bilineal sobre 2ℝ y se expresa matricialmente de la siguiente manera
[ ] 11 2
2
3 6( , )
5 4
yf x y x x
y
− =
EXPRESIÓN MATRICIAL DE UNA FORMA BILINEAL
Sea VF un espacio vectorial de dimensión finita n ≥ 1 y f : V x V → F una forma bilineal.
Si B = { v1, v2,…, vn} es una base de V, entonces f queda caracterizada por los valores
( , )a f v vij i j= que son los elementos de la matriz nxnA F∈ , llamada matriz de f respecto de la
base B .
En efecto, sean u, w vectores cualesquiera de V, como B es una base de V, estos vectores se pueden
expresar de modo único como combinación lineal de los vectores de B
Álgebra II (LM-PM) - Álgebra Lineal (Ings.) - F.C.E. y T.- UNSE
Unidad 6 21
, 1 1
n nu x v w y vi i j ji j= =∑ ∑= =
( )γ
de donde
1 1
2 2, =
n n
x y
x yX Y
x y
=
⋮ ⋮ resultan ser respectivamente, las coordenadas de u y w respecto de la
base B.
Demostraremos que efectivamente , 1
( , )n
tij i j
i j
f u w a x y X AY=
= =∑ .
(1) (2) (3) (4)1 1 1 1 1 1
(5) (6)1 1 , 1
( , ) , ( , ) , ( , )
n n n n n n
i i i i i i j j i j i ji i i j i j
n n n
i j ij ij i ji j i j
f u w f x v w x f v w x f v y v x y f v v
x y a a x y
= = = = = =
= = =
= ∑ ∑ ∑ ∑ ∑ ∑= = = =
∑∑ ∑= =
[ ]11 12 1 1 1
21 22 2 2 21 2 1 2
1 1 1
1 2
1 1 1 1 ,
...
... ... ... =
...
=
n
n n nnt
n i i i i i ini i i
n n nn n n
n n n n
j i ij ij i j ij ij i j i i j
a a a y y
a a a y yX AY x x x x a x a x a
a a a y y
y x a a x y a x
= = =
= = = =
= ==
= =
∑ ∑ ∑
∑ ∑ ∑∑
⋱ ⋮ ⋮
1
n
jy=∑
Luego
[ ]11 12 1 1
21 22 2 21 2
, 1
1 2
...
...( , ) ...
...
n
nnt
ij i j ni j
n n nn n
a a a y
a a a yf u w a x y X AY x x x
a a a y=
= = =
∑⋱ ⋮
Donde los escalares aij = f (vi, vj) son los elementos de la matriz A ∈ Fnxn y xi , yi son las
coordenadas de los vectores u y w respecto de la base B de V.
En este caso, se dice que la matriz A es la matriz de la forma bilineal f en la base B.
La expresión ( , ), 1
nf u w a x yij i ji j
= ∑=
se llama polinomio bilineal correspondiente a la matriz A. Un
polinomio bilineal completo tiene n2 términos.
Referencias
Álgebra II (LM-PM) - Álgebra Lineal (Ings.) - F.C.E. y T.- UNSE
Unidad 6 22
(1) Se reemplaza u por su expresión en ( )γ
(2) Por axioma 1Ax de la Definición 1.
(3) Se reemplaza w por su expresión en ( )γ .
(4) Por axioma 2Ax de la Definición 1.
(5) Pues, aij = f(vi,vj)
(6) Por propiedad conmutativa de números Reales o Complejos.
Ejemplo
Sea 3 31 2 3 1 2 3 1 1 1 2 2 1 1 3 3 2 3 3: x / [( , , ), ( , , )] 2 3 6 4f f x x x y y y x y x y x y x y x y x y→ = − + + + −ℝ ℝ ℝ
La expresión matricial de f en la base canónica de 3ℝ es:
[ ]1
1 2 3 1 2 3 1 2 3 2
3
2 3 6
[( , , ), ( , , )] 1 0 0
0 4 1
t
y
f x x x y y y x x x y X AY
y
− = = −
Si 'B ={(2,0,0),(1,2,0),(-3,1,1)} una nueva base de 3ℝ ; la matriz 'A respecto a la nueva base 'B
es:
8 8 6
' 8 2 9
10 21 9
A
− − = − − −
La expresión matricial de f respecto a esta nueva matriz es:
[ ]1
1 2 3 1 2 3 1 2 3 2
3
8 8 6
[( , , );( , , )] 8 2 9 '
10 21 9
t
y
f x x x y y y x x x y X A Y
y
− − = − − = −
Notas
1- Una forma bilineal f sobre V queda determinada cuando se conocen los n2 escalares ( , )a f v vij i j= ,
siendo B = { v1, v2, … , vn} una base de V; es decir; la matriz A = [aij] caracteriza la forma bilineal f.
2- Como XtAY es una matriz de orden 1, su transpuesta coincide con la misma matriz; por lo tanto también
se puede utilizar la siguiente expresión:
( ) ( ), = tt t t tf u w X AY X AY Y A X= =
FORMAS BILINEALES SIMÉTRICAS Y ANTISIMÉTRICAS
Álgebra II (LM-PM) - Álgebra Lineal (Ings.) - F.C.E. y T.- UNSE
Unidad 6 23
Definición 2
Sea V un espacio vectorial de dimensión finita definido sobre el cuerpo F y f : V x V → F una
forma bilineal. Se dice que la forma bilineal f es simétrica si y sólo si
, ; ( , ) ( , ) u v V f u v f v u∀ ∈ =
Definición 3
Sea V un espacio vectorial de dimensión finita definido sobre el cuerpo F y f : V x V → F una
forma bilineal. Se dice que la forma bilineal f es antisimétrica si y sólo si
, ; ( , ) ( , ) u v V f u v f v u∀ ∈ = −
Proposición 2
Una forma bilineal f sobre un espacio vectorial V es simétrica si y sólo si la matriz A que
caracteriza a f es simétrica.
Demostración
I-. Si una forma bilineal respecto de V es simétrica, entonces la matriz A que caracteriza a f es
simétrica.
Sea f una forma bilineal simétrica asociada a A,
f es simétrica ( , ) ( , ) t tf u v f v u X AY Y AX⇔ = ⇔ = (α)
Ahora bien;
1
(1) (2) (3)
( ) , t t t t t t t t nxY AX Y AX X A Y Y AX X A Y X Y F= ∀ ∈⇒= =
Por lo tanto:(4)
( ) t t t t t t tX AY X A Y O X A A Y O A A O A A− = ⇒ − = − = ⇒ =⇒
Con lo cual A es matriz simétrica.
II-. Si la matriz A es simétrica entonces la forma bilineal asociada a A es simétrica.
(5) (6) (7) (8) (9)
( , ) ( ) ( , )t t t t t tf u v X AY X AY Y A X Y AX f v u= = = = =
Luego , ; ( , ) ( , )u v V f u v f v u∀ ∈ = , por lo tanto f es una forma bilineal simétrica.
Referencias
(1) Por ser el producto de XtAY una matriz de orden 1, ésta coincide con su transpuesta.
(2)Por propiedad de transpuesta.
(3)Por (α).
Álgebra II (LM-PM) - Álgebra Lineal (Ings.) - F.C.E. y T.- UNSE
Unidad 6 24
(4) Por ser X e Y vectores de coordenadas, son vectores no nulos.
(5) Por expresión matricial de f.
(6) Por ser el producto de XtAY una matriz de orden 1, esta coincide con su transpuesta.
(7)Por propiedad de matriz transpuesta.
(8)Por ser A una matriz simétrica.
(9) Por expresión matricial de f.
Q.E.D
Proposición 3
Una forma bilineal f sobre un espacio vectorial V es antisimétrica si y sólo si la matriz A que
caracteriza a f es antisimétrica.
Demostración
I-. Si una forma bilineal respecto de V es antisimétrica, entonces la matriz A que caracteriza a f es
antisimétrica.
Sea f una forma bilineal antisimétrica asociada a la matriz A.
f es antisimétrica ( , ) ( , ) ( )t tf u v f v u X AY Y AX⇔ = − ⇔ = − (α)
Ahora bien,
1
(1) (2) (3)
( ) [-( )] -( ) ( ) , t t t t t t t t nxY AX Y AX X A Y X AY X A Y X Y F− = − ∀ ∈⇒= =
Por lo tanto:(4)
( ) t t t t t t tX AY X A Y O X A A Y O A A O A A+ = ⇒ + = + = ⇒ = −⇒
Con lo cual A es una matriz antisimétrica.
II-. Si la matriz A es antisimétrica entonces la forma bilineal asociada a la matriz A es antisimétrica.
(5) (6) (7) (8) (9) (10)
( , ) ( ) ( ) ( ) ( , )t t t t t t tf u v X AY X AY Y A X Y A X Y AX f v u− − −= = = = = =
Por lo tanto f es antisimétrica.
Referencias
(1) Por ser el producto de XtAY una matriz de orden 1, ésta coincide con su transpuesta.
(2)Por propiedad de transpuesta.
(3)Por (α).
(4) Por ser X e Y vectores de coordenadas, son vectores no nulos.
(5) Por expresión matricial de f.
Álgebra II (LM-PM) - Álgebra Lineal (Ings.) - F.C.E. y T.- UNSE
Unidad 6 25
(6) Por ser el producto de XtAY una matriz de orden 1, ésta coincide con su transpuesta.
(7)Por propiedad de matriz transpuesta.
(8)Por ser A matriz antisimétrica.
(9)Por propiedad de producto de un escalar por una matriz.
(10) Por expresión matricial de f .
Q.E.D
Ejemplo
Sea 3 3: xf →ℝ ℝ ℝ , definida por
1 2 3 1 2 3 1 1 2 1 3 1 1 2 2 2 3 2 1 3 2 3 3 3[( , , ); ( , , )] 2 2 2f x x x y y y x y x y x y x y x y x y x y x y x y= − + − + − + − +
Es una forma bilineal simétrica ya que su matriz asociada respecto de la base canónica es simétrica,
1 2 1
2 2 1
1 1 1
A
− = − − −
Observaciones
1. Si F=ℝ y ● el producto interno canónico en V= Rn, entonces : / ( , )f V V f u v u v× → = •ℝ
(1) es una forma bilineal simétrica.
2. Si B={v1,v2, … , vn} es una base ortogonal de V, entonces la matriz A de la forma bilineal (1)
es diagonal
1
2
0 ... 0
0 ... 0
... ... ...
0 0 ... n
a
aA
a
=
⋱
En este caso se dice que la forma bilineal f asociada a la matriz A es diagonalizada.
Entonces
1
( , )n
i i ii
f u w a x y=
=∑
3. Si B={v1,v2, … , vn} es una base ortonormal de V, entonces la matriz A de la forma bilineal
(1) es diagonal
Álgebra II (LM-PM) - Álgebra Lineal (Ings.) - F.C.E. y T.- UNSE
Unidad 6 26
1 0 ... 0
0 1 ... 0
... ... ...
0 0 ... 1
A
=
⋱
En este caso se dice que la forma bilineal f asociada a la matriz A es diagonalizada.
Entonces
1
( , )n
i ii
f u w x y=
=∑
III- FORMAS CUADRÁTICAS ( Sólo para Ingenierías)
La ecuaciones cuadráticas y las formas cuadráticas que definiremos se emplean en problemas de
matemática, física (en energía potencial y cinética), geometría diferencial (en la curvatura normal
de las superficies), economía (en funciones de ganancia, descripción de las funciones de costo),
estadística (en elipsoides de confianza), mecánica, robótica y procesamiento de imágenes, y en
aplicaciones industriales.
Definición 1
Sean a, b, c, d ∈ R. Una ecuación cuadrática en dos variables sin términos lineales es una
ecuación dada por
ax2+bxy + cy2 = d, con 0 ≠++ cba
y en donde los escalares a, b y c son los coeficientes, x e y son las variables y el escalar d es el
término independiente.
Nota
La condición 0 ≠++ cba indica que al menos uno de los números a, b y c es diferente de cero.
Definición 2
Sean a, b, c ∈ R. Una forma cuadrática en dos variables x e y, es una expresión dada por
F(x, y) = ax2+bxy + cy2 donde 0 ≠++ cba .
Nota
Las formas cuadráticas en dos variables se relacionan estrechamente con las secciones cónicas, las que
veremos más adelante.
Representación matricial de una forma cuadrática en dos variables
Álgebra II (LM-PM) - Álgebra Lineal (Ings.) - F.C.E. y T.- UNSE
Unidad 6 27
Sean a, b, c ∈ R y sea una forma cuadrática F(x, y) = ax2+bxy + cy2 (con 0 ≠++ cba ).
Si
=c
b
ba
A
2
2 y
=
y
xv , entonces F(x, y) = v t A v
En efecto,
[ ] [ ]
),( 2
2
2
2
2
2
2222 yxFcybxyaxcyxyb
xyb
ax
cyxb
yb
axyx
y
x
cb
ba
yxvAvt
=++=+++=
=
+
+=
=
es decir F(x, y) = [ ]
y
x
cb
ba
yx
2
2 = v t A v
Esto nos indica que una forma cuadrática en dos variables pueden escribirse como un producto de
matrices
F(x, y) = v t A v (α)
donde A es una matriz simétrica denominada matriz asociada a la forma cuadrática F.
Recíprocamente, si A es una matriz simétrica de orden 2, entonces la ecuación (α) define una forma
cuadrática en dos variables.
Representación matricial de una forma cuadrática en tres variables
Si a, b, c, d, e, f ∈ R, una forma cuadrática con tres variables x, y, z está dada por
F(x, y, z) = a x2+b y2 + c z2 + d xy + e xz + f yz, (con 0 ≠+++++ fedcba )
y su representación matricial es
F(x, y, z) = [x y z]
cfe
fbd
eda
2
1
2
12
1
2
12
1
2
1
z
y
x
= v t A v
Álgebra II (LM-PM) - Álgebra Lineal (Ings.) - F.C.E. y T.- UNSE
Unidad 6 28
En donde se puede observar que la matriz A asociada a la forma cuadrática F, es una matriz
simétrica de orden 3.
Generalizaremos este concepto con la siguiente definición
Definición 3
Una forma cuadrática con n variables es una función
1:
( )
nx
t
F R R
v F v v Av
→
=֏
para una matriz A simétrica de orden n, llamada matriz asociada a F, y las n variables son las
componentes del vector genérico v∈ Rnx1.
Nota
Empleando el producto escalar en el espacio euclídeo Rnx1, es claro verificar que
Avvt = vAv• = vAv t•
Por lo que también podemos representar una forma cuadrática de los siguientes modos
vAvvFv
F
•=→
)(
:
֏
RR 1nx
ó vAvvFv
Ft•=
→
)(
:
֏
RR 1nx
Nota
Las formas cuadráticas pueden representarse como un producto de matrices F(x, y) = v tAv, sin que A sea una
matriz simétrica. Pero es preferible representar toda forma cuadrática como un producto de matrices
F(x, y) = v tAv, con A simétrica. Veremos más adelante esta ventaja.
Representación matricial de una ecuación cuadrática en dos variables
Sean a, b, c, d ∈ R y sea una ecuación cuadrática ax2+bxy + cy2 = d con 0 ≠++ cba .
Si tomamos 2
2
ba
Ab
c
=
y
=
y
xv , y teniendo en cuenta las diferentes formas de representar
una forma cuadrática, es claro que la representación matricial de la ecuación cuadrática
ax2+bxy + cy2 = d
viene dada por
v t A v = d
Álgebra II (LM-PM) - Álgebra Lineal (Ings.) - F.C.E. y T.- UNSE
Unidad 6 29
ó por
Av • v = d
ó por
v • At v = d
FORMAS CUADRÁTICAS Y SECCIONES CÓNICAS
Definición 4
Sean a, b, c ∈ R y una forma cuadrática en dos variables
F(x, y) = ax2+bxy + cy2 (con 0 ≠++ cba ).
Si b = 0 diremos que la forma cuadrática F es una forma cuadrática en dos variables sin término
mixto y está dada por
F(x, y) = ax2+ cy2 donde 0 ≠+ ca .
Definición 5
Sean a, b, c ∈ R y una ecuación cuadrática en dos variables
ax2+bxy + cy2 = d (con 0 ≠++ cba ).
Si b = 0 diremos que la ecuación cuadrática no tiene término mixto y está dada por
ax2+ cy2 = d donde 0 ≠+ ca .
Una ecuación cuadrática en dos variables sin término mixto casi siempre representa una
circunferencia, una elipse o una hipérbola en posición canónica. Es decir que los ejes principales de
esas cónicas son los ejes X e Y. En este caso la matriz A de la ecuación cuadrática es una matriz
diagonal de orden 2.
Álgebra II (LM-PM) - Álgebra Lineal (Ings.) - F.C.E. y T.- UNSE
Unidad 6 30
Ecuaciones de circunferencia, elipse e hipéola en posición canónica CÓNICA ECUACIÓN RADIO CENTRO FOCOS VÉRTICES EJES
ASÍNTOTAS EXCENTRICIDAD
Circunferencia
222 ryx =+
r
C = (0, 0)
---
---
---
---
e = 0
Elipse
12
2
2
2=+
βαyx
(α2>β2)
---
C = (0, 0)
�� = �� − ��
� = �, 0�
�′ = −�, 0�
� = �, 0�
�′ = −�, 0�
� = 0, ��
�� = 0,−��
Eje focal coincide con el eje x. Eje menor
coincide con el eje y.
---
� =�
�
Como � < � Entonces 0 < � < 1
12
2
2
2=+
αβyx
(α2>β2)
---
C = (0, 0)
�� = �� − ��
� = 0, ��
�′ = 0,−��
A = (0, α) A' = (0, -α)
B= (β,0) B' = (-β, 0)
Eje focal coincide con el eje y. Eje menor
coincide con el eje x.
---
Hipérbola
12
2
2
2
=−βαyx
---
---
�� = �� + ��
� = �, 0�
�′ = −�, 0�
� = �, 0�
�′ = −�, 0�
� = 0, ��
�� = 0,−��
Eje focal coincide con el eje x. Eje menor
coincide con el eje y.
� = ±�
��
� =�
�
Como � > �
Entonces � > 1
12
2
2
2
=−βαxy
---
---
�� = �� + ��
� = 0, ��
�′ = 0,−��
� = 0, ��
�′ = 0,−��
� = �, 0�
�� = −�, 0�
Eje focal coincide con el eje y. Eje menor
coincide con el eje x.
xyβα±=
Unidad 6 31
Ejemplo 1 Dada la ecuación cuadrática 144169 22 =+ yx , obtenga su representación canónica y la forma matricial, describa la sección cónica que define y grafique. La ecuación canónica es
134 2
2
2
2
=+ yx
La forma matricial de la ecuación cuadrática dada es
[ ] 144 160
09 =
y
xx y
Donde
=
160
09A es una matriz simétrica diagonal asociada a la ecuación cuadrática
La ecuación cuadrática representa una elipse, con centro en (0,0) y cuyo eje focal coincide con el eje X. Sus vértices son: (4, 0), (-4, 0), (3, 0), (-3, 0) y sus focos: ( 7,0), ( 7,0)− . Su representación gráfica es:
Ejemplo II Dada la ecuación cuadrática 2 29 4 36x y− = , obtenga su representación canónica y la forma matricial, describa la sección cónica que define y grafique.
La ecuación canónica está dada por: 2 2
2 21
2 3
x y− =
La forma matricial de la ecuación cuadrática dada es
[ ]9 0
360 4
xx y
y
= −
Álgebra II (LM-PM) - Álgebra Lineal (Ings.) - F.C.E. y T.- UNSE
Unidad 6 32
La ecuación cuadrática representa una hipérbola con centro en (0,0) y cuyo eje focal coincide con el
eje X. Siendo sus vértices: (2,0), (-2,0), (0,3) y (0,-3) y sus focos: ( ) ( )13,0 , 13,0− .
La representación gráfica de dicha cuádrica es:
Para las formas cuadráticas que poseen termino mixto es decir 0≠b , se realiza un cambio de variables de modo que con respecto a las nuevas variables no haya términos mixtos. Geométricamente identifica una sección cónica rotada un ángulo respecto a los ejes x e y. Proposición 1: Teorema de los ejes principales en R2
Sea dcybxyax =++ 22 con 0 ≠++ cba una ecuación cuadrática en las variables x e y .
Entonces existe un número [ ) 0 , 2α ∈ π tal que la ecuación dada se puede escribir de la forma
dycxa =′′+′′ 22
Donde x′ , y′ son los ejes obtenidos al rotar los ejes x , y un ángulo α en el sentido contrario a las agujas del reloj. Las constantes a′ y c′ son los valores propios de la matriz simétrica
=c
b
ba
A
2
2
Demostración:
Dada la ecuación cuadrática dcybxyax =++ 22 , ésta se puede escribir
tv Av d= (1)
Álgebra II (LM-PM) - Álgebra Lineal (Ings.) - F.C.E. y T.- UNSE
Unidad 6 33
donde
=c
b
ba
A
2
2
como A es simétrica, existe una matriz ortogonal Q tal que
tQ AQ D= , (2)
siendo 1
2
0
0D
λ = λ
con 1λ y 2λ valores propios reales de A.
Como Q es ortogonal, se tiene que 1−= QQt de modo que la expresión en (2) puede escribirse
como
1Q AQ D− =
multiplicando a izquierda por Q y a derecha por 1Q− se obtiene
1A QDQ−=
finalmente tA QDQ= sustituyendo la expresión obtenida para A en (1), se tiene ( )t tv QDQ v d= aplicando propiedad asociativa ( ) ( )t tv Q D Q v d= por propiedad de transpuesta ( ) ( )t t tQ v D Q v d= Sea tu Q v= , sustituyendo en la última igualdad se tiene
tu Du d= (3)
que define una forma cuadrática. En efecto, si
′′
=y
xu entonces
tu Du= 1 1 2 2
1 22 2
0 ( , )
0
xxx y x y x y F x y
yy
′′λ λ ′ ′ ′ ′ ′ ′ ′ ′= =λ +λ = ′′λ λ
donde ),( yxF ′′ es una forma cuadrática en la que falta el término cruzado yx ′′ por lo tanto , la
ecuación (3) es una ecuación cuadrática en las nuevas variables x′ y y′ sin el término yx ′′
dyx =′+′ 2
2
2
1 λλ
Álgebra II (LM-PM) - Álgebra Lineal (Ings.) - F.C.E. y T.- UNSE
Unidad 6 34
Ahora bien, como Q es real y ortogonal se tiene que 1det ±=Q [1]
Si 1det −=Q es posible intercambiar las columnas de Q de modo que el determinante de la
nueva matriz Q sea igual a 1.
Luego Q es la matriz de rotación
−=
αααα
cos
cos
sen
senQ para algún [0∈α )π2
Q.E.D.
Ejemplo III Identifique la sección cónica cuya ecuación es 2 25 2 5 4x xy y− + =
[ ]5 1
( , )1 5
xF x y x y
y
− = −
1- Se obtienen los valores propios de 5 1
1 5A
− = −
( ) ( ) ( )( )2 2 25 1det 5 1 10 25 1 10 24 6 4 0
1 5I A
λ−λ − = = λ− − =λ − λ+ − =λ − λ+ = λ− λ− =
λ−
de donde 1 26, 4λ = λ =
2- Se determinan los espacios propios asociados a los valores propios y se busca una base de cada espacio propio. Para 61 =λ
=
0
0.
11
11
y
x⇒ yx
yx
yx=−⇒
=+=+
0
0
luego el espacio propio asociado al valor propio 61 =λ es
{ }xyRyxE /),( 2
1−=∈=λ
y una base de 1
Eλ es { } )1- , 1( 1
=λB
Para 42 =λ
[1]
1 2 221 det( ) det( ) det( ) det .det det .det (det ) entonces (det ) =1
por lo que det 1
t tI QQ QQ Q Q Q Q Q Q
Q
−= = = = = =
=±
Álgebra II (LM-PM) - Álgebra Lineal (Ings.) - F.C.E. y T.- UNSE
Unidad 6 35
=
−−
0
0.
11
11
y
x⇒ y x
yx
yx=⇒
=−=+−
0
0
luego el espacio propio asociado al valor propio 2 4λ = es { }yxRyxE /),( 2
2=∈=λ
y una base de
2Eλ es { } )1 , 1 (
2=λB
3 – Se normalizan cada uno de los vectores propios (1,-1) y (1,1) para obtener 1 1
,2 2
− y
1 1,
2 2
respectivamente. Con estos vectores se forma la matriz Q
1 1
2 21 1
2 2
Q
= −
que es la matriz de rotación de los ejes, en este caso 2 2
cos 2 2
y senα = α =− por lo tanto
7 315º4
πα = =
Por el teorema de los ejes principales para R2, la forma cuadrática 2 25 2 5 4x xy y− + = se
transforma en 2 26 4 4x y′ ′+ = al sustituir en 2 21 2x y d′ ′λ +λ = los valores propios obtenidos.
La cónica dada es una elipse cuya gráfica se muestra a continuación
Proposición 2
Si
=c
b
ba
A
2
2 con 0 ≠++ cba , entonces la ecuación cuadrática dcybxyax =++ 22 es
Álgebra II (LM-PM) - Álgebra Lineal (Ings.) - F.C.E. y T.- UNSE
Unidad 6 36
a) una hipérbola si 0det0 <∧≠ Ad b) una elipse, circunferencia o sección cónica degenerada si 0det0 >∧≠ Ad c) un par de rectas o una sección cónica degenerada si 0det0 =∧≠ Ad d) un par de rectas si 0det0 ≠∧= Ad e) una recta si 0det0 =∧= Ad Demostración:
Sea la sección cónica dcybxyax =++ 22
Si
=c
b
ba
A
2
2 entonces el polinomio característico de A es:
( ) ( )2 2
22 .4 4
2
ba
b ba c c a ac
bc
λ− − = λ− λ− − =λ −λ −λ + − − λ−
Si 1 2 y λ λ son los valores propios de A, 1 2 y λ λ son las raíces de su polinomio característico, es
decir
( )( ) ( )4
22
21
bacca −++−=−− λλλλλλ
distribuyendo en el primer miembro
( )4
22
2112
2 bacca −++−=+−− λλλλλλλλλ
sacando factor común
( ) ( )4
22
2121
2 bacca −++−=+−− λλλλλλλλ
por igualdad de polinomios se tiene que los términos independientes son iguales
2
1 2 4
bacλ λ = −
y como 2
det( )4
bA ac= − se tiene que
1 2det( )A =λ λ
A su vez la ecuación cuadrática se puede escribir como
dyx =′+′ 2
2
2
1 λλ
De ello se deduce que:
Álgebra II (LM-PM) - Álgebra Lineal (Ings.) - F.C.E. y T.- UNSE
Unidad 6 37
a) Si 0≠d y además det( ) 0A < , 1 2 0λ λ < ; es decir 1λ y 2λ tienen diferente signo con lo
cual la ecuación (2) y por lo tanto la (1) corresponden a una hipérbola b) Si 0≠d y además det( ) 0A > , 1 2 0λ λ > ; es decir 1λ y 2λ tienen igual signo la
ecuación (2) y por lo tanto la (1) corresponde a:
− una circunferencia si 1 2 1 2, 0 λ λ > ∧ λ =λ
− una elipse si 1 2 1 2, 0 λ λ > ∧ λ ≠λ
− una cónica degenerada si 1 2, 0 λ λ <
Demuestre el alumno c), d) y e)
-.-.-.-.-.-