Sie sind auf Seite 1von 19

Diagonalizacion

Nelson Moller

Indice General
1 Matrices Semejantes

2 Matrices diagonalizables

3 Polinomio caracterstico de una matriz


3.2 Valores propios. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

4
5

4 Vectores propios.
4.1 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

6
6
6

5 Subespacios propios.

6 Teorema fundamental

7 Ejemplos
7.1 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.2 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.3 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

10
10
13
13

8 Aplicaciones
8.1 Modelos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.2 Reconocimiento de Conicas. . . . . . . . . . . . . . . . . . . . . . . . . . . .

16
16
18

1 MATRICES SEMEJANTES

Diagonalizaci
on
Definiciones B
asicas
Dada una transformacion lineal, T : V V, fijando una base B del espacio V , podemos
asociarle una matriz B [T ]B . Cuando elegimos otra base E, si llamamos C y C 1 a las matrices
de cambio de base
C = B [idV ]E ,
C 1 = E [idV ]B .
tenemos la relacion:
E [T ]E

= C 1 B [T ]B C .

Esta relacion nos lleva a la siguiente definicion.

Matrices Semejantes

Definici
on 1 Dadas dos matrices A, B Mnn (IR) decimos que A es semejante a B
cuando existe una matriz invertible C tal que
A = C 1 BC.
Si definimos la relacion A B cuando A es semejante a B, podemos verificar que esa
relacion es de equivalencia en Mnn (IR). Por lo tanto, si A es semejante a B tenemos que B
es semejante a A; o sea, podemos decir que A y B son semejantes sin especificar el orden.
El comentario que nos llevo a la definicion de semejanza se puede interpretar como:
Matrices semejantes representan a
la misma transformacion lineal en bases diferentes.
Estamos interesados en saber cuando una matriz es semejante a una matriz mas simple.

Matrices diagonalizables

Definici
on 2 Una matriz A Mnn (IR) es diagonalizable cuando A es semejante a una
matriz diagonal D.
O sea, tenemos que

D=

0
...
n

y existe una matriz invertible C tal que


A = C 1 DC.

2 MATRICES DIAGONALIZABLES

El problema que queremos estudiar es:

Como saber si una matriz es o no diagonalizable?


Un resultado fundamental en esta linea es el siguiente:
Teorema 1 Toda matriz simetrica (A = At ) es diagonalizable.
Este resultado sera de importancia en cursos posteriores, calculos, fsica, etc. En los mismos
apareceran naturalmentematrices simetricas. En el caso de matrices simetricas, basta
mirar la matriz para concluir que es diagonalizable. Por ejemplo:

1 0 2

A= 0 1 5

2 5
es diagonalizable; lo que aparece abajo de la diagonal es simetrico a lo que aparece sobre
la misma, A = At . Lamentablemente no es siempre tan sencillo saber si una matriz es diagonalizable.
Vamos a ver que el problema de diagonalizar equivale a encontrar bases especiales .
Por que esta afirmacion? Dada una matriz A Mnn (IR) podemos considerar la transformacion:
T : IRn IRn , definida por T v = Av ,
donde consideramos v IRn como vector columna. Si existe una base P formada por vectores
v1 , v 2 , . . . , v n
tales que:
T (v1 ) = 1 v1 , T (v2 ) = 2 v2 , . . . , T (vn ) = n vn .
Entonces,
coordP (T v1 ) = (1 , 0, 0, . . . , 0),
coordP (T v2 ) = (0, 2 , 0, . . . , 0),
..
..
.
.
coordP (T vn ) = (0, 0, 0, . . . , n ),
por lo tanto

P [T ]P

1
0
..
.
0

...
...

0
..
.

2
,
.. ..
.
. 0

. . . 0 n

C [T ]C

=A;

donde C es la base canonica de IR . Colocando juntas las piezas anteriores, vemos que:
A = C 1 DC
donde C es la matriz de cambio de base de la canonica a la base P, P [idIRn ]C , y D es la
matriz diagonal P [T ]P . En ese caso concluimos que la matriz A es diagonalizable.
El problema de diagonalizar una matriz equivale a encontrar este tipo de base P.

3 POLINOMIO CARACTERISTICO DE UNA MATRIZ

Polinomio caracterstico de una matriz

Sea I la matriz identidad n n.


Definici
on 3 Dada una matriz A Mnn (IR), el polinomio
p() = det(A I)
es llamado el polinomio caracterstico de A.
Veamos esta definicion en funcionamiento.
Ejemplo 3.1 Consideremos la matriz

1 0
0

A = 0 2 1 .
0 1
3
Su polinomio caracterstico es:

1 0
0
1 0 0
1
0
0

2
1
p() = det 0 2 1 0 1 0 = det 0

0 1
3
0 0 1
0
1
3

2
1
= (1 )

1 3

= (1 )(2 5 + 7)
= 3 + 62 12 + 7.
Se puede ver que el polinomio caracterstico de una matriz A Mnn es:
p() = (1)n n + an1 n1 + . . . + a1 + a0 .

este
este
coef.
coef.
es trA
es det A
Un resultado con una apariencia inocente, pero que es importante es:
Lema 1 Dos matrices semejantes tienen el mismo polinomio caracterstico.
demostracion:
Tenemos que A = C 1 BC queremos ver que:
det(A I) = det(B I).

3 POLINOMIO CARACTERISTICO DE UNA MATRIZ

Usando que son semejantes y que el determinante de un producto de matrices es el producto


de los determinantes,
det(A I) = det(C 1 BC I)
= det(C 1 BC C 1 C)
= det[C 1 (B I)C]
= det C 1 det(B I) det C
= det(B I).
Como las matrices asociadas a una transformacion en bases distintas son matrices semejantes, el lema anterior nos permite definir la nocion de polinomio caracterstico de un
transformacion T : V V.
Definici
on 4 Sea B una base de V , el polinomio caracterstico de la matriz B [T ]B es llamado
polinomio caracterstico de la transformaci
on T .

RECUERDE
B [T ]B

lo mismo
El que las matrices asociadas a T en bases diferentes son semejantes es lo que nos garante
que el polinomio anterior depende de la transformacion y no de la base elegida.

3.2

Valores propios.

Definici
on 5 Dada una matriz A Mnn (IR), las raices de su polinomio caracterstico son
llamados valores propios de la matriz.
Observaci
on: El polinomio caracterstico es un polinomio de grado n con coeficientes reales,
puede suceder que tenga raices complejas. Nosotros, en el contexto de diagonalizacion en
espacios vectoriales reales estamos interesados en las raices reales del mismo, por lo tanto
tenga en mente:
Cuando hablemos de valores propios
nos referimos a las raices reales
del polinomio caracterstico.
Nos interesa la relacion:
valor
propio

sistema homog
eneo con
matriz asociada
A I
es compatible
indeterminado

4 VECTORES PROPIOS.

o sea el sistema homogeneo cuya matriz es:


A I
posea otras soluciones ademas del 0 IRn .
Definici
on 6 Dada una transformaci
on lineal T : V V , las raices del polinomio caracterstico de T son llamados valores propios de la transformaci
on.

Vectores propios.

Definici
on 7 Dada una transformacion lineal, T : V V , decimos que un vector v no nulo
es un vector propio cuando
T (v) = v, para algun IR.
Es un ejercicio interesante mostrar que ese que aparece en la definicion anterior es un
valor propio de T ; o sea anula el polinomio caracterstico de T .

4.1

Ejemplo

Sea V el espacio generado por las funciones


ex , ex ; T : V V definida por T f = f 0 .
Entonces

T (ex ) = ex ,
T (ex ) = ex .

Vemos que ex es vector propio con valor propio 1 y que ex es vector propio con valor propio
1.

4.2

Ejemplo

Sea V el espacio generado por las funciones


cos x, senx; T : V V definida por T f = f 00 .
Los vectores de V son funciones de la forma:
f (x) = a cos x + b senx; donde a, b IR.
Tenemos que:
T (a cos x + b senx) = a cos x b senx,
o sea,
T f = f, para toda f V.
Todo vector de V es vector propio con valor propio 1.
Observaci
on: En algunos libros se utiliza la denominacion
para
autovalores
valores propios,
autovectores vectores propios.

5 SUBESPACIOS PROPIOS.

Subespacios propios.

Definici
on 8 Dados una transformacion lineal T : V V y un escalar , definimos los
conjuntos
E = {v V / T v = v}.
Lema 2 Los E son subespacios vectoriales para todo escalar .
demostraci
on:
Dados u, w E tenemos
T (u + w) = T u + T w = u + w = (u + w),
o sea u + w esta en E . De la misma manera
T (u) = T u = (u)
el vector u esta en E para todo escalar .
La mayorade esos subespacios son triviales, eso quiere decir que son el subespacio
formado por el vector nulo solamente. Los que son interesantes son justamente los que
corresponden a los valores propios, llamados subespacios propios.
Repitiendo el comentario hecho cuando fueron definidos los valores propios, vemos que esto
esta relacionado con que un sistema homogeneo tenga soluciones no triviales.
Algo sencillo de probar pero con consecuencias importantes, es que
E

E = {0}, cuando 6= .

Usaremos esto en el ejemplo 7.1, en el mismo formaremos una base de todo el espacio
tomando bases de los distintos subespacios propios.
Otro comentario es el siguiente, si tenemos una transformacion lineal, T : V V , que no
es inyectiva, o sea el ker(T ) tiene otros vectores ademas del nulo. En este caso tenemos
v ker(T ), T v = 0 = 0v con v 6= 0; o sea el cero es valor propio y
E0 = ker(T ).

El subespacio propio correspondiente


al valor propio 0 es
Ker T.

Resultado principal
En esta seccion mostraremos lo que ya habiamos adelantado, que diagonalizar equivale a
encontrar una base de vectores propios.
Definici
on 9 Una transformacion T : V V es diagonalizable si la matriz asociada a
T en una base B, B [T ]B , es diagonalizable.

6 TEOREMA FUNDAMENTAL

Como las matrices asociadas a una transformacion lineal en bases diferentes,


B [T ]B ,

C [T ]C

son semejantes, tenemos que la matriz asociada a T en cualquier base es diagonalizable. Por
lo tanto que una transformacion sea diagonalizable no es algo que dependa de la base elegida.
Depende efectivamente de la transformacion y no de la base como podra parecer a primera
vista.
Recordemos que toda matriz A Mnn (IR) la podemos interpretar como la matriz de la
transformacion T : IRn IRn dada por T (v) = Av; donde tomamos v IRn como vector
columna.
Esto nos permite unificar el problema de diagonalizar matrices y transformaciones. El siguiente teorema es el resultado basico sobre diagonalizacion tanto para matrices como para
transformaciones.

Teorema fundamental

Teorema 2 Una transformacion es diagonalizable sii existe una base de vectores propios.
demostraci
on:
() Sabemos que existe una matriz invertible C y una matriz diagonal

0
...

D=

tal que B [T ]B = C 1 DC. lo que vamos a hacer es interpretar la matriz diagonal D como
D =P [T ]P ,
donde P sea una base formada por vectores propios. La matriz C, la interpretaremos como
C =P [idV ]B .
Sabemos que CC 1 = Id por lo tanto si consideramos las columnas de C 1 como vectores
de IRn , tenemos

..
.
columna
C

Entonces

DC

i
lugar i.
= 1

1
.
de C
..

columna

i
= D

de C 1

..
.
1
..
.

..
.

i
lugar i.
..
.

6 TEOREMA FUNDAMENTAL

De donde resulta que

columna

1
1
i
C DC
= i C

de C 1

..
.
1
..
.

columna

i
= i
.

de C

Interpretemos lo que hemos obtenido. Si consideramos un vector vi cuyas coordenadas en la


base B corresponden a la columna i de C 1 ,

columna

i
coordB (vi ) =

.
1
de C
Lo que obtuvimos fue que
coordB (T vi ) = i coordB (vi ) = coordB (i vi ).
Por la unicidad de las coordenadas tenemos que
T vi = i vi para i = 1, . . . , n.
Nos falta ver que los vectores
v1 , . . . , vn
forman una base de V . Eso resulta de que C 1 es una matriz es invertible. Por lo tanto
sus columnas forman una base de IRn , como el pasaje a coordenadas es un isomorfismo(lleva
bases en bases) tenemos que los vectores v1 , . . . , vn forman una base de V .
() Sea P una base formada por vectores propios v1 , . . . , vn tales que
T (v1 ) = 1 v1 , . . . , T (vn ) = n vn .
Para la matriz asociada a T en cualquier base B, tenemos que
B [T ]B

= C 1 P[T ]P C,

donde C y C 1 corresponden a las matrices de cambio de base


P [idV ]B ,

B [idV ]P

respectivamente. Como P [T ]P es diagonal, tenemos que T es diagonalizable.


Recuerde que cuando comenzamos, adelantamos que:
Teorema 1 Toda matriz simetrica es diagonalizable.
Para este caso, de matrices simetricas, se cumple ademas que:
Teorema 1 Dada una matriz simetrica, existe una base de vectores propios que es ortonormal.

7 EJEMPLOS

10

Para cursos posteriores es bueno recordar que:


Las raices del polinomio caracterstico de
una matriz sim
etrica son
reales.
Volviendo ahora al caso general, o sea no solo matrices simetricas. Si usamos que para cada
valor propio existe por lo menos un vector propio asociado a cada valor propio diferente, del
resultado principal se deduce:
Corolario 2 Sea T : V V donde la dimension de V es n, o sea A una matriz debe ser
n n. Si poseen n valores propios distintos, entonces son diagonalizables.

Ejemplos

En los ejemplos, ademas de ilustrar los resultados mostrados en estas notas hay que prestar
atencion a cada uno de los pasos que se dara y el orden de los mismos.

7.1

Ejemplo

Sea A la matriz

5 12 0
0
A=
4 9
.
2 4 1

1) Polinomio caracterstico.
Para hallar el polinomio caracterstico de la matriz A calculamos

5
12
0

4 9
0
p() = det
= (1 )[(5 + )(9 ) + 48]
2
4 1
= (1 )(2 4 + 3)
2) Valores propios.
Las raices del polinomio caracterstico son
= 1(raiz doble),
= 3(raiz simple).
El polinomio caracterstico factorizado resulta
p() = (3 )(1 )2 multiplicidad
algebraica
Definici
on 10 Los exponentes que aparecen en los factores correspondientes a valores propios diferentes son llamados multiplicidades algebraicas.

7 EJEMPLOS

11

En este caso = 1 tiene multiplicidad algebraica 2 y = 3 tiene multiplicidad algebraica 1.


3)Subespacios propios.
El subespacio propio correspondiente al valor propio 3 es

x
x

E3 = (x, y, z) IR3 / A
y = 3 y .

z
z
O sea, son las soluciones del sistema

5x + 12y = 3x
4x + 9y = 3y

2x + 4y + z = 3z
Como la primera ecuacion es m
ultiplo de la segunda, el sistema nos queda
(

4x + 6y = 0
2x + 4y 2z = 0

Corresponde al corte de dos planos, o sea E3 es una recta. Una ecuacion parametrica de la
misma es

x = 2
y=

z = 12
por lo tanto el vector (3, 2, 1) es una base de E3 .
Definici
on 11 La dimension del subespacio propio es llamada multiplicidad geom
etrica
del valor propio.
En este caso la multiplicidad geometrica del valor propio 3 es 1.
El subespacio propio correspondiente al valor propio 1 es

x
x

3
E1 = (x, y, z) IR / A y = y
.

z
z
O sea, son las soluciones del sistema

5x + 12y = x
4x + 9y = y

2x + 4y + z = z
Esto corresponde al plano
2x 4y = 0.
Una ecuacion parametrica del mismo es

7 EJEMPLOS

12

x = 2

y=
z=

tenemos que los vectores (2, 1, 0), (0, 0, 1) forman una base del mismo. Por lo tanto la
multiplicidad geometrica del valor propio 1 es 2.
4) Diagonalizaci
on.
En este caso los vectores
(2, 1, 0), (0, 0, 1) (3, 2, 1)
|

{z

} | {z }

valor
propio
1

valor
propio
3

forman una base de IR3 donde los vectores que aparecen son vectores propios. Si llamamos
P a esa base, tenemos que

1 0 0

P [T ]P = 0 1 0 ,
0 0 3
donde T v = Av.
Para hallar la matriz de cambio de base P [idIR3 ]C , donde C es la base canonica, usamos que
(1, 0, 0) = 2(2, 1, 0) (0, 0, 1) (3, 2, 1)
(0, 1, 0) = 3(2, 1, 0) 2(0, 0, 1) + 2(3, 2, 1)
(0, 0, 1) = 0(2, 1, 0) + (0, 0, 1) + 0(3, 2, 1)
o sea

coordP (1, 0, 0) = (2, 1, 1)


coordP (0, 1, 0) = (3, 2, 2)
coordP (0, 0, 1) = (0, 1, 0)
y por lo tanto la matriz de cambio de base es

2 3 0

3
1
2 1
[id
]
=

.
P
IR C
1
2 0
Tenemos que

5 12 0
2 0 3
1 0 0
2 3 0

0
A=
4 9
= 1 0 2 0 1 0 1 2 1
2 4 1
0 1 1
0 0 3
1
2 0
En este ejemplo vemos tamben en funcionamiento un resultado que es equivalente al
resultado fundamental mostrado anteriormente y es que:

multiplicidad
algebraica

multiplicidad
geometrica

m
diagonalizable

7 EJEMPLOS

7.2

13

Ejemplo

Sea A la matriz

"

A=

3 1
0 3

1) Polinomio caracterstico.
Como la matriz A es diagonal, el calculo del polinomio caracterstico resulta sencillo,
p() = ( 3)2 multiplicidad
algebraica

=2

2) Valores propios.
En este caso tenemos un solo valor propio, = 3 con multiplicidad algebraica 2.
3) Subespacio propio.
El subespacio propio correspondiente al valor propio 3 es
(

"
2

E3 = (x, y) IR / A

x
y

"

=3

x
y

#)

O sea, son las soluciones del sistema


(

3x + y = 3x
3y = 3y

que corresponde a la ecuacion y = 0.


Por lo tanto
E3 = {(x, 0) / x IR},
que tiene dimension 1. Tenemos que la multiplicidad algebraica es distinta de la geometrica.
No vamos a tener una base de vectores propios, lo que implica que la matriz
"

A=

3 1
0 3

no es diagonalizable.

7.3

Ejemplo

Consideremos la transformacion lineal


T : P2 P2 , dada por T p = p0 .
En la base canonica C de P2 formada por los polinomios
x2 , x, 1
recuerde la importancia del orden de los vectores al fijar la base.

7 EJEMPLOS

14

1) Matriz asociada a T .
Tenemos que

T x2 = 2x, coordC (T x2 ) = (0, 2, 0),


T x = 1,
coordC (T x) = (0, 0, 1),
T 1 = 0,
coordC (T 1) = (0, 0, 0).

Obtenemos

0 0 0

2 0 0
[T
]
=

.
C
C
0 1 0
2) Polinomio caracterstico.
El polinomio caracterstico de T es

0
0

3
0
p() = det 2
= .
0
1
3) Valores propios de T .
Tenemos un solo valor propio, = 0 con multiplicidad algebraica 3.
4) Subespacio propio.
El subespacio propio asociado al valor propio 0,
E0 = {p P2 / T p = 0}
corresponde a los polinomios
p E0 , p(x) = c, c IR.
Recuerde ademas

El subespacio propio correspondiente


al valor propio 0 es
Ker T.
El resultado anterior lo podemos hallar en coordenadas utilizando la matriz asociada. Sea
p(x) = ax2 + bx + c E0 , entonces coordC (p) = (a, b, c) y

0 0 0
a
a
0

2 0 0 b = 0 b = 0
0 1 0
c
c
0
equivale al sistema

0 = 0,
2a = 0,

b=0
de donde nuevamente obtenemos que a = b = 0. Tenemos que la dimension de E0 es 1, o
sea la multiplicidad geometrica del valor propio 0 es 1

7 EJEMPLOS

15

multiplicidad
algebraica

6=

multiplicidad
geometrica

y por tanto no existe una base formada por vectores propios, entonces T no es diagonalizable.

8 APLICACIONES

16

Aplicaciones

La diagonalizacion es de interes en areas diversas tanto de la matematica como de otras


ciencias. Se pueden mencionar por ejemplo: geometra, programacion cuadratica, estadstica,
mecanica, etc. Una de estas aplicaciones de diagonalizacion es la siguiente.

8.1

Modelos.

En las ciencias sociales, existen problemas los cuales se pueden estudiar con lo que son
llamados modelos dinamicos de tiempo discreto. En estos casos la diagonalizacion simplifica
el estudio de la dinamica.
Que significan todos esos conceptos mencionados anteriormente?
Dinamica significa que algo cambia con el tiempo . En el caso que veremos, de tiempo
discreto, el tiempo es t=0, t=1,. . . , o sea t es un n
umero natural. En nuestro caso partimos
de un punto x en IRn y luego el pasar del tiempo corresponde a tomar
x
A(x)
A(A(x)) = A2 (x)
mveces

A(A(..A (x)..) = Am (x)

para
para
para
..
.

t = 0,
t = 1,
t = 2,

para

t=m

donde A es una matriz n n. La dimension n depende de cuantas cantidades son de interes


para lo que estemos modelando. Esquematicamente corresponde

An x

A2 x

Ax

Iterados de un elemento x
El punto Am (x) es llamado el iterado m de x. Estudiar la dinamica del problema corresponde a estudiar como se comportan los iterados de los distintos puntos iniciales x de IRn

8 APLICACIONES

17

cuando m tiende a infinito.


En el caso de que la matriz A sea diagonalizable, o sea A = C 1 DC donde D es diagonal,
tenemos que Am (x) = C 1 Dm C(x) con

Dn =

m
1

0
...
m
n

Esto ya simplifica bastante el problema. Pero existe una situacion en la cual tenemos mas
informacion a
un. Es cuando los valores propios satisfacen
|i | < 1, para i = 1, . . . , n
tenemos que

lim m
i = 0,

y como consecuencia la matriz Dm tiende a la matriz nula cuando m tiende a infinito. Esto
implica que sin importar el punto de partida, cuando el tiempo pasa , o sea cuando m crece
Am x se aproxima cada vez mas al origen, independientemente del x tomado inicialmente.

2
A x

Ax

Figura 1: Iterados de un punto cualquiera


En este caso se dice que el origen es un atractor. Todos los puntos de IRn se comportande la misma manera.

8 APLICACIONES

18

C
onicas.
8.2

Reconocimiento de C
onicas.

Una ecuacion del tipo

ax2 + bxy + cy 2 + dy + ex + f = 0,

representa una seccion conica en un sistema ortogonal de coordenadas.

Figura 2: Secciones conicas


Como reconocemos a partir de la ecuacion
ax2 + bxy + cy 2 + dy + ex + f = 0, ()
de que tipo de conica estamos hablando?
Para responder a esto utilizamos el resultado sobre diagonalizacion de matrices simetricas.
Se puede ver que mediante una traslacion del origen de coordenadas; o sea existen coordenadas
x = x + p,
y = y + q,
donde podemos elegir (p, q) de forma que la ecuacion de la conica se transforma en
ax2 + bxy + cy 2 + f = 0.
Como los coeficientes a, b, c son los mismos, para saber que tipo de conica representa la
ecuacion estudiamos:
ax2 + bxy + cy 2 ,
se denominan parte principal de la ecuacion (). Esta expresion se puede escribir en la
forma:

!
!

!
a 2b
x
x
2
2
ax + bxy + cy = (x, y) b
= (x, y)A
y
y
c
2

8 APLICACIONES

19

donde A es una matriz simetrica.


Por el teorema 1, la matriz A posee valores propios reales y puede diagonalizarse mediante
un cambio de base ortonormal. Esto permite obtener nuevas coordenadas, dadas por una
rotacion de los ejes x, y; donde no aparece termino en xy.
Este cambio de coordenadas nos permite reconocer que tipo de conica representa la ecuacion
estudiando el signo del producto de los valores propios de A. Para conicas no degeneradas,
si llamamos 1 y 2 a los valores propios de A, tenemos:
(

1 = 2 , la conica es un crculo,
1 6= 2 , la conica es una elipse.
1 2 < 0 corresponde a una hiperbola.
1 2 = 0 corresponde a una parabola.

1 2 > 0

Para una descripcion mas detallada de lo hecho en esta aplicacion consultar, por ejemplo,
el libro:
Algebra y geometra de E. Hernandez.

Das könnte Ihnen auch gefallen