Beruflich Dokumente
Kultur Dokumente
1.1.- INTRODUCCIÓN
Las notas siguientes tienen como objetivo proveer las herramientas básicas del
algebra matricial comunes en todos los métodos y procedimientos del cálculo numérico,
aplicados a la solución y análisis de los sistemas de potencia.
𝑎 + 𝑏 = 𝑏 + 𝑎, 𝑦 (𝑎 + 𝑏) + 𝑐 = 𝑎 + (𝑏 + 𝑐) (1.1)
𝑎1
𝑎2
𝐴=[ . ] (1.3)
.
𝑎𝑛
Las operaciones algebraicas con vectores se rigen por las siguientes leyes:
𝑎1 𝑏1 𝑎1 + 𝑏1
. . . .. ..
𝐴+𝐵 =[ . ]+[ . ]=[ . ] (1.4)
. .
𝑎𝑛 𝑏𝑛 𝑎𝑛 + 𝑏𝑛
𝑎1 𝑘𝑎1
𝑎2 𝑘𝑎2
𝑘𝐴 = 𝑘 [ . ] = . (1.5)
. .
𝑎𝑛 [𝑘𝑎𝑛 ]
𝑈 + (𝑉 + 𝑊) = (𝑈 + 𝑉) + 𝑊 (1.6)
b.- Un vector importante es el vector nulo, donde todas sus componentes son
cero y es denotado por 0, tal que:
(𝑐 + 𝑑)𝑉 = 𝑐𝑉 + 𝑑𝑉 (1.10)
𝑐(𝑉 + 𝑊) = 𝑐𝑉 + 𝑐𝑊 (1.11)
Multiplicación de Vectores
𝐵 = 𝑘1 𝐴1 + 𝑘2 𝐴2 + ⋯ … … . . +𝑘𝑚 𝐴𝑚 (1.13)
𝑥1 𝐴1 + 𝑥2 𝐴2 + ⋯ … … . +𝑥𝑚 𝐴𝑚 = 0 (1.14)
Es satisfecha solamente cuando los coeficientes x son cero, de otra manera los
vectores son linealmente dependientes.
Ejemplo 1.1:
3 −1 1
0 2 1
𝐴 = [ ], 𝐵 = [ ], 𝐶=[ ] (1.15)
3 1 2
2 0 1
En este caso los vectores dados son linealmente dependientes ya que una
combinación lineal de ellos ( 𝐴 + 𝐵 − 2𝐶) con coeficientes diferentes de cero, es igual al vector
nulo.
Teorema 1:
Dado un conjunto de vectores linealmente dependientes, al menos uno de los
vectores del conjunto puede ser expresado como una combinación lineal de los otros.
Prueba:
Dados 𝐴1 , 𝐴2 , 𝐴3 , 𝐴4 , … … . . , 𝐴𝑚 , un conjunto de vectores linealmente
dependientes. Debido a que los vectores son linealmente dependientes debe existir
un conjunto de números 𝑥1 , 𝑥2 , … … … … … … . , 𝑥𝑚 no todos iguales a cero, tal que:
𝑥1 𝐴1 + 𝑥2 𝐴2 + ⋯ + 𝑥𝑚 𝐴𝑚 = 0 (1.16)
𝐴1 = −(𝑥2 /𝑥1 )𝐴2 − (𝑥3 /𝑥1 )𝐴3 − ⋯ − (𝑥𝑚 /𝑥1 )𝐴𝑚 (1.17)
𝐴 = 𝑎1 𝑉1 + … … … … … … 𝑎𝑟 𝑉𝑟 (1.18)
… … … … … … … … … … ..
En notación vectorial las ecuaciones pueden ser escritas, de una manera más concisa, como:
Matrices y su Aplicación al Análisis de Sistemas de Potencia 6
𝑥1 𝐴1 + 𝑥2 𝐴2 + … … … + 𝑥𝑚 𝐴𝑚 = 𝐵 (1.20)
1 + 3𝑗 6 3 𝐶𝑜𝑠𝜃 𝑆𝑖𝑛𝜃
𝐴=[ 5 2 − 5𝑗 2 ] 𝐵 = [ 𝑆𝑖𝑛𝜃 𝑇𝑎𝑛𝜃 ]
7 2 7 + 9𝑗 𝑆𝑒𝑐𝜃 𝐶𝑜𝑠𝜃
𝑥
𝐶 = [𝑦] 𝐷 = [2 8 3 5]
𝑧
En forma compacta:
Sea 𝑀𝑚𝑥𝑛 el conjunto de todas las matrices mxn, sobre el cual se define:
Donde:
𝑐𝑖𝑗=∑𝑚
𝑘=1 𝑎𝑖𝑘 𝑏𝑘𝑗
(1.29)
Por ejemplo, si 𝐴3𝑥4 𝑦 𝐵4𝑥2 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 (𝐴𝐵)3𝑥2 , 𝑝𝑒𝑟𝑜 𝐵𝐴 ni siquiera puede ser
planteada.
Por otra parte, si 𝐴3𝑥2 𝑦 𝐵2𝑥3 , 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 (𝐴𝐵)3𝑥3 (𝐵𝐴)2𝑥2 . Sin embargo, aun
cuando ambas existan, es claro que, en general,
𝐴𝐵 ≠ 𝐵𝐴 (1.30)
Ejemplo 1.1
−1 3
1 0 5 4 −1 32
2 4
[−1 0 2 3] [ ] = [ 1 10]
0 5
4 3 1 2 2 31
0 1
Ejemplo 1.2
0 1 0 1 2 0
𝐴=[ ] 𝐵=[ ] 𝐶=[ ]
0 0 0 1 0 1
0 1 0 0 0 1
𝐴𝐵 = [ ] 𝐵𝐴 = [ ] 𝐴𝐶 = [ ]
0 0 0 0 0 0
- 𝐴𝐵 ≠ 𝐵𝐴, aun cuando ambas matrices son del mismo orden 2x2.
0 0
- 𝐵𝐴 = [ ] no implica que 𝐵 𝑜 𝐴 son matrices nulas.
0 0
𝑦 𝑎𝑖𝑗 = 0 𝑠𝑖 𝑖 ≠ 𝑗 .
Ejemplo 1.3
𝐴𝐼 = 𝐼𝐴 = 𝐴 (1.31)
𝐴𝐵 = 𝐵𝐴 = 𝐼𝑛 (1.32)
𝐵 = 𝐴−1 (1.33)
Ejemplo 1.4
1 2 2 4
𝐴=[ ] y 𝐵=[ ]
−1 1 −1 −2
a.- (𝐴𝑡 )𝑡 = 𝐴
c.- (𝐴 + 𝐵)𝑡 = 𝐴𝑡 + 𝐵 𝑡
d.- (𝐴𝐵)𝑡 = 𝐵 𝑡 𝐴𝑡
1.3.4.- DETERMINANTES
- DETERMINANTE DE ORDEN 2
𝑎11 𝑎12
det(𝐴) = |𝑎 𝑎22 | = 𝑎11 𝑎22 − 𝑎12 𝑎21 (1.39)
21
Ejemplo 1.5
3 −4
det(𝐴) = | | = 3(−5) − (−4)2 = (−7)
2 −5
- DETERMINANTE DE ORDEN 3
−𝑎13 𝑎22 𝑎31 − 𝑎12 𝑎21 𝑎33 − 𝑎11 𝑎23 𝑎32 (1.41)
Esta expansión particular puede ser fácilmente memorizada a partir del método
siguiente. La primera y segunda columna son repetidas después de la tercera columna, tal
como se indica a continuación, y los productos a lo largo de la línea llena (a trazos) son
tomados con signo positivos (negativos).
El menor |𝑀𝑖𝑗 |, acompañado del signo (−1)𝑖+𝑗 , recibe el nombre de cofactor del
elemento 𝑎𝑖𝑗 , se designa por 𝑐𝑖𝑗 y se escribe:
Matrices y su Aplicación al Análisis de Sistemas de Potencia 11
obtenidos de multiplicar los elementos de cualquier fila (o columna) por sus respectivos
cofactores. Así, se obtiene:
|𝐴| = 𝑎𝑖1 𝑐𝑖1 + 𝑎𝑖2 𝑐𝑖2 + 𝑎𝑖3 𝑐𝑖3 + ⋯ + 𝑎𝑖𝑛 𝑐𝑖𝑛 (1.43)
|𝐴| = 𝑎1𝑗 𝑐1𝑗 + 𝑎2𝑗 𝑐2𝑗 + 𝑎3𝑗 𝑐3𝑗 + ⋯ + 𝑎𝑛𝑗 𝑐𝑛𝑗 (1.44)
Corresponden a los llamados desarrollos de Laplace, según la i-ésima fila y según la j-ésima
columna, respectivamente. Lo realmente notable de los desarrollos de Laplace es que
cualquiera sea la fila o columna elegida para el desarrollo el número det(𝐴) = |𝐴|, es siempre
el mismo.
det(𝐼𝑛 ) = 1
det(𝐴𝑡 ) = det(𝐴)
Matrices y su Aplicación al Análisis de Sistemas de Potencia 12
cualquiera de 𝐴, es − det(𝐴).
g.- El determinante de una matriz que posee dos filas idénticas, es cero.
i.- La suma de los productos de los elementos de una fila por los cofactores de
𝑎11 ⋯ 𝑎1𝑛
𝐴=[ ⋮ ⋱ ⋮ ] (1.46)
𝑎𝑛1 ⋯ 𝑎𝑛𝑛
𝑐11 ⋯ 𝑐𝑛1
𝐴𝑎𝑑𝑗 = 𝑐 𝑡 = [ ⋮ ⋱ ⋮ ] (1.47)
𝑐1𝑛 ⋯ 𝑐𝑛𝑛
Donde:
Matrices y su Aplicación al Análisis de Sistemas de Potencia 13
𝐴𝑋 = 𝐼 (1.48)
Es decir:
y esto significa que la matriz 𝑋 puede ser obtenida a partir de la expresión siguiente:
𝑐11 ⋯ 𝑐𝑛1
𝑋 = 1⁄det(𝐴) [ ⋮ ⋱ ⋮ ] (1.54)
𝑐1𝑛 ⋯ 𝑐𝑛𝑛
a.- La inversa del producto de dos matrices cuadradas semejantes es igual al producto de sus
inversas tomadas en orden inverso. Así, se tiene:
𝑎 0 0
𝐴 = [0 𝑏 0] (1.59)
0 0 𝑐
1⁄ 𝑎 0 0
𝐴−1 = [ 0 1 ⁄𝑏 0 ] (1.60)
0 0 1 ⁄𝑐
Paso 3. Remplace cada elemento 𝑎𝑟𝑠 de la matriz 𝐴𝑡 por su menor, 𝑀𝑟𝑠 ( 𝑀𝑟𝑠 es el
subdeterminante derivado al eliminar la fila s y la columna r, del det(𝐴𝑡 ) .
Paso 4. Determinar la matriz adjunta, 𝐴𝑎𝑑𝑗 , de la matriz 𝐴, cuyos elementos están constituidos
por los cofactores de los elementos correspondientes de la matriz 𝐴𝑡 , los cuales son iguales
al producto de (−1)𝑖+𝑗 por el determinante de la submatriz que resulta de suprimir la fila rth y
la columna sth.
Ejemplo 1.6:
2 1 −2
𝐴=[ 0 1 1]
−1 0 0
2 0 −1
𝐴𝑡 = [ 1 1 0]
−2 1 0
0 0 3
[1 −2 2]
1 1 2
Paso 4. Multiplicar cada elemento de la matriz de menores por (−1)𝑖+𝑗 para obtener la matriz
adjunta:
Matrices y su Aplicación al Análisis de Sistemas de Potencia 16
0 0 3
𝐴𝑎𝑑𝑗 = [−1 −2 −2]
1 −1 2
Paso 5. Multiplicar la matriz adjunta por1⁄det(𝐴) para obtener la matriz inversa, 𝐴−1 :
1 0 0 −3
𝐴−1 = [−1 −2 −2]
3
1 −1 2
Ejemplo 1.7:
𝐶𝑜𝑠𝜃 𝑆𝑖𝑛𝜃
𝐴=[ ]
1 0
𝑑𝐴 −𝑆𝑒𝑛𝜃 𝐶𝑜𝑠𝜃
=[ ]
𝑑𝜃 0 0
En general una matriz puede ser diferenciada respecto a cualquier otra matriz. En
este caso, la matriz resultante se obtiene derivando cada uno de los elementos de la primera
matriz respecto a uno de los elementos de la segunda matriz.
Matrices y su Aplicación al Análisis de Sistemas de Potencia 17
El orden de la matriz resultante es la suma del orden de las dos. Así, se obtiene:
Dado:
𝜕𝐴 𝐶𝑜𝑠𝜃 0 0
=[ 0 −𝑆𝑒𝑛𝛿 0] (1.63)
𝜕𝐵
0 0 0
En general, se tiene:
𝜕𝐴𝛼 𝜕𝐴𝛼𝛽
= 𝐶𝛼𝛽 𝑦 = 𝐶𝛼𝛽𝛾𝛿 (1.64)
𝜕𝐵𝛽 𝜕𝐵𝛾𝛿
Una matriz es integrada respecto a una variable, integrando cada uno de sus
componentes respecto a la variable. Esta operación de integración se ilustra en el ejemplo
siguiente:
𝐴𝑋 = 𝐵 (1.69)
Donde:
Matrices y su Aplicación al Análisis de Sistemas de Potencia 19
𝑋 = 𝐴−1 𝐵 (1.70)
… … … … … … … … … … .. (1.72)
… … … … … … … … …. …. … (1.73)
Continuando este proceso, todos los coeficientes de las variables por debajo de
la diagonal principal, es decir, de los pivotes pueden ser reducidos a cero, obteniéndose
finalmente el siguiente sistema de ecuaciones:
2
0 + 0 + … … … + 𝑎3𝑛 𝑥𝑛 = 𝑏32 (1.74)
… … … … … … … … … … ..
𝑛
0 + 0 + … … … + 𝑎𝑛𝑛 𝑥𝑛 = 𝑏𝑛𝑛
Donde, en general:
𝑘−1 𝑘−1
𝑘 𝑘−1
𝑎𝑖𝑘 𝑎𝑘𝑗 𝑏𝑖𝑘−1 𝑎𝑖𝑘
𝑘−1
𝑎𝑖𝑗 = 𝑎𝑖𝑗 − 𝑘−1 , … … … … . , 𝑏𝑖𝑘 = 𝑏𝑖𝑘−1 − 𝑘−1 (1.75)
𝑎𝑘𝑘 𝑎𝑘𝑘
𝑏𝑛
𝑋𝑛 = (1.76)
𝑎𝑛𝑛
𝑏𝑛−1 − 𝑎𝑛−1,𝑛 𝑋𝑛
𝑋𝑛−1 = (1.77)
𝑎𝑛−1,𝑛−1
En general, se obtiene:
𝑛
1
𝑋𝑘 = (𝑏𝑘 − ∑ 𝑎𝑘𝑛 𝑋𝑛 ) 𝑘 = 𝑛, 𝑛 − 1, … … … . ,1 (1.78)
𝑎𝑘𝑘
𝑛=𝑘+1
Ejemplo 1.8:
Resolver la siguiente ecuación matricial, mediante el método de eliminación de
Gauss:
Matrices y su Aplicación al Análisis de Sistemas de Potencia 22
2 3 −1 𝑥1 5
[−4 6 8 ] [𝑥2 ] = [7]
10 12 14 𝑥3 9
Solución:
- Paso 1:
2 ⋮ 3 ⋮ −1 5
… ⋮ ………………… ⋮ ………………… 𝑥1 …………
0 ⋮ 6 − (−2)(3) ⋮ 8 − (−2)(−1) [𝑥2 ] = 7 − (−2)(5)
… ⋮ … … … … … … … ⋮ … … … … … … … 𝑥3 …………
[0 ⋮ 12 − (5)(3) ⋮ 14 − (5)(−1) ] [ 9 − (5)(5) ]
2 ⋮ 3 ⋮ −1 5
… ⋮ ………………… ⋮ ………………… 𝑥1
…………
0 ⋮ 12 ⋮ 6 [𝑥2 ] = [ 17 ]
… ⋮ ………………… ⋮ … … … … … … … 𝑥3 …………
[0 ⋮ −3 ⋮ 19 ] −16
- Paso 2:
2 ⋮ 3 ⋮ −1 5
… ⋮ ………………… ⋮ ………………… 𝑥1
…………
0 ⋮ 12 ⋮ 6 𝑥
[ 2] =
… ⋮ ………………… ⋮ ………………… 𝑥3 … …17… …
[0 ⋮ 0 ⋮ 19 − (−0.25)(6)] [−16 − (−0.25)(17)]
- Resultado de la triangularización:
2 3 −1 𝑥1 5
[0 12 6 ] [𝑥2 ] = [ 17 ]
0 0 20.5 𝑥3 −11.75
11.75
𝑥3 = − = −0.5732
20.5
[17 − 6(−11.75⁄20.5)]
𝑥2 = = 1.69
12
La ecuación:
𝐴𝑋 = 𝐵 (1.80)
puede ser resuelta obteniendo la inversa de la matriz 𝐴 y luego calculando el vector 𝑋 a partir
de la siguiente ecuación matricial:
𝑋 = 𝐴−1 𝐵 (1.81)
Existen diferentes métodos que pueden ser utilizados para la evaluación explicita
de la matriz inversa, es decir, 𝐴−1. Uno de los metodos más simples y eficientes para calcular
la inversa de matrices muy grandes es el método de Gauss Jordan o conocido como el
método de eliminación total. Este método es una extensión del método de eliminación de
Gauss el cual fue considerado previamente, no requiere almacenamiento extra y una
precisión razonable. La forma más fácil de entender el método es partir de la solución del
sistema de ecuaciones siguiente:
𝑎11 𝑥1 + 𝑎22 𝑥2 = 𝑏2
𝑎11 𝑎12 𝑥1 𝑏1
[𝑎 𝑎22 ] [𝑥2 ] = [𝑏2 ] (1.83)
21
−1 (𝑏
𝑥2 = 𝑎22 2 − 𝑎21 𝑥1 ) (1.84)
−1
(𝑎11 − 𝑎12 𝑎22 −1
𝑎21 )𝑥1 + 𝑎12 𝑎22 𝑏2 = 𝑏1 (1.85)
El sistema formado por las ecuaciones (1.85) y (1.84), se puede escribir en forma
matricial como:
𝑎1 1
𝑎12 𝑥1 𝑏1
[ 11 1 ] [𝑏2 ] = [𝑥 ] (1.86)
𝑎121 𝑎22 2
Donde:
Matrices y su Aplicación al Análisis de Sistemas de Potencia 24
1 −1 1 −1
𝑎11 = 𝑎11 − 𝑎12 𝑎22 𝑎21 𝑎12 = 𝑎12 𝑎22 (1.87)
𝑎121 = −𝑎22
−1
𝑎21 𝑎122 = 𝑎22
−1
(1.88)
Las nuevas ecuaciones tienen la misma forma de las ecuaciones originales pero
donde los elementos 𝑥2 𝑦 𝑏2 aparecen intercambiados. Este proceso puede ser repetido
hasta intercambiar 𝑥1 𝑦 𝑏1 , obteniéndose de esta manera la siguiente ecuación matricial:
𝑎2 2
𝑎12 𝑏1 𝑥1
[ 11
2 2 ] [𝑏 ] = [𝑥2 ] (1.89)
𝑎21 𝑎22 2
𝐶𝐵 = 𝑋 (1.90)
𝐶 = 𝐴−1 (1.91)
a) 𝑎𝑖𝑖′ = 1⁄𝑎𝑖𝑖
b) 𝑎𝑗𝑖′ = 𝑎𝑗𝑖 𝑎𝑖𝑖′ para todo 𝑗 ≠ 𝑖
′
c) 𝑎𝑗𝑘 = 𝑎𝑗𝑘 − 𝑎𝑗𝑖′ 𝑎𝑖𝑘 para todo 𝑗 ≠ 𝑖, 𝑘 ≠ 𝑖 (1.92)
′
d) 𝑎𝑖𝑘 = −𝑎𝑖𝑖′ 𝑎𝑖𝑘 para todo 𝑘 ≠ 𝑖
proceso nos lleva al siguiente programa en FORTRAN, propuesto por primera vez por
SHIPLEY AND COLEMAN [2]:
2 3 −1 𝑥1 5
[−4 6 8 ] [𝑥2 ] = [7]
10 12 14 𝑥3 9
𝑥1 −.34008
[𝑥2 ] = [ 1.7028 ]
𝑥3 −.5729
𝐴 = 𝐿𝑈 (1.93)
De esta manera, para un sistema de tercer orden, los factores matriciales pueden
ser presentados en la forma siguiente:
𝑎31 = 𝐿31 𝑎32 = 𝐿31 𝑈12 + 𝐿32 𝑎33 = 𝐿31 𝑈13 + 𝐿32 𝑈23 + 𝐿33
𝑎12 𝑎13
𝐿11 = 𝑎11 𝑈12 = 𝑈13 =
𝐿11 𝐿11
1
𝐿21 = 𝑎21 𝐿22 = 𝑎22 − 𝐿21 𝑈12 𝑈23 = (𝑎23 − 𝐿21 𝑈13 ) (1.96)
𝐿22
𝐿31 = 𝑎31 𝐿32 = 𝑎32 − 𝐿31 𝑈12 𝐿33 = 𝑎33 − 𝐿31 𝑈13 − 𝐿32 𝑈23
𝐴𝑋 = 𝐵 (1.97)
𝐿𝑈𝑋 = 𝐵 (1.98)
Haciendo:
𝑈𝑋 = 𝑌 (1.99)
𝐿𝑌 = 𝐵 (1.100)
𝑏1
𝑦1 = 𝑥3 = 𝑦3
𝐿11
Matrices y su Aplicación al Análisis de Sistemas de Potencia 28
1
𝑦2 = 𝐿 (𝑏2 − 𝐿21 𝑦1 ) 𝑥2 = 𝑦2 − 𝑈23 𝑥3 (1.102)
22
1
𝑦3 = (𝑏 − 𝐿31 𝑦1 − 𝐿32 𝑦2 ) 𝑥1 = 𝑦1 − 𝑈12 𝑥2 − 𝑈13 𝑥3
𝐿33 3
Ejemplo 1.10:
1
. .
𝑎11
𝑎
𝐿1 = − 𝑎21 1 . (1.104)
11
𝑎31
[− 𝑎11 . 1]
𝐴1 = 𝐿1 𝐴 (1.105)
o 𝐿−1 1
1 𝐴 =𝐴 (1.106)
Donde:
1 1
𝑎11 . . 1 𝑎12 𝑎13
𝐿−1
1 = [𝑎21 1 .] 𝑦 1
𝐴 = [. 1
𝑎22 1
𝑎23 ] (1.107)
𝑎31 . 1 . 𝑎132 𝑎133
Matrices y su Aplicación al Análisis de Sistemas de Potencia 29
1 . .
1
. 1 .
𝐿2 = 𝑎22 (1.109)
𝑎1
[. − 𝑎32
1 1]
22
𝐴2 = 𝐿2 𝐴1 (1.110)
o, 𝐴1 = 𝐿−1
2 𝐴
2
(1.111)
𝐴 = 𝐿−1 −1 2
1 𝐿2 𝐴 (1.112)
Continuando este proceso para todos los elementos de la diagonal principal, para
un sistema de orden ntt, se obtiene:
𝐴 = 𝐿−1 −1 −1 𝑛
1 𝐿2 … … … 𝐿𝑛 𝐴 (1.113)
1 1
1 𝑎12 𝑎13
𝐴𝑛 = 𝑈 = [ . 1 2 ]
𝑎23 (1.114)
. . 1
𝐿 = 𝐿−1 −1 −1
1 𝐿2 … … … … … . 𝐿 𝑛 (1.115)
𝑎11 . . 1 . . 1 . . 𝑎11 . .
𝐿 = [𝑎21 1 . ] [ . 𝑎122 .][. 1 𝑎
. ] = [ 21 𝑎122 . ] (1.116)
1 . 𝑎132 2
𝑎31 . 1 . . 𝑎33 𝑎31 𝑎132 2
𝑎33
Ejemplo 1.11:
2 3 −1 𝑥1 5
[−4 6 8 ] [𝑥2 ] = [7]
10 12 14 𝑥3 9
Paso 1.
3 1
2 ⋮ −
2… …2
⋯ …
−4 ⋮ 12 6
[ 10 ⋮ −3 19]
Paso 2.
2 1.5 −0.5
[−4 12 0.5 ]
10 −3 20.5
Donde:
2 − − 1 1.5 −0.5
𝐿 = [−4 12 − ] 𝑈 = [− 1 0.5]
10 −3 20.5 − − 1
Paso 3.
2 − − 𝑦
1 5
−4 12 − 𝑦
[ 41] [ 2 ] = [7]
10 −3 𝑦3 9
2
Así:
𝑦1 = 2.5, 𝑦2 = 1.4167, 𝑦3 = −0.5732
Paso 4.
Matrices y su Aplicación al Análisis de Sistemas de Potencia 31
𝐴 = 𝐿′ 𝐷𝑈 (1.117)
Donde:
𝐿′ = Matriz Triangular Inferior con elementos unidad
en la diagonal principal.
𝑈 = Matriz Triangular Superior con elementos unidad
en la diagonal principal.
D=Matriz Diagonal con todos los elementos nulos
fuera de la diagonal principal.
Ejemplo 1.12:
Esta técnica puede ser ilustrada a partir del ejemplo 1.11 de factorización LU,
mostrado previamente. De este ejemplo, se obtiene:
2 3 −1 2 − − 1 1.5 −0.5
𝐴 = [−4 6 8] 𝐿 = [−4 12 − ] 𝑈 = [− 1 0.5]
10 12 14 10 −3 20.5 − − 1
1 − − 2 . .
𝐿′ = [−2 1 −] 𝐷 = [ . 12 . ]
5 −0.25 1 . . 20.5
3 −1 −1 . 3 . . . 1 −0.33 −0.33 .
. . . .
𝐴 = [−1 2
. ] 𝐿 = [−1 1.666 ] 𝑈 = [ .. 1
.
−0.20 .]
−1 2 −1 −1 −0.33 1.60 . 1 −0.625
. . −1 1 . . −1 −1.391 . . . 1
1 . . . 3 . . .
. . . 1.666 . .
𝐿 = [−0.33
′ 1 ] 𝐷=[ ]
−0.33 −0.20 1 . . . 1.60 .
. . −0.62 1 . . . −1.391
Resulta evidente del último ejemplo, que cuando la matriz de coeficiente original es simétrica
los factores matriciales 𝐿′ y 𝑈, entre ellas, son matrices transpuestas. Esta es la gran ventaja
de esta técnica de descomposición, ya que solo es necesario almacenar uno de los factores
matriciales, el otro puede ser conocido implícitamente.
𝐴𝑋 = 𝐵 (1.118)
𝐴 puede ser expresada como:
𝐴 = 𝐿′ 𝐷𝑈 (1.119)
De las ecuaciones (1.95) y (1.96), se obtiene:
𝐿′ 𝐷𝑈 𝑋 = 𝐵 (1.120)
Haciendo:
𝑈𝑋 = 𝑌 (1.121)
Matrices y su Aplicación al Análisis de Sistemas de Potencia 33
𝐷𝑌 = 𝑌 ′ (1.122)
𝐿′ 𝑌 ′ = 𝐵 (1.123)
′ ′
Los elementos de 𝑌 pueden ser obtenidos a partir de 𝐿 y 𝐵 por sustitución hacia
adelante, utilizando la ecuación (1.123), luego los elementos de 𝑌 a partir de 𝐷 y 𝑌 ′ utilizando
la ecuación (1.122), y finalmente los elementos de 𝑋 pueden ser obtenidos a partir de 𝑈 𝑦 𝑌
por sustitución hacia atrás, utilizando la ecuación (1.121).
Donde:
A=Matriz de Coeficientes.
I=Matriz Unidad.
𝐴𝑅1 𝑅 2 … … . 𝑅 𝑛−1 𝑅𝑛 = (𝐿1 )−1 (𝐿2 )−1 … … … (𝐿𝑛−1 )−1 (𝐿𝑛 )−1 (1.125)
Matrices y su Aplicación al Análisis de Sistemas de Potencia 34
𝐴 = 𝐴0
𝐴1 = 𝐿1 𝐴0 𝑅1 (1.128)
𝐴𝑛 = 𝐿𝑛 𝐴𝑛−1 𝑅𝑛
0 0 0 0
𝑎11 𝑎12 𝑎13 𝑎14
0 0 0 0
𝑎 𝑎22 𝑎23 𝑎24
𝐴 = 𝐴0 = 210 0 0 0 (1.129)
𝑎31 𝑎32 𝑎33 𝑎34
0 0 0 0
[𝑎41 𝑎42 𝑎43 𝑎44 ]
𝐿111 . . . 0
𝑎11 0
𝑎12 0
𝑎13 0
𝑎14 1 1 1 . . .
1 𝑅 𝑅13 𝑅14
𝐿121 1 . . 0
𝑎21 0
𝑎22 0
𝑎23 0
𝑎24 . . . 𝑎122 𝑎123 𝑎124
[ . 1 ]= . (1.130)
𝐿131 . 1 . 𝑎310 0
𝑎32 0
𝑎33 0
𝑎34 . . 1 . 𝑎132 𝑎133 𝑎134
. . . . 1 [ . 𝑎141 𝑎143 𝑎144 ]
[𝐿141 0
. 1] [𝑎41 0
𝑎42 0
𝑎43 0
𝑎44 ]
1 . . .
1 . . . . . 1 . . .
1 .
. 𝐿222 . .. 𝑎122 1
𝑎23 𝑎124 . 1 2 2 . 1 . .
𝑅23 𝑅24
. 𝐿232 1 [ ] = [. 2
. 𝑎33 2 ] (1.131)
1 . . 𝑎132 𝑎33 𝑎134 . . 1 . 𝑎34
[ . 𝐿242 . 1] [ . 𝑎142 1
𝑎43 𝑎44 ] . .
1 . 1 . . 𝑎2 2
𝑎44
43
Matrices y su Aplicación al Análisis de Sistemas de Potencia 35
1 . . . 1 . . . 1 . . . 1 . . .
. 1 . . . 1 . . . 1 . . . .
[. . 1 . ][. . 1 .] [ . . ] = [ .. 1. ] (1.133)
1 . 1 .
4
. . . 𝐿44 . 3
. . 𝑎44 . . . . .
. 1 1
Puede observarse, a partir de este problema de cuarto orden que le factor, 𝑅, final es una
matriz unidad. Aun más, puede deducirse que, para un sistema de orden nth, los facores
matriciales 𝐿 y 𝑅, en el paso de reducción kth son obtenidas a partir:
1 . . . . . .
. ⋱ . . . . .
. . 𝐿𝑘𝑘𝑘 . . . .
𝐿𝑘 = .. .. 𝐿𝑘𝑖𝑘 1 . . . (1.134)
⋮ . ⋱ . .
. .
⋮ . . ⋱ .
. .
[ 𝐿𝑘𝑛𝑘 . . . 1]
1 . . . . . .
. ⋱ . . . . .
𝑘 𝑘
. . 1 𝑅𝑘𝑗 … . 𝑅𝑛𝑘
𝑅𝑘 = .. .. . 1 . . . (1.135)
. . ⋮ . ⋱ . .
. . ⋮ . . ⋱ .
[ . . . . 1 ]
Donde:
1
𝐿𝑘𝑘𝑘 = 𝑘−1
𝑎𝑘𝑘
𝑘−1
𝑎𝑖𝑘
𝐿𝑘𝑖𝑘 = − 𝑘−1 (𝑖 = 𝑘 + 1, … … . , 𝑛)
𝑎𝑘𝑘
𝑘−1
𝑘 𝑎𝑘𝑗
𝑅𝑘𝑗 =− 𝑘−1 (𝑗 = 𝑘 + 1, … … . , 𝑛) (1.136)
𝑎𝑘𝑘
𝑘−1 𝑘−1
𝑘 𝑘−1
𝑎𝑖𝑘 𝑎𝑘𝑗
𝑎𝑖𝑗 = 𝑎𝑖𝑗 − 𝑘−1
(𝑖 = 𝑘 + 1, … … , 𝑛); (𝑗 = 𝑘 + 1, … … , 𝑛)
𝑎𝑘𝑘
Matrices y su Aplicación al Análisis de Sistemas de Potencia 36
𝑘−1 𝑘−1
𝑎𝑖𝑘 = 𝑎𝑘𝑖 (1.137)
Por lo tanto,
𝑘
𝑅𝑖𝑘 = 𝐿𝑘𝑘𝑖 (1.138)
1
1 𝐿112 . 𝑏1 𝑏12
1
[ . 𝐿122 . ] [ 𝑏2 ] = [ 𝑏22 ] (1.141)
1
. . 1 𝑏3 𝑏32
Matrices y su Aplicación al Análisis de Sistemas de Potencia 37
Donde:
5 1 3
𝑥 𝑥 𝑥 𝑥 𝑥
𝑥 𝑥 . . .
𝑥 . 𝑥 . .
𝑥 . . 𝑥 .
[𝑥 . . . 𝑥]
Donde x representa los elementos no-nulos después de la primera eliminación
utilizando la técnica de transformación R-L. La matriz 𝐴−1 será la indicada a continuación:
1 . . . .
. 𝑥 𝑥 𝑥 𝑥
𝐴1 = . 𝑥 𝑥 𝑥 𝑥
. 𝑥 𝑥 𝑥 𝑥
[. 𝑥 𝑥 𝑥 𝑥]
5 3
1
𝑥 . . . 𝑥
. 𝑥 . . 𝑥
𝐴= . . 𝑥 . 𝑥
. . . 𝑥 𝑥
[𝑥 𝑥 𝑥 𝑥 𝑥]
Los factores matriciales correspondientes tendrán también una estructura rala. Las matrices
resultantes en cada paso del proceso de eliminación son las indicadas a continuación:
1 . . . . 1 . . . . 1 . . . . 1 . . . .
. 𝑥 . . 𝑥 . 1 . . . . 1 . . .
4 . 1 . . .
𝐴 = .
1 . 𝑥 . 𝑥 𝐴 = .
2 . 𝑥 . 𝑥 𝐴 = .
3 . 1 . . 𝐴 = . . 1 . . (1.142)
. . . 𝑥 𝑥 . . . 𝑥 𝑥 . . . 𝑥 𝑥 . . . 1 .
[. 𝑥 𝑥 𝑥 𝑥] [. . 𝑥 𝑥 𝑥] [. . . 𝑥 𝑥] [ . . . . 𝑥]
Esta técnica de vinculación consiste en elegir una unidad de memoria para el valor
numérico correspondiente a cada elemento de la lista y asociarle a esta la dirección del valor
numérico correspondiente al siguiente elemento de la lista.
Localización *1 2 3 4 5 6
Valor Numérico 30.5 50.9 26.3 45.7 . .
NEXT 2 3 4 0
Localización 1 2 *3 4 5 6
Valor Numérico 30.5 50.9 26.3 45.7 28.2 .
NEXT 4 0 5 2 1
en una manera similar. También, durante el proceso de eliminación, elementos no-nulos son
continuamente generados o eliminados y por lo tanto el esquema de almacenamiento deberá
permitir hacer eficientemente tales modificaciones. Finalmente, para minimizar la generación
de elementos no-nulos es necesario conocer el número de elementos no-nulos en cada
columna o en cada fila.
Para esta matriz, las dos tablas y los seis arreglos correspondientes son:
U/Memoria 1 2 3 4 5 6 *7 8 9 10
Valor -1.0 -1.0 -1.0 -1.0 -1.0 -1.0 . . . .
IROW 2 3 1 1 4 3
NEXT 2 0 0 5 0 0 8 9 10 0
U/Memoria 1 2 3 4
DIAG 3.0 2.0 2.0 1.0
ICAP 1 3 4 6
NOZE 2 1 2 1
puede ser identificada, en la práctica, por medio de la utilización de una variable simple entera.
En el ejemplo anterior esta posición es identificada por medio de un asterisco.
El elemento 𝑎41 pertenece a la fila cuatro (04) y columna uno (01) de la matriz. Por
lo tanto, primero se debe localizar el último elemento no-nulo en la columna 1. Utilizando
ICAP(1) y el proceso descrito anteriormente, este elemento es encontrado en la unidad de
memoria 2 de la primera tabla. El nuevo elemento 𝑎41 es almacenado en la primera unidad
libre de la primera tabla, es decir, en la unidad 7 y el valor de NEXT(2) y NOZE(1) son
modificados convenientemente. Por lo tanto, las modificaciones realizadas a la primera tabla
son indicadas a continuación:
NEXT(2) = 7
VALOR(7) = -2.0
IROW(7) = 4
NEXT(7) = 0
Matrices y su Aplicación al Análisis de Sistemas de Potencia 43
NOZE(1) = 3
Un proceso similar puede ser utilizado para almacenar el elemento 𝑎14 , el cual es
agregado en la primera tabla en la unidad de memoria 8.
U/Memoria 1 2 3 4 5 6 7 8 *9 10
Valor -1.0 -1.0 -1.0 -1.0 -1.0 -1.0 -2.0 -2.0 . .
IROW 2 3 1 1 4 3
NEXT 2 0 0 5 0 0 8 9 10 0
U/Memoria 1 2 3 4
DIAG 3.0 2.0 2.0 1.0
ICAP 1 3 4 6
NOZE 2 1 2 2
Similarmente, si un elemento debe ser eliminado del listado, su localidad de memoria queda
disponible para agregar un nuevo elemento para lo cual los valores de los arreglos NEXT y
NOZE son modificados convenientemente.
U/Memoria 1 2 3 4 5 6 *7 8 *9 10
Valor -1.0 -1.0 -1.0 -1.0 -1.0 -1.0 . . . .
IROW 2 3 1 1 4 3
NEXT 2 0 0 5 0 0 8 9 10 0
U/Memoria 1 2 3 4
DIAG 3.0 2.0 2.0 1.0
ICAP 1 3 4 6
NOZE 2 1 2 1
NORD 0 0 0 0
U/Memoria 1 2 3 4
DIAG 3.0 2.0 2.0 1.0
ICAP 1 3 4 6
NOZE 2 1 2 1
NORD 0 1 0 0
𝑥 𝑥 𝑥 .
𝑥 𝑥 . .
[ ]
𝑥 . 𝑥 𝑥
. . 𝑥 𝑥
𝑥 . 𝑥 .
. 1 . .
[ ]
𝑥 . 𝑥 𝑥
. . 𝑥 𝑥
Los pasos lógicos involucrados en este proceso podrían ser simulados utilizando
la técnica siguiente:
A partir de la segunda tabla, el primer elemento de la columna pivote corresponde
a la posición ICAP(2)=3, es decir, la localidad 3 de la primera tabla.
El índice de fila de este elemento es IROW(3)=1, lo cual significa la fila 1 de la
matriz. Ya que NEXT(3)=0, existe solamente un elemento no-nulo en la diagonal secundaria
(𝑎12 ) en la columna 2, lo cual es confirmado por el valor de NOZE(2)=1.
Debido a que el resto de los elementos de la diagonal secundaria en la columna y
fila pivote son cero, el primer paso de reducción afecta el valor del elemento 𝑎11 solamente.
Matrices y su Aplicación al Análisis de Sistemas de Potencia 46
Ya que existe actualmente un elemento en esta posición, DIAG(1), este primer paso no
introduce nuevos elementos no-nulos.
En este punto es necesario considerar otro aspecto el cual es útil realizar durante
el proceso de simulación. Durante el proceso de factorización, los valores numéricos y la
indexación de cualquier elemento no-cero debe ser almacenado. Esto puede ser logrado en
el instante apropiado por medio de la lista contenida en el arreglo NEXT.
Durante el proceso de simulación, no obstante, todos los elementos no-ceros son
detectados, aunque sus valores numéricos sean desconocidos. Por lo tanto, para reducir el
tiempo de factorización, la detección de una localidad de memoria cualquiera puede ser
determinada durante este proceso. Esto resulta ser computacionalmente más eficiente ya que,
los nuevos elementos no-ceros pueden ser insertados en localidades predeterminadas sin
esfuerzo adicional.
Durante el proceso de factorización, los elementos no-ceros de la columna y fila
pivote son eliminados de la matriz, tal como se muestra en la matriz reducida; la información
relevante contenida en esta fila y columna es incorporada en alguno de los factores
matriciales. En términos del esquema de almacenamiento, los elementos de los factores
matriciales pueden ser almacenados en las unidades de memoria previamente ocupados por
los elementos de la matriz de coeficientes. No obstante, para matrices simétricas solamente
los factores matriciales del lado izquierdo producidos durante el proceso de bi-factorización
requieren ser almacenados. También, como las columnas y las filas de la matriz de
coeficientes son idénticas, los factores matriciales de la izquierda pueden ser determinados
bien a partir de la columna o fila en particular; consecuentemente la fila puede ser eliminada
de la memoria de tal manera que las localidades vacantes se utilizarían para almacenar
nuevos elementos no-ceros.
De lo anterior es posible explicar cómo las tablas anteriores pueden ser
modificadas para simular el proceso de reducción.
Primero, considere la primera tabla y recuerde que la columna 2 fue utilizada como
columna pivote. Buscando a través del arreglo IROW, todos los elementos no-ceros en la fila
2 pueden ser eliminados. En este caso solamente un elemento es encontrado en la localidad
1. Esta unidad de memoria, ahora es libre y puede ser utilizada para almacenar un nuevo
elemento no-cero. El identificador de una posición o unidad libre es reubicado a la posición 1.
También, el valor de NEXT(1) es fijado igual a 7, indicando la primera .localidad de memoria
libre, anterior a este paso. Todos los demás valores permanecen iguales.
Ahora consideremos la segunda tabla. Como los elementos de la fila 2, es decir,
localidad 1 de la primera tabla, han sido eliminados, el índice ICAP(1) debe ser modificado.
Matrices y su Aplicación al Análisis de Sistemas de Potencia 47
Este ahora, debe referir al siguiente elemento no-nulo en la columna 1, es decir, el elemento
localizado en la unidad dos de la primera tabla. Este es determinado a partir de NEXT(1),
siendo NEXT(1)=2. Por lo tanto, ICAP(1) sería igual a dos. Similarmente, ya que el proceso
de simulación ha detectado que un elemento ha sido eliminado de la columna 1, el valor de
NOZE(1) debe también ser modificado, de tal manera que ahora NOZE(1)=1.
Después de estas modificaciones, las dos tablas resultantes se muestran a
continuación:
U/Memoria *1 2 3 4 5 6 7 8 *9 10
Valor . -1.0 -1.0 -1.0 -1.0 -1.0 . . . .
IROW . 3 1 1 4 3 . . . .
NEXT 7 0 0 5 0 0 8 9 10 0
U/Memoria 1 2 3 4
DIAG 3.0 2.0 2.0 1.0
ICAP 2 3 4 6
NOZE 1 1 2 1
NORD 0 1 0 0
El proceso anterior puede ser repetido para determinar la siguiente fila y columna
a ser eliminada y así, simular todos los pasos, antes indicados, del proceso de reducción.
Buscando en el arreglo NOZE en la segunda tabla se encuentra que tanto la
columna 1 como la columna 4 pueden ser utilizadas como columna pivote. Seleccionando la
columna 1 como pivote produce una matriz reducida tal como se muestra a continuación:
𝑥 . 𝑥 . 1 . . .
. 1 . . . 1 . .
[ ] → [ ]
𝑥 . 𝑥 𝑥 . . 𝑥 𝑥
. . 𝑥 𝑥 . . 𝑥 𝑥
Aplicando los principios descritos anteriormente puede ser simulada esta
segunda reducción. A continuación se muestran las nuevas tablas generadas:
U/Memoria 1 2 3 *4 5 6 7 8 9 10
Valor . -1.0 -1.0 . -1.0 -1.0 . . . .
IROW . 3 1 . 4 3 . . . .
NEXT 7 0 0 1 0 0 8 9 10 0
U/Memoria 1 2 3 4
DIAG 3.0 2.0 2.0 1.0
ICAP 2 3 5 6
NOZE 1 1 1 1
NORD 2 1 0 0
Matrices y su Aplicación al Análisis de Sistemas de Potencia 48
U/Memoria 1 2 3 4 5 *6 7 8 9 10
Valor . -1.0 -1.0 . -1.0 . . . . .
IROW . 3 1 . 4 . . . . .
NEXT 7 0 0 1 0 4 8 9 10 0
U/Memoria 1 2 3 4
DIAG 3.0 2.0 2.0 1.0
ICAP 2 3 5 0
NOZE 1 1 1 0
NORD 2 1 3 4
Por lo tanto, el cuarto y último paso del proceso de reducción no puede generar
nuevos elementos no-nulos y solo podrá afectar el valor del elemento de la diagonal principal.
En consecuencia las dos últimas tablas representan la simulación completa del
proceso de factorización y el orden dinámico del proceso de eliminación, igualmente muestra
el número y la posición de los elementos no-nulos.
En este proceso de simulación solamente han sido ejecutados una serie de pasos
lógicos, usando enteros, para determinar el orden de eliminación más conveniente, sin
ejecutar alguna operación aritmética. Menor esfuerzo computacional puede ser logrado si en
un determinado paso de reducción, todas las columnas con el mismo número mínimo de
elementos no-nulos son seleccionadas en forma natural ascendente.
1 1
𝑙22 = = (almacenado en el lugar de a22 )
𝑎22 2
𝑎12 1
𝑙12 = − = (almacenado en el lugar de a12 )
𝑎22 2
′
𝑎12 𝑎21 5
𝑎11 = 𝑎11 − = (almacenado en el lugar de a11 )
𝑎22 2
1
1 . . 5
2 . −1 .
1 2
. . . . 1 . .
2 −1 . 2 −1
. . 1 .
[ . . −1 .]
[. . . 1]
Factor Matricial Izquierdo Matriz reducida
U/Memoria 1 2 3 4 5 *6 7 8 9 10
Valor . -1.0 0.5 . -1.0 . . . . .
IROW . 3 1 . 4 . . . . .
NEXT 7 0 0 1 0 4 8 9 10 0
U/Memoria 1 2 3 4
DIAG 2.5 0.5 2.0 1.0
ICAP 2 3 5 0
NOZE 1 1 1 0
NORD 2 1 3 4
Matrices y su Aplicación al Análisis de Sistemas de Potencia 50
U/Memoria 1 2 3 4 5 *6 7 8 9 10
Valor . 0.4 0.5 . -1.0 . . . . .
IROW . 3 1 . 4 . . . . .
NEXT 7 0 0 1 0 4 8 9 10 0
U/Memoria 1 2 3 4
DIAG 0.4 0.5 1.6 1.0
ICAP 2 3 5 0
NOZE 1 1 1 0
NORD 2 1 3 4
U/Memoria 1 2 3 4 5 *6 7 8 9 10
Valor . 0.4 0.5 . 0.625 . . . . .
IROW . 3 1 . 4 . . . . .
NEXT 7 0 0 1 0 4 8 9 10 0
U/Memoria 1 2 3 4
DIAG 0.4 0.5 0.626 0.375
ICAP 2 3 5 0
NOZE 1 1 1 0
NORD 2 1 3 4
U/Memoria 1 2 3 4 5 *6 7 8 9 10
Valor . 0.4 0.5 . 0.625 . . . . .
IROW . 3 1 . 4 . . . . .
NEXT 7 0 0 1 0 4 8 9 10 0
U/Memoria 1 2 3 4
DIAG 0.4 0.5 0.626 2.66
ICAP 2 3 5 0
NOZE 1 1 1 0
NORD 2 1 3 4
calculada. También, resulta evidente que si una nueva matriz teniendo la misma estructura
rala requiere ser Factorizada, los valores de los elementos de los arreglos VALUE y DIAG
pueden ser redefinidos y la factorización repetida utilizando el mismo orden encontrado para
la eliminación durante el proceso de simulación.
Consideremos ahora los principios básicos involucrados en la utilización de la
información almacenada en las tablas anteriores para resolver un conjunto de ecuaciones
lineales simultáneas. Resulta ventajoso formular esta parte del programa como una subrutina
independiente, de tal manera que las ecuaciones puedan ser resueltas para la misma matriz
de coeficientes factorizada pero con diferentes vectores 𝐵.
Ejemplo 1.13:
Para ilustrar estos principios, consideremos la solución de la ecuación matricial
siguiente:
3.0 −1.0 −1.0 . 𝑥1 1
−1.0 2.0 . . 𝑥2
[ . ] [𝑥 ] = [1]
−1.0 2.0 −1.0 3 1
. . −1.0 1.0 𝑥4 1
. . . . . .
𝑥1 1 . 1 1 2⁄5 . 1 . 1 .
1⁄ 1 . . . . . .
𝑥2
[𝑥 ] = [ 2 ][. 1 . . ][. 1 . 1
. . . . 1 5⁄ ] [ . . 1 . ]
3 1 . . . 1 . 8 . .
𝑥4 . . . 1 . . . 1
. .
. 1 . 8⁄3
𝑅1 𝑅2 𝑅3 𝐿4
7
. . 3
1 . 2⁄ . . 1 1⁄2 . . 1 5
. 1 . . 5 .
5 . 1 . . . 1⁄ . . [1] = 3
. . ⁄8 . 2 2 1 13
. . 5 ⁄5 . 1 . . . 1 .
⁄ 1] [ . . . 1] [ . . 1 3
[ 8 . 1]
10
[3]
𝐿3 𝐿2 𝐿1 𝐵 𝑋
Consideremos la multiplicación de 𝐿1 𝐵
Matrices y su Aplicación al Análisis de Sistemas de Potencia 52
A partir del arreglo NORD, el primer elemento seleccionado como pivote fue 𝑎22 ,
luego a partir de DIAG (2), se obtiene:
𝑎22 = 0.5
𝑏2′ = 𝑎22 𝑏2 = 0.5 × 1 = 0.5
𝑏1′ = 𝑏1 + 𝑎12 𝑏2
= 1 + (0.5 × 1) = 1.5
A partir de NEXT (3), se puede determinar que no existen otros elementos no-
nulos fuera de la diagonal principal, y por lo tanto los otros elementos de 𝐵 permanecen
inalterados.
Estos pasos lógicos dan los resultados siguientes:
1 0.5 . . 1 1.5
. . 1
𝐿1 𝐵 = [ .. 0.5
. ] [ ] = [0.5]
1 . 1 1
. . . 1 1 1
𝑎34 = 0.625, y
𝑏3′′ = 𝑏3′ + 𝑎34 𝑏4′ = 1 + (0.625 × 5.3333) = 4.3333 = 13⁄3
El proceso puede, entonces, ser continuado en el orden inverso dado por NORD
hasta que el último factor matricial de la derecha ha sido utilizado y la solución final es
obtenida.
sin tantos cálculos repetitivos innecesarios. Por ejemplo, cuando la solución es requerida para
diferentes vectores independientes, B, la misma matriz factorizada puede ser utilizada.
Similarmente, cuando diferentes soluciones son requeridas con diferentes matrices de
coeficientes teniendo la misma estructura rala, la secuencia original de eliminación
previamente encontrada durante el proceso de simulación puede ser utilizada para todas las
soluciones requeridas.
A partir de esta discusión se puede observar que el problema global debe ser
convenientemente subdividido en diferentes subproblemas, es decir, almacenamiento
compacto, simulación del orden de eliminación, factorización y solución, tal como fue discutido
previamente, lo cual permite alcanzar la suficiente flexibilidad.
Los principios básicos involucrados en las cuatro subproblemas son los siguientes:
a) Almacenamiento Compacto
Esto involucra la obtención de los elementos no-nulos de la matriz de coeficientes a
partir de la información básica de la red y el almacenamiento de ellos en forma
compacta. Ya que solamente los elementos no-nulos son almacenados y no la matriz
completa, es necesario incorporar un esquema de direccionamiento muy eficiente para
localizar e identificar cada elemento, minimizando la memoria adicional requerida.
b) Simulación del Orden de Eliminación
En esta subrutina se establece el orden de eliminación. Utilizando un esquema de
ordenamiento dinámico podemos simular el efecto de la característica rala del sistema
en la eliminación antes de efectuar las operaciones aritméticas. El tiempo extra
empleado en el proceso de simulación resulta de un gran valor ya que una vez
establecido el orden de eliminación, este permanece inmodificable para cualquier
problema teniendo la misma estructura rala. De esta manera, para aquellos problemas
que requieren una solución iterativa, aunque los coeficientes podrían cambiar
numéricamente de una iteración a otra, la estructura rala puede permanecer
inalterada. Para problemas como estos, es solamente necesario factorizar la matriz en
cada iteración, utilizando el orden de eliminación obtenido en el proceso inicial de
simulación.
c) Factorización
En esta subrutina se factoriza la matriz de coeficientes de acuerdo a cualquiera de los
esquemas de factorización considerados previamente utilizando el orden de
eliminación determinado durante el proceso de simulación. Las operaciones son
Matrices y su Aplicación al Análisis de Sistemas de Potencia 55
realizadas solamente utilizando los elementos no-nulos y solamente los elementos no-
nulos de la matriz son almacenados. Para matrices de coeficientes simétricas,
utilizando el método de bi factorización o uno de los métodos de descomposición
triangular, solamente los elementos no-nulos del factor matricial de la izquierda o de
la matriz triangular inferior necesitan ser almacenados, lo cual reduce el requerimiento
de memoria aproximadamente en la mitad.
d) Solución Numérica
Este es el paso final del proceso de cálculo y consiste en la determinación de los
valores numéricos de las variables desconocidas utilizando los factores matriciales y
el vector 𝐵 de la ecuación original. Separando este proceso de los considerados
previamente es posible resolver la ecuación básica para diferentes vectores 𝐵 de una
manera muy sencilla.
Para cada sub problema se ha escrito una subrutina en lenguaje FORTRAN las
cuales son denominadas:
Compactación Compactación
Compactación
(c) Solución Múltiple con Diferentes Matrices de Coeficientes con la misma Estructura
Rala.
Ejemplo 1.14:
b) El método de triangularización LU
Solución:
0.139 −0.083 . 𝑉1 −4
[−0.083 0.246 −0.125] [𝑉2 ] = [−2]
. −0.125 0.188 𝑉3 2
U/Memoria 1 2 3 4 5* 6 7 8 *9 10
Valor -0.083 -0.083 -0.125 -0.125 - - - - . .
IROW 2 1 3 2 - -
NEXT 0 3 0 0 0 0 8 9 10 0
U/Memoria 1 2 3 4
- Se selecciona la columna (1) como la columna pivote. Para ello se inserta el entero (1)
en el arreglo NORD(1), es decir: NORD(1)=1 y la tabla (2) se modifica como se indica
a continuación:
U/Memoria 1 2 3 4
DIAG 0.139 0.246 0.188 -
ICAP 1 2 4 -
NOZE 1 2 1 -
NORD 1 0 0 -
- Modificación de las tablas (1) y (2) para la simulación del proceso de reducción:
- Para la columna (1) como pivote, todos los elementos no-nulos en la fila (1) detectados
por medio del índice IROW, pueden ser eliminados. En este caso, solamente un
elemento es encontrado en la u/memoria (2) de la tabla (1).
- Esta u/memoria, ahora, es libre y puede ser utilizada para almacenar un nuevo
elemento no-cero. De esta manera, el identificador de la primera u/memoria libre es
reubicad a la posición (2).
U/Memoria 1 2* 3 4 5 6 7 8 *9 10
Valor -0.0881 - -0.125 -0.125 - - - - . .
IROW 2 - 3 2 - -
NEXT 0 5 0 0 0 0 8 9 10 0
U/Memoria 1 2 3 4
DIAG 0.139 0.246 0.188 -
ICAP 1 3 4 -
NOZE 1 1 1 -
NORD 1 2 0 -
- El proceso anterior puede ser repetido para eliminar la siguiente fila y columna del
proceso de reducción. En este caso se selecciona la columna (2) como pivote para la
cual se obtiene el índice NOZE(2)=1.
- En este caso todos los elementos no-nulos de la fila (2), pueden ser eliminados. De
acuerdo al índice IROW el elemento IROW(4)=2, perteneciente a la columna (3),
puede ser eliminado, obteniéndose las tablas modificadas (5) y (6) respectivamente,
donde en la tabla (6) el índice NORD(2) pasa a ser (2) y el NORD(3) pasa a ser (3),
definiendo de esta manera el orden de eliminación de las columnas y filas de la matriz
y donde el indicador de la primera u/memoria libre es reubicado a la u/memoria (4).
U/Memoria 1 2 3 4* 5 6 7 8 *9 10
Valor -0.0881 - -0.125 - - - - - . .
IROW 2 - 3 - - -
NEXT 0 5 0 2 0 0 8 9 10 0
U/Memoria 1 2 3 4
DIAG 0.139 0.246 0.188 -
ICAP 1 3 0 -
NOZE 1 1 0 -
NORD 1 2 3 -
1 1
𝑙11 = = = 7.194
𝑎11 0.139
𝑎21 −0.081
𝑙21 = − =− = 0.589
𝑎11 0.139
Matrices y su Aplicación al Análisis de Sistemas de Potencia 60
´
𝑎21 × 𝑎12 0.081 × 0.083
𝑎22 = 𝑎22 − = 0.246 − = 0.1976
𝑎11 0.139
7.194 . . 1 . .
𝑙1 = [0.583 1 . ] 𝐴1 = [ . 0.1976 −0.125]
. . 1 . −0.125 0.188
- A partir de NORD, la primera columna a ser eliminada es la número (1), por lo tanto el
pivote requerido es DIAG(1)=0.139 y el elemento l11 puede ser calculado.
- El elemento l21 del factor matricial puede, ahora, ser calculado. Como NEXT(1)=0, no
existen otros elementos no-ceros fuera de la diagonal principal en la columna (1), de
tal manera que el único elemento afectado es el a22 . Por lo tanto, el nuevo valor a22’
puede ser calculado a partir de:
´
𝑎21 × 𝑎12 0.081 × 0.083
𝑎22 = 𝑎22 − = 0.246 − = 0.1976
𝑎11 0.139
- Para el primer paso de reducción, las tablas modificadas (7) y (8) se muestran a
continuación:
U/Memoria 1 2 3 4* 5 6 7 8 *9 10
Valor 0.583 - -0.125 - - - - - . .
IROW 2 - 3 - - -
NEXT 0 5 0 2 0 0 8 9 10 0
U/Memoria 1 2 3 4
DIAG 7.44 0.1976 0.188 -
ICAP 1 3 0 -
NOZE 1 1 0 -
NORD 1 2 3 -
- A partir del arreglo NORD, la segunda columna a ser eliminada es la columna (2).
𝑎32 −0.125
𝑙32 = − =− = 0.633
𝑎22 0.1976
- Como NEXT(3)=0, no existen otros elementos no-ceros en la columna (2), por lo que
en la matriz reducida el único elemento afectado es el a33 , el cual puede, ahora, ser
calculado a partir de:
´
𝑎32 × 𝑎23 −0.125 × −0.125
𝑎33 = 𝑎33 − = 0.188 − = 0.109
𝑎22 0.1976
U/Memoria 1 2 3 4* 5 6 7 8 *9 10
Valor 0.583 - 0.633 - - - - - . .
IROW 2 - 3 - - -
NEXT 0 5 0 2 0 0 8 9 10 0
U/Memoria 1 2 3 4
DIAG 7.44 5.061 0.109 -
ICAP 1 3 0 -
NOZE 1 1 0 -
NORD 1 2 3 -
1
𝑙33 = = 9.174
0.109
U/Memoria 1 2 3 4
DIAG 7.44 5.061 9.174 -
ICAP 1 3 0 -
NOZE 1 1 0 -
NORD 1 2 3 -
𝑉 = 𝑅1 𝑅2 … . 𝑅 𝑛−1 𝐿𝑛 𝐿𝑛−1 … . 𝐿2 𝐿1 𝐼
1 0.583 . 1 . . 1 . . 1 . . 7.194 . . −4
[. 1 .][. 1 0.633] [ . 1 . ] [ . 5.061 . ] [0.583 1 . ] [−2] =
. . 1 . . 1 . . 9.174 . 0.633 1 . . 1 2
−45.05
[−26.23]
−6.87
- Esta secuencia de multiplicaciones puede ser realizada a partir del último conjunto de
tablas, como se indica a continuación:
- Consideremos la multiplicación de L1xb:
- A partir de NORD, el primer elemento seleccionado como pivote es el a11 .
- A partir de DIAG(2), a11 =7.44 y el nuevo elemento b1´ es determinado a partir de:
b1´=a11 x b1 =7.44x(-4) = -29.76.
- A partir de ICAP(1)=1, el primer elemento no-nulo fuera de la diagonal principal esta
en la u/memoria (1) de la tabla (9), con VALOR(1)=0.583, este elemento pertenece a
la fila (2) y es identificado como el elemento a21. El nuevo elemento b2’ es obtenido a
partir de:
b2’ = b2 +a21xb1 = -2 + 0.583x(-4) = -4.332
- A partir de NEXT(1)=0, se determina que no existen más elementos no-nulos fuera de
la diagonal principal en la columna (1). Por lo tanto, el resto de los elementos del vector
b no cambian.
- Estos pasos lógicos muestran que:
7.194 . . −4 −29.76
L1 x b = [0.583 1 . ] [−2] = [ −4.33 ]
. . 1 2 2
- Este proceso es continuado secuencialmente en el orden dado por NORD, hasta que
todos los factores matriciales de la izquierda han sido utilizados.
- Los mismos principios aplican cuando multiplicamos por R2 y R1, pero como esos
factores no son almacenados explícitamente, es útil considerar los cambios en
identificación. Puede observarse, que no es necesario multiplicar por R3 , debido a que
esta es la matriz unidad.
- Para ilustrar este punto, podemos partir de la multiplicación de:
Matrices y su Aplicación al Análisis de Sistemas de Potencia 63
−29.76
L3 x L2 x L1 x b = b’ = [−21.92]
−6.81
R2 x b’ = b’’
1 . . −29.76 −29.76
[. 1 0.633] [−21.92] = [−26.23]
. . 1 −6.81 −6.81
R2 b’ b’’
técnicas de matrices ralas, para la solución de redes eléctricas en régimen permanente AC,
el cual fue elaborado de acuerdo a los principios de programación previamente estudiados.
a) Subrutina ACDM:
Almacena en forma compacta la matriz de admitancia.
b) Subrutina OODM:
Determina el orden del proceso de eliminación.
c) Subrutina FDM:
Calcula los factores matriciales.
d) Subrutina SSEL:
Obtiene la solución a partir de la transformación R-L.
Ejemplo 1.15
Solución:
a.- Programa MR
U/M 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18
ITAG 1 2 3 4 5 6 1 2 1 4 2 3 3 4 4 5 5 6
LNEXT 8 12 14 16 18 0 2 10 13 0 3 0 4 0 5 0 6 0
LCOL 1 7 11 9 15 17
NESEQ 1 2 3 4 5 6
NOZE 3 3 3 4 3 2
U/M 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18
ITAG 1 2 3 4 5 6 1 2 1 4 2 4 3 4 4 2 5 6
LNEXT 0 0 14 0 0 0 2 12 16 13 3 10 18 0 5 4 6 19
LCOL 1 7 11 9 15 17
NESEQ 6 5 3 4 2 1
NOZE 1 2 3 3 2 2
CE 5.5 -0.5 7.1 -0.4 3.5 -0.4 -0.3 5.2 -0.3 -0.2 5.5 - 0.5 7.8
b.2.- Solución:
𝑌 −1 𝐼 = 𝑉
𝑍𝛼𝛼 𝐼𝛼 = 𝑉𝛼 (1.143)
donde 𝑍𝛼𝛼 es en general una matriz no-diagonal. La solución de la ecuación anterior implica
la inversión de una matriz no-diagonal. Complicaciones similares podrían aparecer en la
solución de sistemas de ecuaciones matriciales diferenciales. Si la ecuación funcional es
transformada a:
Matrices y su Aplicación al Análisis de Sistemas de Potencia 67
′
𝑍𝛼𝛼 𝐼𝛼′ = 𝑉𝛼′ (1.144)
′
De forma que la matriz de impedancias transformada 𝑍𝛼𝛼 , es diagonal, entonces
la solución es simplificada, ya que la inversa de una matriz diagonal podría ser obtenida por
simple inspección. Tal transformación puede ser obtenida definiendo nuevas variables, 𝑉𝛼′ y
𝐼𝛼′ , las cuales estarían relacionadas con las originales por medio de las siguientes ecuaciones:
𝑉𝛼′ = 𝑃𝛼𝛼
−1
𝑍𝛼𝛼 𝑄𝛼𝛼 𝐼𝛼′ = 𝑍𝛼𝛼
′
𝐼𝛼′ = Λ𝛼𝛼 𝐼𝛼′ (1.148)
Donde:
′ −1
𝑍𝛼𝛼 = Λ𝛼𝛼 = 𝑃𝛼𝛼 𝑍𝛼𝛼 𝑄𝛼𝛼 = Matriz Diagonal
Para simplificar la solución de problemas complejos por medio del método de los
valores propios es necesario determinar las matrices de transformación 𝑃𝛼𝛼 y 𝑄𝛼𝛼 , las cuales
permiten obtener la matriz diagonal Λ𝛼𝛼 . A menudo la transformación es realizada con 𝑃𝛼𝛼 y
𝑄𝛼𝛼 iguales a la matriz 𝑀𝛼𝛼 , de tal manera de formular, en lugar de la ecuación(1.148), la
siguiente ecuación:
−1
𝑀𝛼𝛼 𝐴𝛼𝛼 𝑀𝛼𝛼 = Λ𝛼𝛼 (1.149)
Como Λ𝛼𝛼 es una matriz diagonal, se puede considerar una columna a la vez,
entonces para la columna i-ésima , se obtiene:
Dada la matriz cuadrada 𝐴𝛼𝛼 ,determinar los valores del escalar 𝜆 para los cuales
se satisface el siguiente conjunto de ecuaciones lineales:
Puede ser demostrado que el conjunto de ecuaciones mostradas anteriormente tienen una
solución no trivial 𝑉𝛼 si, y solo si, el determinante de los coeficientes es cero, esto es:
Los valores 𝜆𝑖 son llamados los valores propios de la matriz 𝐴𝛼𝛼 y los
correspondientes vectores 𝑉𝛼𝑖 son denominados los vectores propios de la derecha. La matriz
construida por los vectores propios, 𝑀𝛼𝛼 , es denominada la matriz Modal.
Como los valores propios de la matriz 𝐴𝛼𝛼 y su transpuesta 𝐴𝛼𝛼 𝑡 son idénticos,
para cada valor propio 𝜆𝑖 asociado con un vector propio 𝑉𝛼𝑖 , existe también un vector propio
𝑊𝛼𝑖 de 𝐴𝛼𝛼 𝑡 , tal que se satisface la ecuación:
haciendo transposición:
𝑡 𝑡
(𝑊𝛼𝑖 ) 𝐴𝛼𝛼 = 𝜆𝑖 (𝑊𝛼𝑖 ) (1.156)
los vectores propios 𝑊𝛼𝑖 , son denominados los vectores propios de la izquierda de la matriz
𝐴𝛼𝛼
A partir de la expansión del determinante de (𝐴𝛼𝛼 − 𝜆𝑈𝛼𝛼 ) puede ser visto que:
a.- La suma de los valores propios es igual a la traza de la matriz 𝐴𝛼𝛼 . La traza de una matriz
es la suma de todos los elementos de la diagonal principal
b.- El producto de los valores propios es el valor del determinante de la matriz.
Matrices y su Aplicación al Análisis de Sistemas de Potencia 69
c.- Los valores propios de la matriz transpuesta son iguales a esos de la matriz original.
Ejemplo 1.16
1 −1 1 0 𝑉1 0
([ ]− 𝜆[ ]) [ ] = [ ]
2 4 0 1 𝑉2 0
1− 𝜆 −1 𝑉 0
[ ] [ 1] = [ ]
2 4 − 𝜆 𝑉2 0
1 1
𝑉𝛼1 = 𝑘 1 [ ] 𝑉𝛼2 = 𝑘 2 [ ]
−1 −2
donde 𝑘 1 y 𝑘 2 son factores arbitrarios de escala, en este ejemplo el primer elemento de cada
vector propio ha sido arbitrariamente seleccionado igual a la unidad.
−1
Λ𝛼𝛼 = 𝑀𝛼𝛼 𝐴𝛼𝛼 𝑀𝛼𝛼 (1.156)
−1
𝐴𝛼𝛼 = 𝑀𝛼𝛼 Λ𝛼𝛼 𝑀𝛼𝛼 (1.157)
Por lo tanto:
En general se obtiene:
Ejemplo 1.17:
1 −1 2 . 1 1 2 1
𝐴=[ ] Λ=[ ] 𝑀=[ ] 𝑀 −1 = [ ]
2 4 . 3 −1 −2 −1 −1
Dónde:
𝑌𝛼 = 𝑉𝑒𝑐𝑡𝑜𝑟
𝜆 = 𝑣𝑎𝑙𝑜𝑟 𝑝𝑟𝑜𝑝𝑖𝑜
(𝑃 − 𝜆𝐷)𝑌 = 0 (1.162)
Haciendo:
𝑋 = 𝐷0.5 𝑌 , (1.164)
𝑌 = 𝐷−0.5 𝑋 , (1.165)
𝑃𝑌 = 𝜆𝐷𝑌 (1.166)
(𝐴 − 𝜆𝑈)𝑋 = 0 (1.169)
Donde:
Siendo:
𝑃𝑟𝑐
𝑎𝑟𝑐 = (1.171)
√𝑑𝑟𝑟 √𝑑𝑐𝑐
1.13.5.- NORMALIZACIÓN
𝑡
(𝑘 𝑖 𝑋𝛼𝑖 ) 𝑘 𝑖 𝑋𝛼𝑖 = 1 (1.175)
De donde se obtiene:
1
𝑘𝑖 = (1.176)
√(𝑋 𝑖 )𝑡 (𝑋 𝑖 )
La ecuación de los valores propios de problemas físicos podría ser expresada por
medio de la ecuación característica:
Donde, en general, 𝑃∝∝ es una matriz simétrica y 𝐷𝛼𝛼 es una matriz diagonal. Usualmente es
más conveniente reducir 𝐷𝛼𝛼 a una matriz unidad como se demostró previamente, resultando
en:
Donde:
−0.5 −0.5
𝐴𝛼𝛼 = 𝐷𝛼𝛼 𝑃𝛼𝛼 𝐷𝛼𝛼
0.5
𝑋𝛼 = 𝐷𝛼𝛼 𝑌𝛼
𝑗
(𝐴𝛼𝛼 − 𝜆𝑗 𝑈𝛼𝛼 )𝑉𝛼 = 0 (1.182)
Donde:
𝑉𝛼𝑖 = 𝑘 𝑖 𝑋𝛼𝑖 , es el i-ésimo vector propio o vector propio de la derecha
Haciendo transposición, se obtiene:
𝑡
(𝑉𝛼𝑖 ) (𝐴𝛼𝛼 − 𝜆𝑖 𝑈𝛼𝛼 ) = 0 (1.183)
𝑗 𝑡
(𝑉𝛼 ) (𝐴𝛼𝛼 − 𝜆𝑗 𝑈𝛼𝛼 ) = 0 (1.184)
𝐴𝑡𝛼𝛼 = (𝐷𝛼𝛼
−0.5 −0.5 )𝑡
𝑃∝∝ 𝐷𝛼𝛼 −0.5
= 𝐷𝛼𝛼 −0.5
𝑃∝∝ 𝐷𝛼𝛼 = 𝐴𝛼𝛼 (1.185)
𝑗 𝑡
(𝑉𝛼 ) (𝜆𝑖 − 𝜆𝑗 )𝑉𝛼𝑖 = 0 (1.187)
𝑗 𝑡
(𝑉𝛼 ) 𝑉𝛼𝑖 = 0 (1.188)
𝑗 𝑡
(𝑉𝛼 ) 𝐴𝛼𝛼 𝑉𝛼𝑖 = 0 (1.189)
A partir de las ecuaciones anteriores, para matrices simétricas 𝑃∝∝ y 𝐷∝∝ , y si 𝑀𝛼𝛼 es
normalizada, se obtiene:
Matrices y su Aplicación al Análisis de Sistemas de Potencia 74
𝑡 𝑡 𝑡 −1
𝑀𝛼𝛼 𝑀𝛼𝛼 = 𝑀𝛼𝛼 𝑀𝛼𝛼 = 𝑈𝛼𝛼 𝑦 𝑀𝛼𝛼 = 𝑀𝛼𝛼 = 𝑊𝛼𝛼 (1.190)
En general, no obstante:
𝑡
𝑀𝛼𝛼 ≠ 𝑀𝛼𝛼 (1.191)
𝑗
(𝐴𝛼𝛼 − 𝜆𝑗 𝑈𝛼𝛼 )𝑋𝛼 = 0 (1.194)
𝑗 𝑗
𝑘 𝑗 (𝐴𝛼𝛼 − 𝜆𝑖 𝑈𝛼𝛼 )𝑋𝛼 = 0 (𝐴𝛼𝛼 − 𝜆𝑖 𝑈𝛼𝛼 )𝑘 𝑗 𝑋𝛼 = 0 (1.196)
𝑗
(𝐴𝛼𝛼 − 𝜆𝑖 𝑈𝛼𝛼 )( 𝑘 𝑖 𝑋𝛼𝑖 + 𝑘 𝑗 𝑋𝛼 ) = 0 → (𝐴𝛼𝛼 − 𝜆𝑖 𝑈𝛼𝛼 )𝑌𝛼𝑖 = 0 (1.197)
Donde:
𝑗
𝑌𝛼𝑖 = 𝑘 𝑖 𝑋𝛼𝑖 + 𝑘 𝑗 𝑋𝛼 , es también un vector propio correspondiente a la raíz repetida.
Matrices y su Aplicación al Análisis de Sistemas de Potencia 75
Normalizando:
Es requerido que:
𝑉𝑖𝑡 𝑉𝑖 = 1 (1.200)
𝑉𝑖𝑡 𝑉𝑗 =0 (1.201)
𝑉𝑗𝑡 𝑉𝑗 =1 (1.202)
A partir de (1.202):
1
𝑘𝑖 𝑘𝑗 𝑋𝑗𝑡 𝑋𝑗 = 1 𝑜 𝑋𝑗𝑡 𝑋𝑗 = (1.203)
𝑘𝑗 𝑘𝑗
𝑡
𝑀𝛼𝛼 ≠ 𝑀𝛼𝛼 (1.207)
𝑑(𝑀𝛼𝛼 𝑌𝛼)
= 𝐴𝛼𝛼 𝑀𝛼𝛼 𝑌𝛼 (1.210)
𝑑𝑡
𝑑𝑌𝛼 −1
= 𝑀𝛼𝛼 𝐴𝛼𝛼 𝑀𝛼𝛼 𝑌𝛼 = Λ𝛼𝛼 𝑌𝛼 (1.211)
𝑑𝑡
𝑑𝑦𝑖
𝑑𝑡
= 𝜆𝑖 𝑦𝑖 , 𝑖 = 1,2, … … … . , 𝑛 (1.212)
𝑥(𝑡)1 𝑦(𝑡)1
𝑥(𝑡)2
[ ] = [𝑀1 𝑀2 ⋯ 𝑀𝛼 ] [ 𝑦(𝑡)2 ] (1.215)
⋮ ⋮
𝑥(𝑡)𝛼 𝑦(𝑡)𝛼
−1 𝑡
𝑌𝛼 (𝑡) = 𝑀𝛼𝛼 𝑋𝛼 (𝑡) = 𝑀𝛼𝛼 𝑋𝛼 (𝑡) = 𝑊𝛼𝛼 𝑋𝛼 (𝑡) (1.217)
Para 𝑡 = 0, se obtiene:
𝑡
𝑦𝑖 (0) = 𝑀𝑖 𝑥𝑖 (0) = 𝑐𝑖 (1.218)
DE UN SISTEMA
a.- Un valor propio real corresponde a un modo no oscilatorio. Un valor propio negativo
representa un modo que decae en el tiempo, siendo mayor la velocidad del decaimiento en la
medida en que la magnitud del modo sea mayor. Un valor propio positivo representa una
b.- Los valores propios complejos ocurren en pares conjugados, y cada par corresponde a un
modo oscilatorio.
El escalar ci y el vector propio izquierdo asociado tienen valores complejos tales que los
valores de los elementos de X (t ) en cada instante de tiempo son reales. Así por ejemplo:
e t Sen ( t ) (1.222)
j (1.223)
estado 𝑋 𝑦 𝑌 , donde las variables x1 , x2 ,....., xn son las variables de estado originales las
cuales representan el comportamiento dinámico del sistema. Mientras que las variables
y1 , y2 ,....., yn representan las transformadas de las variables de estado, estando cada una
modo i ésimo es dado por el elemento M ki del vector propio derecho Mi.
Matrices y su Aplicación al Análisis de Sistemas de Potencia 79
(1.225)
donde los coeficientes exponenciales de t representan los cuatro valores propios y los
vectores columna representan los vectores propios derechos. Los valores propios representan
los modos de la respuesta del sistema. Ellos deben estar localizados en el semiplano izquierdo
del plano complejo, si el sistema es estable y los valores propios complejos deben ocurrir en
muestran que en este modo de respuesta no está presente en la variable q , que es cinco
en do i F y es dos veces mayor en q que en i a . Para los valores propios complejos, los
elementos de los vectores propios son complejos. Al igual que para los vectores propios
reales, la magnitud de los términos de los elementos componentes representan la magnitud
Matrices y su Aplicación al Análisis de Sistemas de Potencia 80
relativa de la respuesta de ese modo en las diferentes variables. Mientras que el ángulo da la
fase relativa de este modo de la respuesta en esa variable particular.
Los valores propios y vectores propios son función del sistema propiamente dicho
y no de las condiciones iniciales. Las condiciones iniciales son reflejadas a través de las
constantes, c , o de los vectores propios izquierdo, tal como puede observarse en la ecuación
(1.218).
Así, puede verse que los vectores propios de la derecha muestran la distribución
de los modos de respuesta a través de las variables de estado, mientras que los autovectores
izquierdos reflejan el efecto relativo de las diferentes condiciones iniciales en el modo de la
respuesta.
Considerando la ecuación que define los valores propios y vectores propios, es decir:
𝐴𝑀𝑖 = 𝜆𝑖 𝑀𝑖 (1.226)
Pre multiplicando ambos miembros de la ecuación anterior por 𝑀𝑖𝑡 y observando que 𝑀𝑖𝑡 𝑀𝑖 =
1 y 𝑀𝑖𝑡 (𝐴 − 𝜆𝑖 ) = 0, la ecuación anterior se puede escribir en la forma siguiente:
𝜕𝐴 𝜕𝜆𝑖
𝑀𝑖𝑡 𝑀 = (1.228)
𝜕𝑎𝑘𝑗 𝑖 𝜕𝑎𝑘𝑗
Todos los elementos de 𝜕𝐴⁄𝜕𝑎𝑘𝑗 son cero, a excepción del elemento de la fila k y columna
j , el cual es igual a uno (1). Por lo tanto, se obtiene:
Matrices y su Aplicación al Análisis de Sistemas de Potencia 82
𝜕𝜆𝑖 𝑡
𝑎𝑘𝑗
= 𝑀𝑖𝑘 𝑀𝑗𝑖 (1.229)
Representan el grado en que las variables de estado y los modos están relacionados. Así,
dada la matriz:
𝑃 = [𝑃1 𝑃2 ⋯ 𝑃𝑛 ] (1.230)
𝑡
𝑃1𝑖 𝑀1𝑖 𝑀1𝑖
𝑃2𝑖 𝑡
𝑀2𝑖 𝑀2𝑖
𝑃𝑖 = [ ]= (1.231)
⋮ ⋮
𝑃𝑛𝑖 𝑡
[𝑀𝑛𝑖 𝑀𝑛𝑖 ]
donde:
n n
modo o con cualquier variable de estado
P i 1
ki ó P
k 1
ki es igual a 1.
Matrices y su Aplicación al Análisis de Sistemas de Potencia 83
de estado, A , es decir:
i
Pki (1.232)
akk
REFERENCIAS
1.- Braae, R., Matrix Algebra for Electrical Engineers, Addison-Wesley Publishing
Company, INC, 1963.
2.- Jennngs, A., Matrix Computation for Engineers and Scientists, Jhon Wiley & Sons, Ltd,
1978.
3.- Bouteloup, J., Cálculo de Matrices, Editorial Universitaria de Buenos Aires, 1966.
4.- Gajardo, C., Algebra Lineal I, Facultad de Ingeniería, ULA, 1991.
5.- Brameller, A., Numerical Analysis Notes, UMIST, 1978.
6.- Brameller, A., Allan, R.N. y Hamam, Y.M., Sparsity,Pitman Publishing Limited, 1976.
7.- Pissanetzky, S., Sparse Matrix Technology, Academic Press,1984.
8.- Sato, N. y Tinney, W.F., Techniques for Exploiting The Sparsity of the Network
Admittance Matrix, AIEE Transactions, 944-950, 1963.
9.- Ogboubiri, E.C., Tinney, W. F. y Walker J. W., Sparsity – Directed Decomposition for
Gaussian Elimination on Matrices, IEEE Transactions on Power Apparatus and
Systems, Vol. Pas-89, No. 1, January, 141-150, 1970.
10.- Tinney, W. F. y Walker J, W,, Direct Solutions for Sparse Network Equations by
Optimally Ordered Triangular Factorization, Proc. IEEE, Vol 55, pag 1801- 1809,
November 1967.
11.- Elgerd, O.I., Control Systems Theory, McGraw-Hill, Ltd, 1967.
12.- Anderson, P.M., Agrawal, B.L. y Van Ness, J.E., Subsychronous Resonance in
Power Systems,The Institute of Electrical and Electronics Engineers,INC, 1990.
13.- Kundur, P., Power System Stability and Control, McGraw-Hill, Inc, 1994.
Contenido
CAPITULO I
MATRICES Y SU APLICACIÓN AL ANÁLISIS DE SISTEMAS DE POTENCIA
1.1.- INTRODUCCIÓN…………………………………………………………………………………….…1
Matrices y su Aplicación al Análisis de Sistemas de Potencia 84
REFERENCIAS…………………………………………………………………………………………………88
3
CAPITULO I
MATRICES Y SU APLICACIÓN AL ANÁLISIS DE SISTEMAS DE POTENCIA
1.1.- INTRODUCCIÓN…………………………………………………………………………………………..1
1.2.- ESCALARES Y VECTORES …………………………………………………………………………….1
Matrices y su Aplicación al Análisis de Sistemas de Potencia 86