Sie sind auf Seite 1von 87

CAPITULO I

MATRICES Y SU APLICACIÓN AL ANÁLISIS DE SISTEMAS DE POTENCIA

1.1.- INTRODUCCIÓN

La práctica moderna en ingeniería involucra el análisis de grandes y complejos


problemas. Gran parte del trabajo en este campo puede ser solamente realizado por medio
de la aplicación del algebra matricial. La aplicación de computadores digitales a la solución de
tales problemas requiere la formulación matemática del problema de una manera lógica y
organizada.

Las ecuaciones básicas que describen el comportamiento de una red eléctrica


pueden ser derivadas a partir de las leyes de Ohm y Kirchhoff. La aplicación del algebra
matricial en el análisis de redes permite la formulación y solución de las ecuaciones de redes
de una manera sistemática.

Las notas siguientes tienen como objetivo proveer las herramientas básicas del
algebra matricial comunes en todos los métodos y procedimientos del cálculo numérico,
aplicados a la solución y análisis de los sistemas de potencia.

1.2.- ESCALARES Y VECTORES [1-4]


1.2.1.- OPERACIONES ALGEBRAICAS CON ESCALARES

Las operaciones algebraicas de suma, resta, multiplicación y divisiones, tanto


reales como complejas, se rigen por los siguientes principios o propiedades:

a.- La propiedad Conmutativa.

b.- La propiedad Asociativa.

c.- La propiedad Distributiva.

d.- La existencia de un elemento identidad o unidad.

e.- La existencia del inverso de un elemento.


Matrices y su Aplicación al Análisis de Sistemas de Potencia 2

Si se considera la suma o la adición de números se cumple tanto la propiedad


conmutativa como la asociativa, es decir:

𝑎 + 𝑏 = 𝑏 + 𝑎, 𝑦 (𝑎 + 𝑏) + 𝑐 = 𝑎 + (𝑏 + 𝑐) (1.1)

En este caso, el elemento identidad es cero, el cual cuando es sumado a otro


elemento no produce ningún cambio en este, es decir: 𝑎 + 0 = 𝑎.Para cualquier elemento 𝑎
existe un único elemento aditivo opuesto (inverso) – 𝑎 , tal que 𝑎 + (−𝑎) = 0.

La multiplicación de números es también conmutativa y asociativa. El elemento


identidad es la unidad, y para cada elemento no cero 𝑎 existe un elemento único inverso
(reciproco) 𝑎−1 tal que 𝑎 × 𝑎 −1 = 1.

La propiedad distributiva aplica a la combinación de la suma y la multiplicación. La


multiplicación es distributiva respecto a la suma; así se cumple:

𝑎(𝑏 + 𝑐) = (𝑎𝑏) + (𝑎𝑐) (1.2)

1.2.2.- OPERACIONES ALGEBRAICAS CON VECTORES

Una colección de n números dispuestos en un orden definido es denominada un


vector de dimensión – 𝑛. Un vector puede ser denotado escribiéndolos como una columna de
números o letras dentro de corchetes o como una letra. Así, se tiene:

𝑎1
𝑎2
𝐴=[ . ] (1.3)
.
𝑎𝑛

Donde 𝑎′ 𝑠 representa las componentes o coordenadas del vector y 𝑛 su


dimensión.

Las operaciones algebraicas con vectores se rigen por las siguientes leyes:

a.- La suma de dos vectores de igual dimensión se obtiene sumando las


coordenadas correspondientes, es decir:

𝑎1 𝑏1 𝑎1 + 𝑏1
. . . .. ..
𝐴+𝐵 =[ . ]+[ . ]=[ . ] (1.4)
. .
𝑎𝑛 𝑏𝑛 𝑎𝑛 + 𝑏𝑛

b.- Multiplicación de un Vector por un Escalar


Matrices y su Aplicación al Análisis de Sistemas de Potencia 3

En este caso cada componente del vector es multiplicado por el escalar, es


decir:

𝑎1 𝑘𝑎1
𝑎2 𝑘𝑎2
𝑘𝐴 = 𝑘 [ . ] = . (1.5)
. .
𝑎𝑛 [𝑘𝑎𝑛 ]

Estas operaciones algebraicas tienen las siguientes propiedades:

a.- Asociatividad de la suma vectorial

𝑈 + (𝑉 + 𝑊) = (𝑈 + 𝑉) + 𝑊 (1.6)

b.- Un vector importante es el vector nulo, donde todas sus componentes son
cero y es denotado por 0, tal que:

0+𝑉 =𝑉+0=𝑉 (1.7)

c.- Un único vector opuesto de 𝑉, el – 𝑉, tal que:

𝑉 + (−𝑉) = (−𝑉) + 𝑉 = 0 (1.8)

d.- Conmutatividad de la suma vectorial

𝑉+𝑊 =𝑊+𝑉 (1.9)

c.- La multiplicación de un vector por un escalar es distributiva.

Además si c, d son escalares y V , W son vectores, se obtiene:

(𝑐 + 𝑑)𝑉 = 𝑐𝑉 + 𝑑𝑉 (1.10)

𝑐(𝑉 + 𝑊) = 𝑐𝑉 + 𝑐𝑊 (1.11)

𝑐(𝑑𝑉) = (𝑐𝑑)𝑉 (1.12)

Multiplicación de Vectores

El producto de un vector por otro será definido más tarde.

1.2.3.- COMBINACIÓN LINEAL DE VECTORES

Cuando un número determinado de vectores de cualquier dimensión, son


multiplicados por una constante arbitraria y sumados, la suma resultante es una combinación
lineal de los vectores, tal como se indica a continuación:
Matrices y su Aplicación al Análisis de Sistemas de Potencia 4

𝐵 = 𝑘1 𝐴1 + 𝑘2 𝐴2 + ⋯ … … . . +𝑘𝑚 𝐴𝑚 (1.13)

Si todas las constantes son no-negativas, entonces se refiere a una combinación


lineal positiva.

1.2.4.-INDEPENDENCIA LINEAL DE VECTORES

Un conjunto de vectores 𝐴1 , 𝐴2 , … … … . . , 𝐴𝑚 se dicen que son linealmente


independientes si la ecuación vectorial siguiente:

𝑥1 𝐴1 + 𝑥2 𝐴2 + ⋯ … … . +𝑥𝑚 𝐴𝑚 = 0 (1.14)

Es satisfecha solamente cuando los coeficientes x son cero, de otra manera los
vectores son linealmente dependientes.

Ejemplo 1.1:

Calcular las combinaciones lineales 𝐴 − 𝐵 y 𝐴 + 𝐵 − 2𝐶 , donde:

3 −1 1
0 2 1
𝐴 = [ ], 𝐵 = [ ], 𝐶=[ ] (1.15)
3 1 2
2 0 1

En este caso los vectores dados son linealmente dependientes ya que una
combinación lineal de ellos ( 𝐴 + 𝐵 − 2𝐶) con coeficientes diferentes de cero, es igual al vector
nulo.

Teorema 1:
Dado un conjunto de vectores linealmente dependientes, al menos uno de los
vectores del conjunto puede ser expresado como una combinación lineal de los otros.
Prueba:
Dados 𝐴1 , 𝐴2 , 𝐴3 , 𝐴4 , … … . . , 𝐴𝑚 , un conjunto de vectores linealmente
dependientes. Debido a que los vectores son linealmente dependientes debe existir
un conjunto de números 𝑥1 , 𝑥2 , … … … … … … . , 𝑥𝑚 no todos iguales a cero, tal que:
𝑥1 𝐴1 + 𝑥2 𝐴2 + ⋯ + 𝑥𝑚 𝐴𝑚 = 0 (1.16)

Asumiendo que 𝑥1 ≠ 0, entonces, se obtiene:

𝐴1 = −(𝑥2 /𝑥1 )𝐴2 − (𝑥3 /𝑥1 )𝐴3 − ⋯ − (𝑥𝑚 /𝑥1 )𝐴𝑚 (1.17)

lo cual prueba el teorema.


Matrices y su Aplicación al Análisis de Sistemas de Potencia 5

Igualmente se puede afirmar que si un vector de un conjunto vectorial puede ser


escrito como una combinación lineal de los otros, el conjunto es linealmente dependiente.

1.2.5.- RANGO DE UN CONJUNTO VECTORIAL

El número máximo de vectores linealmente independientes que pueden ser


seleccionados de un conjunto vectorial finito o infinito de dimensión n es denominado el rango
del conjunto vectorial. En este caso, se dice, que el subconjunto vectorial linealmente
independiente representa una base del conjunto vectorial dado. El rango de un conjunto de
vectores nunca puede exceder la dimensión de los vectores del conjunto.

Asumiendo que 𝑉1 , 𝑉2 , … … . , 𝑉𝑟 es una base del conjunto vectorial, entonces los


vectores 𝑉1 , 𝑉2 , … … . , 𝑉𝑟 , 𝐴, donde 𝐴 es un vector del conjunto, deben ser linealmente
dependientes, y por lo tanto, el vector 𝐴 puede ser escrito como una combinación lineal de la
base vectorial, es decir:

𝐴 = 𝑎1 𝑉1 + … … … … … … 𝑎𝑟 𝑉𝑟 (1.18)

Donde los coeficientes 𝑎′ 𝑠 representan las coordenadas del vector 𝐴 en el


sistema de coordenadas formado por los vectores base.

1.2.6.- SISTEMAS DE ECUACIONES LINEALES

A partir de los conceptos introducidos, es posible tratar un conjunto simultáneo de


ecuaciones lineales de una manera organizada y sistemática.

Un conjunto de ecuaciones lineales con 𝑚 incógnitas es generalmente escrito en la forma


siguiente:

𝑎11 𝑥1 + 𝑎12 𝑥2 + … … … + 𝑎1𝑚 𝑥𝑚 = 𝑏1

𝑎21 𝑥1 + 𝑎22 𝑥2 + … … … + 𝑎2𝑚 𝑥𝑚 = 𝑏2 (1.19)

… … … … … … … … … … ..

𝑎𝑛1 𝑥1 + 𝑎𝑛2 𝑥2 + … … … + 𝑎𝑛𝑚 𝑥𝑚 = 𝑏𝑛

La solución del sistema de ecuaciones simultáneas consiste en encontrar


𝑚 𝑛ú𝑚𝑒𝑟𝑜𝑠 ∶ 𝑥1 , … … . . , 𝑥𝑚 tal que las 𝑛 ecuaciones, dadas, sean satisfechas
simultáneamente.

En notación vectorial las ecuaciones pueden ser escritas, de una manera más concisa, como:
Matrices y su Aplicación al Análisis de Sistemas de Potencia 6

𝑥1 𝐴1 + 𝑥2 𝐴2 + … … … + 𝑥𝑚 𝐴𝑚 = 𝐵 (1.20)

En este caso la solución puede ser formulada en la forma siguiente: ¿ Puede el


vector 𝐵 ser expresado como una combinación lineal de los vectores 𝐴1 , 𝐴2 , … … . , 𝐴𝑚 ?

1.3.- MATRICES [1-5]

Una matriz es un arreglo rectangular ordenado de elementos dispuestos en filas y


columnas y representados por símbolos convenientes. Así, un arreglo consistente de
𝑛 𝑓𝑖𝑙𝑎𝑠 𝑦 𝑚 𝑐𝑜𝑙𝑢𝑚𝑛𝑎𝑠 es denominado la matriz de dimensión 𝑛 × 𝑚 y es denotado por
𝑎𝑖𝑗 (𝑖 = 1, … . , 𝑛; 𝑗 = 1, … . . , 𝑚) en notación kernel, o simplemente 𝐴 en notación directa. Los
elementos de una matriz pueden ser números reales o complejos o matrices. A continuación
se dan algunos ejemplos de matrices:

𝑎11 𝑎12 ⋯ 𝑎1𝑛


𝑎21 𝑎22 ⋯ 𝑎2𝑛
𝐴 = (𝑎𝑗𝑖 ) = ⋮ ⋮ ⋮ ⋮ (1.21)
⋮ ⋮ ⋮ ⋮
[𝑎𝑚1 𝑎𝑚2 ⋯ 𝑎𝑚𝑛 ]

1 + 3𝑗 6 3 𝐶𝑜𝑠𝜃 𝑆𝑖𝑛𝜃
𝐴=[ 5 2 − 5𝑗 2 ] 𝐵 = [ 𝑆𝑖𝑛𝜃 𝑇𝑎𝑛𝜃 ]
7 2 7 + 9𝑗 𝑆𝑒𝑐𝜃 𝐶𝑜𝑠𝜃

𝑥
𝐶 = [𝑦] 𝐷 = [2 8 3 5]
𝑧

Una matriz opera sobre un vector como sigue:

𝑎11 𝑎12 ⋯ 𝑎1𝑛 𝑥1 𝑎11 𝑥1 + 𝑎12 𝑥2 + ⋯ + 𝑎1𝑛 𝑥𝑛


𝑎21 𝑎22 ⋯ 𝑎2𝑛 𝑥2 𝑎21 𝑥1 + 𝑎22 𝑥2 + ⋯ + 𝑎2𝑛 𝑥𝑛
⋮ ⋮ ⋮ ⋮ ⋮ = ⋮ (1.22)
⋮ ⋮ ⋮ ⋮ ⋮ ⋮
[𝑎𝑚1 𝑎𝑚2 ⋯ 𝑎𝑚𝑛 ] [𝑥𝑛 ] [𝑎𝑚1 𝑥1 + 𝑎𝑚2 𝑥2 + ⋯ + 𝑎𝑚𝑛 𝑥𝑛 ]

En forma compacta:

[𝑎𝑖𝑗 ][𝑥𝑗 ] = [𝑦𝑖 ] 𝑜 𝑏𝑖𝑒𝑛 𝐴𝑋 = 𝑌 (1.23)

1.3.1.- OPERACIONES MATRICIALES

Sea 𝑀𝑚𝑥𝑛 el conjunto de todas las matrices mxn, sobre el cual se define:

a.- (𝑎𝑖𝑗 ) = (𝑏𝑖𝑗 ) 𝑠𝑖 𝑎𝑖𝑗 = 𝑏𝑖𝑗 𝑝𝑎𝑟𝑎 𝑐𝑎𝑑𝑎 𝑖, 𝑗 (1.24)

b.- (𝑎𝑖𝑗 ) + (𝑏𝑖𝑗 ) = (𝑎𝑖𝑗 + 𝑏𝑖𝑗 ) (1.25)


Matrices y su Aplicación al Análisis de Sistemas de Potencia 7

c.- 𝑐(𝑏𝑖𝑗 ) = (𝑐𝑏𝑖𝑗 ) , 𝑐 𝑒𝑠𝑐𝑎𝑙𝑎𝑟 (1.26)

d.- Si 𝐴 = (𝑎𝑖𝑗 ) 𝑦 𝐵 = (𝑏𝑖𝑗 ) (1.27)


𝑚𝑥𝑛 𝑛𝑥𝑝

Entonces el producto 𝐴𝐵 𝑒𝑠 𝑢𝑛𝑎 𝑚𝑎𝑡𝑟𝑖𝑧 𝐶 = 𝐴𝐵 = (𝑐𝑖𝑗 ) (1.28)


𝑚𝑥𝑝

Donde:

𝑐𝑖𝑗=∑𝑚
𝑘=1 𝑎𝑖𝑘 𝑏𝑘𝑗
(1.29)

Es de notar que este producto solo es posible cuando el número de columnas de


la primera matriz coincide con el número de filas de la segunda.

Por ejemplo, si 𝐴3𝑥4 𝑦 𝐵4𝑥2 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 (𝐴𝐵)3𝑥2 , 𝑝𝑒𝑟𝑜 𝐵𝐴 ni siquiera puede ser
planteada.

Por otra parte, si 𝐴3𝑥2 𝑦 𝐵2𝑥3 , 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 (𝐴𝐵)3𝑥3 (𝐵𝐴)2𝑥2 . Sin embargo, aun
cuando ambas existan, es claro que, en general,

𝐴𝐵 ≠ 𝐵𝐴 (1.30)

Ejemplo 1.1

−1 3
1 0 5 4 −1 32
2 4
[−1 0 2 3] [ ] = [ 1 10]
0 5
4 3 1 2 2 31
0 1

Ejemplo 1.2

Sean las matrices siguientes:

0 1 0 1 2 0
𝐴=[ ] 𝐵=[ ] 𝐶=[ ]
0 0 0 1 0 1

0 1 0 0 0 1
𝐴𝐵 = [ ] 𝐵𝐴 = [ ] 𝐴𝐶 = [ ]
0 0 0 0 0 0

En este ejemplo se observa que:

- 𝐴𝐵 ≠ 𝐵𝐴, aun cuando ambas matrices son del mismo orden 2x2.

0 0
- 𝐵𝐴 = [ ] no implica que 𝐵 𝑜 𝐴 son matrices nulas.
0 0

- 𝐴𝐵 = 𝐴𝐶 , no implica que 𝐵 𝑠𝑒𝑎 𝑖𝑔𝑢𝑎𝑙 𝑎 𝐶.


Matrices y su Aplicación al Análisis de Sistemas de Potencia 8

e.- La única identidad es la matriz 𝐼𝑛 = 𝐼 cuya diagonal principal es 𝑎𝑖𝑖 =1

𝑦 𝑎𝑖𝑗 = 0 𝑠𝑖 𝑖 ≠ 𝑗 .

Ejemplo 1.3

Con las matrices del ejemplo anterior, se observa que:𝐴𝐵 = 𝐴𝐶 = 𝐴 , pero 𝐵 ≠


𝐼 ≠ 𝐶. No obstante, la matriz identidad es la única tal que:

𝐴𝐼 = 𝐼𝐴 = 𝐴 (1.31)

f.- Si 𝐴 y 𝐵 existen y se cumple:

𝐴𝐵 = 𝐵𝐴 = 𝐼𝑛 (1.32)

Se dice que 𝐵 es la inversa de 𝐴 y se escribe:

𝐵 = 𝐴−1 (1.33)

Se puede afirmar que si 𝐵 es la inversa de 𝐴, 𝐴 es la inversa de 𝐵. Las matrices


que poseen inversa se les llama matrices regulares o no singulares. En caso contrario, se les
llama singulares.

Una matriz 𝐴 es regular si sus columnas son linealmente independientes.

Ejemplo 1.4

Dadas las matrices:

1 2 2 4
𝐴=[ ] y 𝐵=[ ]
−1 1 −1 −2

Se puede verificar que la matriz 𝐴 es regular y que 𝐵 es singular.

g.- Dada la matriz 𝐴𝑛𝑥𝑛 , entonces si 𝐴 es regular, entonces 𝐴−1 es única y

𝐴 = (𝐴−1 )−1 (1.34)

h.- Si 𝐴 𝑦 𝐵 son matrices regulares, entonces (𝐴𝐵) es regular y

(𝐴𝐵)−1 = 𝐵−1 𝐴−1 (1.35)

1.3.2.- LA MATRIZ TRANSPUESTA

Dada 𝐴 = (𝑎𝑖𝑗 )𝑚𝑥𝑛 , se llama matriz transpuesta de 𝐴 a la matriz:


Matrices y su Aplicación al Análisis de Sistemas de Potencia 9

𝐴𝑡 = (𝑎𝑖𝑗 )𝑡𝑚𝑥𝑛 = (𝑎𝑗𝑖 )𝑛𝑥𝑚 (1.36)

Si 𝐴 𝑦 𝐵 son matrices, las siguientes operaciones están bien definidas:

a.- (𝐴𝑡 )𝑡 = 𝐴

b.- (𝑘𝐴)𝑡 = 𝑘𝐴𝑡 , k escalar

c.- (𝐴 + 𝐵)𝑡 = 𝐴𝑡 + 𝐵 𝑡

d.- (𝐴𝐵)𝑡 = 𝐵 𝑡 𝐴𝑡

1.3.3.- LA TRAZA DE UNA MATRIZ

Para matrices cuadradas 𝐴𝑛𝑥𝑛 se define la traza de 𝐴 como:

𝑡𝑟(𝐴) = ∑ 𝑎𝑖𝑖 (1.37)


𝑖=1

Puede observarse que la traza de una matriz cuadrada es la sab)umatoria de los


elementos de la diagonal. Además, si 𝐴 𝑦 𝐵 son matrices cuadradas, también se cumple:

𝑡𝑟(𝐴𝐵) = 𝑡𝑟(𝐵𝐴) (1.38)

1.3.4.- DETERMINANTES

El determinante de una matriz es una cantidad escalar asociada con cualquier


matriz cuadrada. Este es denotado por det(𝐴) 𝑜 |𝐴| . El determinante de una matriz 𝑛 × 𝑛
se dice que es de orden n.

- DETERMINANTE DE ORDEN 2

Con cada matriz 𝐴 de orden 2 se asocia un único número real, llamado


determinante de 𝐴, que se designa por det(𝐴) o por |𝐴| y se define como sigue:

𝑎11 𝑎12
det(𝐴) = |𝑎 𝑎22 | = 𝑎11 𝑎22 − 𝑎12 𝑎21 (1.39)
21

Ejemplo 1.5
3 −4
det(𝐴) = | | = 3(−5) − (−4)2 = (−7)
2 −5

- DETERMINANTE DE ORDEN 3

El determinante de la matriz 𝐴, 3x3 , dada a continuación:


Matrices y su Aplicación al Análisis de Sistemas de Potencia 10

𝑎11 𝑎12 𝑎13


𝐴 = [𝑎21 𝑎22 𝑎23 ] (1.40)
𝑎31 𝑎32 𝑎33
𝑎11 𝑎12 𝑎13
det(𝐴) = |𝑎21 𝑎22 𝑎23 | = 𝑎11 𝑎22 𝑎33 + 𝑎12 𝑎23 𝑎31 + 𝑎13 𝑎21 𝑎32 -
𝑎31 𝑎32 𝑎33

−𝑎13 𝑎22 𝑎31 − 𝑎12 𝑎21 𝑎33 − 𝑎11 𝑎23 𝑎32 (1.41)

Corresponde al desarrollo según la primera fila, se puede verificar que cualquiera


sea el desarrollo, se obtiene siempre la expresión (1.41).

Esta expansión particular puede ser fácilmente memorizada a partir del método
siguiente. La primera y segunda columna son repetidas después de la tercera columna, tal
como se indica a continuación, y los productos a lo largo de la línea llena (a trazos) son
tomados con signo positivos (negativos).

𝑎11 𝑎12 𝑎13 𝑎11 𝑎12

𝑎21 𝑎22 𝑎23 𝑎21 𝑎22

𝑎31 𝑎32 𝑎33 𝑎31 𝑎32

Figura No. 1.1


Procedimiento de Cálculo del Determinante de una Matriz de Orden 3x3

Debe observarse que este método no es válido para determinantes de orden


superior.

- DETERMINANTE DE ORDEN SUPERIOR

Sea 𝐴 = (𝑎𝑖𝑗 ) una matriz cuadrada de orden n.

Se llama menor del elemento 𝑎𝑖𝑗 de 𝐴, el determinante de la sub matriz 𝑀𝑖𝑗 , de


orden (n-1), obtenida a partir de 𝐴 omitiendo tanto la fila i como la columna j.

El menor |𝑀𝑖𝑗 |, acompañado del signo (−1)𝑖+𝑗 , recibe el nombre de cofactor del
elemento 𝑎𝑖𝑗 , se designa por 𝑐𝑖𝑗 y se escribe:
Matrices y su Aplicación al Análisis de Sistemas de Potencia 11

𝐶𝑖𝑗 = (−1)𝑖+𝑗 |𝑀𝑖𝑗 | (1.42)

El determinante de una matriz 𝐴 = (𝑎𝑖𝑗 ) es igual a la suma de los productos


𝑛𝑥𝑛

obtenidos de multiplicar los elementos de cualquier fila (o columna) por sus respectivos
cofactores. Así, se obtiene:

|𝐴| = 𝑎𝑖1 𝑐𝑖1 + 𝑎𝑖2 𝑐𝑖2 + 𝑎𝑖3 𝑐𝑖3 + ⋯ + 𝑎𝑖𝑛 𝑐𝑖𝑛 (1.43)

|𝐴| = 𝑎1𝑗 𝑐1𝑗 + 𝑎2𝑗 𝑐2𝑗 + 𝑎3𝑗 𝑐3𝑗 + ⋯ + 𝑎𝑛𝑗 𝑐𝑛𝑗 (1.44)

Corresponden a los llamados desarrollos de Laplace, según la i-ésima fila y según la j-ésima
columna, respectivamente. Lo realmente notable de los desarrollos de Laplace es que
cualquiera sea la fila o columna elegida para el desarrollo el número det(𝐴) = |𝐴|, es siempre
el mismo.

1.3.4.1.- DETERMINANTE COMO UNA FUNCIÓN

Si 𝐴 es una matriz y k es un escalar las matrices designadas por


𝐴𝑖𝑗 , 𝐴𝑖 (𝑘) 𝑦 𝐴𝑖𝑗 (𝑘) , se obtienen efectuando sobre las filas i y j de 𝐴, las operaciones
elementales fila que siguen:

a.- 𝐴𝑖𝑗 , intercambia la fila i por la fila j.

b.- 𝐴𝑖 (𝑘) , multiplica la fila i por el escalar k.

c.- 𝐴𝑖𝑗 (𝑘) , agrega a la fila i, k veces la fila j.

Las propiedades que caracterizan a la función determinante pueden resumirse


como sigue:

a.- El determinante de la matriz identidad 𝐼𝑛 , es uno.

det(𝐼𝑛 ) = 1

b.- El determinante de un producto de matrices de un mismo orden, es igual

al producto de los determinantes.

det(𝐴𝐵) = det(𝐴) det(𝐵) , para todo 𝐴 y 𝐵

c.- El determinante de una matriz y su transpuesta, son iguales.

det(𝐴𝑡 ) = det(𝐴)
Matrices y su Aplicación al Análisis de Sistemas de Potencia 12

d.- El determinante de la matriz que resulta de intercambiar dos filas

cualquiera de 𝐴, es − det(𝐴).

𝑑𝑒𝑡(𝐴𝑖𝑗 ) = −det(𝐴), para 𝑖 ≠ 𝑗 enteros entre 1 y n.

e.- El determinante de la matriz que resulta de multiplicar una fila cualquiera

de 𝐴 por un escalar k , es k veces el det(𝐴).

det(𝐴𝑖 (𝑘)) = 𝑘𝑑𝑒𝑡(𝐴), para i entero entre 1 y n.

f.- El determinante que resulta de de agregar a una fila de 𝐴 un múltiplo de

otra fila de 𝐴, es igual a 𝑑𝑒𝑡(𝐴).

det (𝐴𝑖𝑗 (𝐾)) = det(𝐴), para 𝑖 ≠ 𝑗 enteros entre 1 y n; k real.

g.- El determinante de una matriz que posee dos filas idénticas, es cero.

h.- El determinante que posee una fila de ceros es cero.

i.- La suma de los productos de los elementos de una fila por los cofactores de

elementos correspondientes a otra fila es igual a cero, si 𝑖 ≠ 𝑗, entonces:

𝑎𝑖1 𝑐𝑗1 + 𝑎𝑖2 𝑐𝑗2 + 𝑎𝑖3 𝑐𝑗3 + ⋯ + 𝑎𝑖𝑛 𝑐𝑗𝑛 = 0

𝑎1𝑖 𝑐1𝑗 + 𝑎2𝑖 𝑐2𝑗 + 𝑎3𝑖 𝑐3𝑗 + ⋯ + 𝑎𝑛𝑖 𝑐𝑛𝑗 = 0 (1.45)

1.3.5.- MATRIZ ADJUNTA

Se llama matriz adjunta, 𝐴𝑎𝑑𝑗 , de la matriz 𝐴, a la matriz resultante al transponer


la matriz obtenida al remplazar cada elemento de la matriz por su respectivo cofactor.

Así, dada la matriz 𝐴:

𝑎11 ⋯ 𝑎1𝑛
𝐴=[ ⋮ ⋱ ⋮ ] (1.46)
𝑎𝑛1 ⋯ 𝑎𝑛𝑛

La matriz adjunta es representada por:

𝑐11 ⋯ 𝑐𝑛1
𝐴𝑎𝑑𝑗 = 𝑐 𝑡 = [ ⋮ ⋱ ⋮ ] (1.47)
𝑐1𝑛 ⋯ 𝑐𝑛𝑛

Donde:
Matrices y su Aplicación al Análisis de Sistemas de Potencia 13

𝑐𝑖𝑗 = 𝐶𝑜𝑓𝑎𝑐𝑡𝑜𝑟 𝑑𝑒𝑙 𝑒𝑙𝑒𝑚𝑒𝑛𝑡𝑜 𝑎𝑖𝑗

1.3.6.- DETERMINACIÓN DEL RANGO DE UNA MATRIZ

El rango de una matriz puede ser determinado a partir de:

a.- Una matriz 𝑛 × 𝑛 es de rango 𝑛, cuando y solamente su determinante es diferente de cero.

b.- Una matriz 𝑛 × 𝑚 es de rango 𝑟 si esta contiene al menos un subdeterminante de orden 𝑟


diferente de cero y ningún Subdeterminantes de orden superior diferente de cero.

1.3.7.- LA MATRIZ INVERSA

La matriz inversa derecha de una matriz cuadrada 𝐴, es definida como la matriz


𝑋, la cual satisface la ecuación siguiente:

𝐴𝑋 = 𝐼 (1.48)

Sea 𝐴 = (𝑎𝑖𝑗 ) una matriz cuadrada de orden n y 𝑐𝑖𝑗 el cofactor correspondiente al


elemento 𝑎𝑖𝑗 , la matriz:

𝑐11 𝑐12 ⋯ 𝑐1𝑛


𝑐11 𝑐11 ⋯ 𝑐11
𝐶=[ ⋮ ⋮ ⋮ ⋮ ] (1.49)
𝑐11 𝑐11 ⋯ 𝑐11

es la matriz de los cofactores de 𝐴 y la transpuesta de 𝐶, la adjunta, es decir:

𝑐11 𝑐21 ⋯ 𝑐𝑛1


𝑐12 𝑐22 ⋯ 𝑐𝑛2
𝐴𝑑𝑗(𝐴) = [ ⋮ ⋮ ⋮ ⋮ ] (1.50)
𝑐1𝑛 𝑐2𝑛 ⋯ 𝑐𝑛𝑛

Utilizando el desarrollo de Laplace y la relación dada en la propiedad i anterior, el


producto de 𝐴 por la 𝐴𝑑𝑗(𝐴), toma la forma dada a continuación:

𝑎11 𝑎12 ⋯ 𝑎1𝑛 𝑐11 𝑐21 ⋯ 𝑐𝑛1 |𝐴| 0 ⋯ 0


𝑎21 𝑎22 ⋯ 𝑎2𝑛 𝑐12 𝑐22 ⋯ 𝑐𝑛2 0 |𝐴| ⋯ 0
[ ⋮ ⋮ ⋮ ⋮ ][ ⋮ ⋮ ⋮ ⋮ ]=[ ⋮ ⋮ ⋮ ⋮
] (1.51)
𝑎𝑛1 𝑎𝑛2 ⋯ 𝑐𝑛𝑛 𝑐1𝑛 𝑐2𝑛 ⋯ 𝑐𝑛𝑛 0 0 ⋯ |𝐴|

Es decir:

𝐴 𝐴𝑑𝑗(𝐴) = |𝐴|𝐼𝑛 (1.52)

Donde 𝐼𝑛 es la matriz identidad de orden n. Así, si |𝐴| ≠ 0, entonces:


Matrices y su Aplicación al Análisis de Sistemas de Potencia 14

𝐴(1/|𝐴|) 𝐴𝑑𝑗(𝐴) = 𝐼𝑛 (1.53)

y esto significa que la matriz 𝑋 puede ser obtenida a partir de la expresión siguiente:

𝑐11 ⋯ 𝑐𝑛1
𝑋 = 1⁄det(𝐴) [ ⋮ ⋱ ⋮ ] (1.54)
𝑐1𝑛 ⋯ 𝑐𝑛𝑛

La cual satisface la ecuación 𝐴𝑋 = 𝐼 .

La matriz obtenida es denominada, también, la matriz inversa izquierda de 𝐴. Pre


multiplicando la ecuación (1.48), da:

𝑋(𝐴𝑋) = (𝑋𝐴)𝑋 = 𝑋 (1.55)

La cual, claramente muestra que 𝑋𝐴 = 𝐼.

De lo anterior se desprende que cuando el determinante de una matriz cuadrada


𝐴 es diferente de cero, las ecuaciones 𝐴𝑋 = 𝐼 𝑦 𝑋𝐴 = 𝐼 tienen una solución única, la cual es
denominada la inversa de 𝐴 y es escrita como 𝐴−1 y obtenida por medio de la ecuación 1.54.
Cumpliéndose además que:

det(𝐴−1 ) = 1⁄det(𝐴) (1.56)

Relaciones útiles que cumple la matriz inversa:

a.- La inversa del producto de dos matrices cuadradas semejantes es igual al producto de sus
inversas tomadas en orden inverso. Así, se tiene:

(𝐴𝐵)−1 = 𝐵 −1 𝐴−1 (1.57)

b.- La inversa de la transpuesta de una matriz cuadrada es igual a la transpuesta de la matriz


cuadrada. Así, se tiene:

(𝐴𝑡 )−1 = (𝐴)−1 𝑡 (1.58)

c.- Dada la matriz diagonal siguiente:

𝑎 0 0
𝐴 = [0 𝑏 0] (1.59)
0 0 𝑐

tiene como inversa:


Matrices y su Aplicación al Análisis de Sistemas de Potencia 15

1⁄ 𝑎 0 0
𝐴−1 = [ 0 1 ⁄𝑏 0 ] (1.60)
0 0 1 ⁄𝑐

la expresión puede ser fácilmente generalizada a matrices de mayor orden.

Para calcular la inversa de una matriz, el trabajo debe ser realizado


sistemáticamente, tal como se indica a continuación:

Paso 1. Calcular el determinante de la matriz 𝐴. Si el det(𝐴) = 0 la matriz inversa no existe.

Paso 2. Obtener la transpuesta de la matriz 𝐴 , es decir, 𝐴𝑡

Paso 3. Remplace cada elemento 𝑎𝑟𝑠 de la matriz 𝐴𝑡 por su menor, 𝑀𝑟𝑠 ( 𝑀𝑟𝑠 es el
subdeterminante derivado al eliminar la fila s y la columna r, del det(𝐴𝑡 ) .

Paso 4. Determinar la matriz adjunta, 𝐴𝑎𝑑𝑗 , de la matriz 𝐴, cuyos elementos están constituidos
por los cofactores de los elementos correspondientes de la matriz 𝐴𝑡 , los cuales son iguales
al producto de (−1)𝑖+𝑗 por el determinante de la submatriz que resulta de suprimir la fila rth y
la columna sth.

Paso 5. Finalmente, cada elemento de la adjunta es multiplicada por 1⁄det(𝐴) .

Ejemplo 1.6:

Calcular la inversa de:

2 1 −2
𝐴=[ 0 1 1]
−1 0 0

Paso 1. det(𝐴) = −3, así que la matriz inversa, 𝐴−1 , es definida.

Paso 2. Matriz transpuesta:

2 0 −1
𝐴𝑡 = [ 1 1 0]
−2 1 0

Paso 3. Remplace cada elemento de la matriz transpuesta por su menor.

0 0 3
[1 −2 2]
1 1 2

Paso 4. Multiplicar cada elemento de la matriz de menores por (−1)𝑖+𝑗 para obtener la matriz
adjunta:
Matrices y su Aplicación al Análisis de Sistemas de Potencia 16

0 0 3
𝐴𝑎𝑑𝑗 = [−1 −2 −2]
1 −1 2

Paso 5. Multiplicar la matriz adjunta por1⁄det(𝐴) para obtener la matriz inversa, 𝐴−1 :

1 0 0 −3
𝐴−1 = [−1 −2 −2]
3
1 −1 2

1.3.8.- MATRICES COMPUESTAS

A los fines de simplificar procesos numéricos o para ilustrar alguna estructura


particular de una matriz, algunas veces es útil partir o dividir una matriz en sub matrices.

Esto se realiza dibujando líneas de división o de partición entre ciertas filas y


columnas seleccionadas, por ejemplo:

𝑎11 𝑎12 | 𝑎13


𝐴1 | 𝐴2
𝑎21 𝑎22 | 𝑎23
𝐴 = [− − −− ] = [ − − −] (1.61)
−− |
𝑎31 𝑎32 | 𝑎33 𝐴3 | 𝐴4

La manera en que la partición es realizada es arbitraria hasta donde las sub


matrices tienen números de filas y columnas consistentes con subsecuentes sumas y
multiplicaciones matriciales.

1.3.9.- DIFERENCIACIÓN DE MATRICES

La derivada de una matriz respecto a una variable es encontrada derivando cada


uno de sus elementos respecto a la variable.

Ejemplo 1.7:

Obtener la derivada con respecto a 𝜃, de la matriz dada a continuación:

𝐶𝑜𝑠𝜃 𝑆𝑖𝑛𝜃
𝐴=[ ]
1 0

La derivada con respecto a 𝜃 , es :

𝑑𝐴 −𝑆𝑒𝑛𝜃 𝐶𝑜𝑠𝜃
=[ ]
𝑑𝜃 0 0

En general una matriz puede ser diferenciada respecto a cualquier otra matriz. En
este caso, la matriz resultante se obtiene derivando cada uno de los elementos de la primera
matriz respecto a uno de los elementos de la segunda matriz.
Matrices y su Aplicación al Análisis de Sistemas de Potencia 17

El orden de la matriz resultante es la suma del orden de las dos. Así, se obtiene:

Dado:

𝐴 = [𝑆𝑖𝑛𝜃 𝐶𝑜𝑠𝛿 1] y 𝐵 = [𝜃 𝛿 𝛽] (1.62)

𝜕𝐴 𝐶𝑜𝑠𝜃 0 0
=[ 0 −𝑆𝑒𝑛𝛿 0] (1.63)
𝜕𝐵
0 0 0

En general, se tiene:

𝜕𝐴𝛼 𝜕𝐴𝛼𝛽
= 𝐶𝛼𝛽 𝑦 = 𝐶𝛼𝛽𝛾𝛿 (1.64)
𝜕𝐵𝛽 𝜕𝐵𝛾𝛿

1.3.10.- INTEGRACIÓN DE MATRICES

Una matriz es integrada respecto a una variable, integrando cada uno de sus
componentes respecto a la variable. Esta operación de integración se ilustra en el ejemplo
siguiente:

Dada la siguiente matriz:

𝐴 = [𝑆𝑖𝑛𝜃 𝐶𝑜𝑠𝜃 1] (1.65)

La integral respecto a 𝜃 , es:

∫ 𝐴𝑑𝜃 = [−𝐶𝑜𝑠𝜃 + 𝑎 𝑆𝑖𝑛𝜃 + 𝑏 𝜃 + 𝑐] (1.66)

Igualmente una matriz es integrada respecto a otra matriz, sumando la integral de


cada uno de los elementos de la primera matriz respecto al elemento correspondiente de la
segunda matriz, tal como se ilustra en el ejemplo siguiente:

Dada las siguientes matrices:

𝐴 = [𝑆𝑖𝑛𝜃1 𝐶𝑜𝑠𝜃2 1] 𝑦 𝑑𝜃 = [𝑑𝜃1 𝑑𝜃2 𝑑𝜃3 ] (1.67)

La integral respecto a 𝑑𝜃 , es:

∫ 𝐴𝑑𝜃 = [(−𝐶𝑜𝑠𝜃1 + 𝑎) + (𝑆𝑒𝑛𝜃2 + 𝑏) + (𝜃3 + 𝑐)] (1.68)

1.4.- MATRICES RALAS Y SU APLICACIÓN A LA SOLUCIÓN DE


GRANDES SISTEMAS LINEALES DE ECUACIONES [6-9]
Matrices y su Aplicación al Análisis de Sistemas de Potencia 18

La práctica moderna de la ingeniería requiere la solución de grandes y complejos


problemas, los cuales pueden ser definidos por conjuntos de ecuaciones algebraicas de varias
miles de variables.

El mejor método de solución debe tomar en consideración la simplicidad del


mismo, el número de operaciones aritméticas involucradas y los requerimientos de
almacenamiento. Existen muchos métodos para la solución numérica de ecuaciones lineales
y la selección depende en la naturaleza del problema y en los recursos disponibles para
resolverlas. En general, los métodos pueden ser divididos, principalmente en dos categorías:
directos e iterativos.

Los métodos directos son basados en la manipulación directa de las ecuaciones.


La solución es dada dentro de cierta precisión y es obtenida en un número finito de pasos
aritméticos. En la práctica, no obstante, el método directo cuando se aplica a la solución de
problemas muy grandes, requiere de grandes espacios de almacenamiento en el computador
y tiempos de cálculo muy grandes. Sin embargo, cuando se utilizan técnicas especiales,
conocidas como técnicas de matrices ralas, estos requerimientos pueden ser reducidos
sustancialmente. Los métodos iterativos son basados en la solución de ecuaciones a partir de
aproximaciones sucesivas hasta que los resultados estén dentro de límites aceptables de
precisión. El problema de convergencia es inherente a estos métodos, lo cual podría sugerir
cierta preferencia por los métodos directos. Sin embargo, para matrices que contienen una
gran cantidad de elementos nulos, tal como ocurre en la solución de problemas de redes,
estos métodos requieren en general de menos memoria y tiempo de cálculo menores. No
obstante, aplicando técnicas de matrices ralas a los métodos directos, los requerimientos de
almacenamiento y el tiempo de cálculo pueden de una manera importante ser reducidos al
ser comparados con los requeridos por los métodos iterativos.

1.5.- MÉTODO DIRECTO- MÉTODO DE ELIMINACIÓN DE GAUSS [2],[6]

El conjuntos de ecuaciones simultáneas formuladas en la solución de cualquier


problema podrían ser escritas en la forma matricial siguiente:

𝐴𝑋 = 𝐵 (1.69)

Donde:
Matrices y su Aplicación al Análisis de Sistemas de Potencia 19

𝐴 = 𝑀𝑎𝑡𝑟𝑖𝑧 𝑑𝑒 𝑐𝑜𝑒𝑓𝑖𝑐𝑖𝑒𝑛𝑡𝑒𝑠 𝑛𝑜 − 𝑠𝑖𝑛𝑔𝑢𝑙𝑎𝑟 𝑑𝑒 𝑜𝑟𝑑𝑒𝑛 𝑛 × 𝑛

𝑥 = 𝑉𝑒𝑐𝑡𝑜𝑟 𝑑𝑒 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑠 𝑖𝑛𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒𝑠

𝑏 = 𝑉𝑒𝑐𝑡𝑜𝑟 𝑑𝑒 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑠 𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒𝑠

𝑛 = 𝑁ú𝑚𝑒𝑟𝑜 𝑑𝑒 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑠 𝑜 𝑒𝑐𝑢𝑎𝑐𝑖𝑜𝑛𝑒𝑠

La ecuación (1.69) puede resolverse por inversión directa de la matriz de


coeficientes, obteniéndose la ecuación siguiente:

𝑋 = 𝐴−1 𝐵 (1.70)

No obstante este método directo requiere 𝑛3 operaciones aritméticas, aunque la


matriz 𝐴 podría ser rala, su inversa, 𝐴−1 , podría ser completamente llena, esto es, el número
de elementos a ser almacenados sería 𝑛2 . Por lo tanto, para redes ralas muy grandes este
método es muy ineficiente y es justificado solamente si la matriz inversa es requerida para
otro propósito.

El método de eliminación de Gauss es uno de los más eficientes. Este es un


método sistemático basado en técnicas generales para resolver sistemas de ecuaciones
manualmente. Este método consiste en eliminar una variable cada vez, hasta obtener una
sola ecuación en una sola variable. Resolviendo para esta variable desconocida y luego por
sustituciones hacia atrás se obtienen las soluciones del resto de las incógnitas.

El método puede ser ilustrado por medio del ejemplo siguiente:

𝑎11 𝑥1 + 𝑎12 𝑥2 + … … … + 𝑎1𝑛 𝑥𝑛 = 𝑏1


𝑎21 𝑥1 + 𝑎22 𝑥2 + … … … + 𝑎2𝑛 𝑥𝑛 = 𝑏2
. .… … … … … … … … … … .. (1.71)

𝑎𝑛1 𝑥1 + 𝑎𝑛2 𝑥2 + … … … + 𝑎𝑛𝑛 𝑥𝑛 = 𝑏𝑛

La cual puede ser escrita en forma matricial como:

𝑎11 𝑎12 … … 𝑎1𝑛 𝑥1 𝑏1


𝑎21 𝑎22 … . . 𝑎2𝑛 𝑥2 𝑏2
[ ][ ⋮ ] = [ ] (1.72)
⋮ ⋮ ⋮ ⋮ ⋮
𝑎𝑛1 𝑎𝑛2 ….. 𝑎𝑛𝑛 𝑥𝑛 𝑏𝑛

Para comenzar el proceso de eliminación se selecciona una ecuación, definida


como la ecuación pivote, y en esta ecuación se selecciona la variable a ser eliminada. El
Matrices y su Aplicación al Análisis de Sistemas de Potencia 20

coeficiente de esta variable es denominado el pivote. El mayor coeficiente en la ecuación es


el mejor para ser seleccionado como pivote ya que este produce la mayor precisión numérica
al utilizar computadores digitales. Sin embargo, en el procedimiento a ser descrito a
continuación, el coeficiente del elemento de la diagonal principal de la ecuación pivote
considerada es siempre seleccionado como el pivote ya de esta manera se puede desarrollar
un procedimiento de eliminación sistemático muy eficiente. Para la mayoría de aplicaciones
en problemas de ingeniería esta selección es suficientemente precisa.

Para eliminar la variable 𝑥1 de las ecuaciones (1.712) hasta la ecuación (1.71n), se


multiplica la ecuación (1.711) por 𝑎21 ⁄𝑎11 , 𝑎31 ⁄𝑎11 ,……….. , 𝑎𝑛1 ⁄𝑎11 respectivamente y luego
la ecuación resultante se sustrae de cada una de las ecuaciones, de esta manera todos los
coeficientes de la variable 𝑥1 de los elementos por debajo del pivote son reducidos a cero, sin
perder cualquier información acerca de la interrelación de las variables. De esta manera, se
obtiene el siguiente sistema de ecuaciones:

𝑎11 𝑥1 + 𝑎12 𝑥2 + … … … + 𝑎1𝑛 𝑥𝑛 = 𝑏1

0 + 𝑎122 𝑥2 + … … … + 𝑎12𝑛 𝑥𝑛 = 𝑏21

… … … … … … … … … … .. (1.72)

0 + 𝑎1𝑛2 𝑥2 + … … … + 𝑎1𝑛𝑛 𝑥𝑛 = 𝑏𝑛1


Donde:
𝑎21 𝑎12 𝑎21 𝑎1𝑛 𝑎21 𝑏1
𝑎122 = 𝑎22 − , … … … . , 𝑎12𝑛 = 𝑎2𝑛 − , 𝑏21 = 𝑏2 −
𝑎11 𝑎11 𝑎11

𝑎31 𝑎12 𝑎31 𝑎1𝑛 𝑎31 𝑏1


𝑎132 = 𝑎32 − , … … … . , 𝑎13𝑛 = 𝑎3𝑛 − , 𝑏31 = 𝑏3 −
𝑎11 𝑎11 𝑎11

… … … … … … … … …. …. … (1.73)

𝑎𝑛1 𝑎12 𝑎𝑛1 𝑎1𝑛 𝑎𝑛1 𝑏1


𝑎1𝑛2 = 𝑎𝑛2 − , … … … . , 𝑎1𝑛𝑛 = 𝑎𝑛𝑛 − , 𝑏𝑛1 = 𝑏𝑛 −
𝑎11 𝑎11 𝑎11

Continuando este proceso, todos los coeficientes de las variables por debajo de
la diagonal principal, es decir, de los pivotes pueden ser reducidos a cero, obteniéndose
finalmente el siguiente sistema de ecuaciones:

𝑎11 𝑥1 + 𝑎12 𝑥2 + … … … + 𝑎1𝑛 𝑥𝑛 = 𝑏1

0 + 𝑎122 𝑥2 + … … … + 𝑎12𝑛 𝑥𝑛 = 𝑏21


Matrices y su Aplicación al Análisis de Sistemas de Potencia 21

2
0 + 0 + … … … + 𝑎3𝑛 𝑥𝑛 = 𝑏32 (1.74)

… … … … … … … … … … ..

𝑛
0 + 0 + … … … + 𝑎𝑛𝑛 𝑥𝑛 = 𝑏𝑛𝑛

Donde, en general:

𝑘−1 𝑘−1
𝑘 𝑘−1
𝑎𝑖𝑘 𝑎𝑘𝑗 𝑏𝑖𝑘−1 𝑎𝑖𝑘
𝑘−1
𝑎𝑖𝑗 = 𝑎𝑖𝑗 − 𝑘−1 , … … … … . , 𝑏𝑖𝑘 = 𝑏𝑖𝑘−1 − 𝑘−1 (1.75)
𝑎𝑘𝑘 𝑎𝑘𝑘

El efecto de este proceso de eliminación es la triangularización de la matriz original


de coeficientes en la forma de matriz triangular superior. Después de finalizado el proceso de
triangularización, las incógnitas o las variables desconocidas pueden ser obtenidas a partir de
un proceso de sustitución hacia atrás, tal como se indica a continuación:

𝑏𝑛
𝑋𝑛 = (1.76)
𝑎𝑛𝑛

𝑏𝑛−1 − 𝑎𝑛−1,𝑛 𝑋𝑛
𝑋𝑛−1 = (1.77)
𝑎𝑛−1,𝑛−1

En general, se obtiene:

𝑛
1
𝑋𝑘 = (𝑏𝑘 − ∑ 𝑎𝑘𝑛 𝑋𝑛 ) 𝑘 = 𝑛, 𝑛 − 1, … … … . ,1 (1.78)
𝑎𝑘𝑘
𝑛=𝑘+1

El proceso de eliminación se puede resumir de la forma siguiente: Durante el paso


𝑘, el proceso comienza en la ecuación 𝐴𝑘−1 𝑋 = 𝐵 𝑘−1 , La primera (𝑘) de las ecuaciones ,
actualmente triangularizada, permanece inalterada. Esta ecuación es multiplicada por
𝐴𝑘−1 𝑘−1
𝑛𝑘 ⁄𝐴𝑘𝑘 y luego es sustraída de la ecuación ith, para 𝑖 = 𝑘 + 1, 𝑘 + 2, … … … … , 𝑛.
Después de (𝑛 − 1) pasos, se obtiene la ecuación equivalente:

𝐴𝑛−1 𝑋 = 𝐵𝑛−1 (1.79)

Donde 𝐴𝑛−1 es la matriz triangular superior.

Ejemplo 1.8:
Resolver la siguiente ecuación matricial, mediante el método de eliminación de
Gauss:
Matrices y su Aplicación al Análisis de Sistemas de Potencia 22

2 3 −1 𝑥1 5
[−4 6 8 ] [𝑥2 ] = [7]
10 12 14 𝑥3 9

Solución:

- Paso 1:
2 ⋮ 3 ⋮ −1 5
… ⋮ ………………… ⋮ ………………… 𝑥1 …………
0 ⋮ 6 − (−2)(3) ⋮ 8 − (−2)(−1) [𝑥2 ] = 7 − (−2)(5)
… ⋮ … … … … … … … ⋮ … … … … … … … 𝑥3 …………
[0 ⋮ 12 − (5)(3) ⋮ 14 − (5)(−1) ] [ 9 − (5)(5) ]

2 ⋮ 3 ⋮ −1 5
… ⋮ ………………… ⋮ ………………… 𝑥1
…………
0 ⋮ 12 ⋮ 6 [𝑥2 ] = [ 17 ]
… ⋮ ………………… ⋮ … … … … … … … 𝑥3 …………
[0 ⋮ −3 ⋮ 19 ] −16

- Paso 2:

2 ⋮ 3 ⋮ −1 5
… ⋮ ………………… ⋮ ………………… 𝑥1
…………
0 ⋮ 12 ⋮ 6 𝑥
[ 2] =
… ⋮ ………………… ⋮ ………………… 𝑥3 … …17… …
[0 ⋮ 0 ⋮ 19 − (−0.25)(6)] [−16 − (−0.25)(17)]

- Resultado de la triangularización:

2 3 −1 𝑥1 5
[0 12 6 ] [𝑥2 ] = [ 17 ]
0 0 20.5 𝑥3 −11.75

- Solución por sustitución sucesiva hacia atrás:

11.75
𝑥3 = − = −0.5732
20.5

[17 − 6(−11.75⁄20.5)]
𝑥2 = = 1.69
12

3[17 − 6(−11.75⁄20.5)] (−11.75)


𝑥1 = [5 − − ]⁄2 = −.3415
12 20.5

1.6.- INVERSIÓN DE MATRICES [2],[6]

Existen algunas situaciones donde resulta más conveniente utilizar técnicas de


inversión de matrices en lugar de aplicar métodos de eliminación, como el descrito
previamente.
Matrices y su Aplicación al Análisis de Sistemas de Potencia 23

La ecuación:

𝐴𝑋 = 𝐵 (1.80)

puede ser resuelta obteniendo la inversa de la matriz 𝐴 y luego calculando el vector 𝑋 a partir
de la siguiente ecuación matricial:

𝑋 = 𝐴−1 𝐵 (1.81)

Existen diferentes métodos que pueden ser utilizados para la evaluación explicita
de la matriz inversa, es decir, 𝐴−1. Uno de los metodos más simples y eficientes para calcular
la inversa de matrices muy grandes es el método de Gauss Jordan o conocido como el
método de eliminación total. Este método es una extensión del método de eliminación de
Gauss el cual fue considerado previamente, no requiere almacenamiento extra y una
precisión razonable. La forma más fácil de entender el método es partir de la solución del
sistema de ecuaciones siguiente:

𝑎11 𝑥1 + 𝑎12 𝑥2 = 𝑏1 (1.82)

𝑎11 𝑥1 + 𝑎22 𝑥2 = 𝑏2

La cual en forma matricial, se puede presentar como:

𝑎11 𝑎12 𝑥1 𝑏1
[𝑎 𝑎22 ] [𝑥2 ] = [𝑏2 ] (1.83)
21

Dividiendo la segunda ecuación del sistema (1.82) por 𝑎22 y despejando 𝑥2 de


la misma, se tiene:

−1 (𝑏
𝑥2 = 𝑎22 2 − 𝑎21 𝑥1 ) (1.84)

Sustituyendo esta ecuación en la primera ecuación del sistema de ecuaciones


(1.82), se obtiene:

−1
(𝑎11 − 𝑎12 𝑎22 −1
𝑎21 )𝑥1 + 𝑎12 𝑎22 𝑏2 = 𝑏1 (1.85)

El sistema formado por las ecuaciones (1.85) y (1.84), se puede escribir en forma
matricial como:

𝑎1 1
𝑎12 𝑥1 𝑏1
[ 11 1 ] [𝑏2 ] = [𝑥 ] (1.86)
𝑎121 𝑎22 2

Donde:
Matrices y su Aplicación al Análisis de Sistemas de Potencia 24

1 −1 1 −1
𝑎11 = 𝑎11 − 𝑎12 𝑎22 𝑎21 𝑎12 = 𝑎12 𝑎22 (1.87)

𝑎121 = −𝑎22
−1
𝑎21 𝑎122 = 𝑎22
−1
(1.88)

Las nuevas ecuaciones tienen la misma forma de las ecuaciones originales pero
donde los elementos 𝑥2 𝑦 𝑏2 aparecen intercambiados. Este proceso puede ser repetido
hasta intercambiar 𝑥1 𝑦 𝑏1 , obteniéndose de esta manera la siguiente ecuación matricial:

𝑎2 2
𝑎12 𝑏1 𝑥1
[ 11
2 2 ] [𝑏 ] = [𝑥2 ] (1.89)
𝑎21 𝑎22 2

La cual en forma general, puede ser escrita como:

𝐶𝐵 = 𝑋 (1.90)

Comparando esta ecuación con la (1.82), es evidente que la matriz 𝐶 representa


la inversa de 𝐴, es decir:

𝐶 = 𝐴−1 (1.91)

El orden en el cual el proceso de intercambio es llevado a cabo no tiene mucha


importancia, idénticos resultados podrían ser obtenidos intercambiando primero 𝑥1 con 𝑏1
y luego 𝑥2 con 𝑏2 . Aunque el ejemplo mostrado es trivial el principio es válido para
cualquier número de variables desconocidas; los pasos de intercambio de variables son
repetidos hasta completar el proceso de inversión. Este método de inversión de matrices es
simplificado por medio de la aplicación de los pasos generales indicados a continuación:

a) 𝑎𝑖𝑖′ = 1⁄𝑎𝑖𝑖
b) 𝑎𝑗𝑖′ = 𝑎𝑗𝑖 𝑎𝑖𝑖′ para todo 𝑗 ≠ 𝑖

c) 𝑎𝑗𝑘 = 𝑎𝑗𝑘 − 𝑎𝑗𝑖′ 𝑎𝑖𝑘 para todo 𝑗 ≠ 𝑖, 𝑘 ≠ 𝑖 (1.92)

d) 𝑎𝑖𝑘 = −𝑎𝑖𝑖′ 𝑎𝑖𝑘 para todo 𝑘 ≠ 𝑖

Donde 𝑎𝑖𝑖 es el elemento de la diagonal principal usado como pivote y 𝑎′ es el


nuevo elemento de la matriz de coeficiente, después de cada paso del proceso de inversión,
el cual es almacenado en la misma posición del valor previo.

El proceso es repetido para todos los elementos 𝑎𝑖𝑖 de la diagonal principal de la


matriz de coeficientes; cada paso comienza a partir de los resultados obtenidos en el paso
previo. Aunque el proceso puede ser desarrollado en cualquier orden, en general es suficiente
en la mayoría de problemas de ingeniería utilizar el orden natural de las ecuaciones. Este
Matrices y su Aplicación al Análisis de Sistemas de Potencia 25

proceso nos lleva al siguiente programa en FORTRAN, propuesto por primera vez por
SHIPLEY AND COLEMAN [2]:

C REMPLAZAR LA MATRIZ A DE ORDEN NXN POR SU INVERSA


DO 6 I = 1,N
A(I,I)=1.0/A(I,I)
DO 5 J = 1,N
IF (J-I) 1,5,1
1 A(J,I) = A(J,I)*A(I,I)
DO 4 K=1,N
IF (K-I) 2,4,2
2 A(J,K)=A(J,K)-A(J,I)*A(I,K)
IF(J,N) 4,3,4
3 A(I,K)=-A(I,J)*A(I,K)
4 CONTINUE
5 CONTINUE
6 CONTINUE
K=N-1
DO 7 J=1,K
A(N,J)=-A(N,N)*A(N,J)
7 CONTINUE
Ejemplo 1.9:

Para ilustrar los diferentes pasos secuenciales del proceso de inversión de


matrices, considere el ejemplo numérico dado en el método de sustitución de Gauss:

2 3 −1 𝑥1 5
[−4 6 8 ] [𝑥2 ] = [7]
10 12 14 𝑥3 9

Paso 1. Utilizando el primer elemento de la diagonal principal como pivote, se obtiene:

0.5 −1.5 0.5 5 𝑥1


[−2 12 6 ] [𝑥2 ] = [ 7 ]
5 −3 19 𝑥3 9
Paso 2. Utilizando el segundo elemento de la diagonal principal como pivote se obtiene:

0.25 −.125 1.25 5 𝑥1


[0.1666 0.0833 −0.5] [ 7 ] = [𝑥2 ]
4.5 −.25 20.5 𝑥3 9
Matrices y su Aplicación al Análisis de Sistemas de Potencia 26

Paso 3. Utilizando el segundo elemento de la diagonal principal como pivote se obtiene:

𝑥1 −0.0244 −.1096 0.06098 5


[𝑥2 ] = [ 0.2764 0.0772 −0.0244] [7]
𝑥3 −0.2195 0.01295 0.04878 9

Resolviendo la ecuación anterior, se obtiene:

𝑥1 −.34008
[𝑥2 ] = [ 1.7028 ]
𝑥3 −.5729

1.6.1.- LA INVERSA DE UNA MATRIZ EN FORMA FACTORIZADA [6-10]

Los métodos de factorización de matrices se basan en modificaciones de la


técnica básica de eliminación de Gauss. En esos métodos, la inversa de una matriz no es
calculada explícitamente pero explota la propiedad de que una matriz puede ser representada
por medio del producto de un número determinado de factores matriciales. También,
aprovechan las técnicas de matrices ralas en la aplicación de esos métodos, el número de
operaciones y los requerimientos de almacenamiento pueden ser reducidos drásticamente.
Existen varios métodos de factorización disponibles, siendo el de descomposición triangular
uno de los métodos más efectivos y ampliamente utilizados, en el cual se basan varias
técnicas modernas y eficientes. Los dos métodos que serán discutidos a continuación son
conocidos como los métodos de descomposición triangular 𝐿𝑈 y 𝐿𝐷𝑈.

1.7.- TRANSFORMACIÓN 𝐿𝑈 [6-10]

El método de factorización 𝐿𝑈 consiste en expresar la matriz de coeficiente 𝐴 como


el producto de dos factores matriciales, tal como:

𝐴 = 𝐿𝑈 (1.93)

donde 𝐿 representa la matriz triangular inferior y 𝐻 la matriz triangular superior en la cual


todos los elementos de la diagonal principal son iguales a la unidad.

De esta manera, para un sistema de tercer orden, los factores matriciales pueden
ser presentados en la forma siguiente:

𝑎11 𝑎12 𝑎13 𝐿11 . . 1 𝑈12 𝑈13


𝐴 = [𝑎21 𝑎22 𝑎23 ] = [𝐿21 𝐿22 . ][. 1 𝑈23 ] (1.94)
𝑎31 𝑎32 𝑎33 𝐿31 𝐿32 𝐿33 . . 1

Multiplicando los factores matriciales 𝐿 𝑦 𝑈 e igualando los elementos de esta


matriz con los elementos correspondientes de 𝐴, se obtiene:
Matrices y su Aplicación al Análisis de Sistemas de Potencia 27

𝑎11 = 𝐿11 𝑎12 = 𝐿11 𝑈12 𝑎13 = 𝐿11 𝑈13


𝑎21 = 𝐿21 𝑎22 = 𝐿21 𝑈12 + 𝐿22 𝑎23 = 𝐿21 𝑈13 + 𝐿22 𝑈23 (1.95)

𝑎31 = 𝐿31 𝑎32 = 𝐿31 𝑈12 + 𝐿32 𝑎33 = 𝐿31 𝑈13 + 𝐿32 𝑈23 + 𝐿33

A partir de las expresiones anteriores se obtiene:

𝑎12 𝑎13
𝐿11 = 𝑎11 𝑈12 = 𝑈13 =
𝐿11 𝐿11
1
𝐿21 = 𝑎21 𝐿22 = 𝑎22 − 𝐿21 𝑈12 𝑈23 = (𝑎23 − 𝐿21 𝑈13 ) (1.96)
𝐿22

𝐿31 = 𝑎31 𝐿32 = 𝑎32 − 𝐿31 𝑈12 𝐿33 = 𝑎33 − 𝐿31 𝑈13 − 𝐿32 𝑈23

Si el conjunto de ecuaciones simultáneas pueden ser formuladas en forma


matricial, como:

𝐴𝑋 = 𝐵 (1.97)

Entonces sustituyendo la ecuación (1.93) en la ecuación (1.97), se obtiene:

𝐿𝑈𝑋 = 𝐵 (1.98)

Haciendo:
𝑈𝑋 = 𝑌 (1.99)

A partir de la ecuación (1.97) y (1.99), se obtiene:

𝐿𝑌 = 𝐵 (1.100)

Escribiendo explícitamente las ecuaciones (1.99) y (1.100), se obtiene:

𝑥1 + 𝑈12 𝑥2 + 𝑈13 𝑥3 = 𝑦1 𝐿11 𝑦1 = 𝑏1

𝑥2 + 𝑈23 𝑥3 = 𝑦2 𝐿21 𝑦1 + 𝐿22 𝑦2 = 𝑏2 (1.101)

𝑥3 = 𝑦3 𝐿31 𝑦1 + 𝐿32 𝑦2 + 𝐿𝑦3 = 𝑏3

Como 𝐿 es la matriz triangular inferior, entonces a partir de 𝐿 y 𝐵 el vector 𝑌 de


la ecuación (1.94) puede ser calculado utilizando el método de sustitución hacia adelante, de
la misma manera el vector desconocido 𝑋, puede ser encontrado utilizando el método de
sustitución hacia atrás. Para un sistema de tercer orden, los valores de los elementos de
𝑌 𝑦 𝑋 , se obtienen como:

𝑏1
𝑦1 = 𝑥3 = 𝑦3
𝐿11
Matrices y su Aplicación al Análisis de Sistemas de Potencia 28

1
𝑦2 = 𝐿 (𝑏2 − 𝐿21 𝑦1 ) 𝑥2 = 𝑦2 − 𝑈23 𝑥3 (1.102)
22
1
𝑦3 = (𝑏 − 𝐿31 𝑦1 − 𝐿32 𝑦2 ) 𝑥1 = 𝑦1 − 𝑈12 𝑥2 − 𝑈13 𝑥3
𝐿33 3

El problema de esta técnica es encontrar las matrices triangulares 𝐿 𝑦 𝑈. Estas


pueden ser fácilmente obtenidas utilizando una modificación sistemática del proceso básico
de eliminación de gauss. Este proceso es ilustrado a partir del ejemplo siguiente:

Ejemplo 1.10:

Considere la matriz de coeficiente de tercer orden siguiente:

𝑎11 𝑎12 𝑎13


𝐴 = [𝑎21 𝑎22 𝑎23 ] (1.103)
𝑎31 𝑎32 𝑎33

En el proceso de eliminación de Gauss, los elementos por debajo del elemento de


la primera columna son eliminados utilizando el primer elemento de la diagonal como pivote.
Esto puede ser alcanzado, dividiendo la primera fila por 𝑎11 , luego multiplicando la nueva fila
por 𝑎21 𝑦 𝑎31 respectivamente y sustrayendo las filas resultantes de la segunda y tercera fila
respectivamente. En lugar de utilizar esta técnica, las mismas series de operaciones pueden
ser aplicadas premultiplicando la matriz de coeficientes 𝐴 por una matriz de transformación
𝐿1 , donde:

1
. .
𝑎11
𝑎
𝐿1 = − 𝑎21 1 . (1.104)
11
𝑎31
[− 𝑎11 . 1]

Esta operación da como resultado una nueva matriz de coeficientes 𝐴1 , donde:

𝐴1 = 𝐿1 𝐴 (1.105)

o 𝐿−1 1
1 𝐴 =𝐴 (1.106)

Donde:

1 1
𝑎11 . . 1 𝑎12 𝑎13
𝐿−1
1 = [𝑎21 1 .] 𝑦 1
𝐴 = [. 1
𝑎22 1
𝑎23 ] (1.107)
𝑎31 . 1 . 𝑎132 𝑎133
Matrices y su Aplicación al Análisis de Sistemas de Potencia 29

Los elementos 𝑎1𝑖𝑗 de 𝐴1 son obtenidos por el método utilizado en el proceso


de eliminación de Gauss, discutido anteriormente, es decir:

𝑎1𝑖𝑗 = 𝑎𝑖𝑗 − 𝑎𝑖1 𝑎1𝑗 ⁄𝑎11 𝑖 = 1,2, … … … . , 𝑛 ; 𝑗 = 2, … … … , 𝑛 (1.108)

Este proceso puede ser continuado utilizando el segundo elemento de la diagonal


principal de la nueva matriz de coeficiente, 𝐴1 , como pivote. Utilizando la misma técnica, los
elementos por debajo de la segunda diagonal de 𝐴1 pueden ser eliminados premultiplicando
la matriz 𝐴1 por la matriz de transformación 𝐿2 de la matriz triangular inferior, donde:

1 . .
1
. 1 .
𝐿2 = 𝑎22 (1.109)
𝑎1
[. − 𝑎32
1 1]
22

Esta da una nueva matriz 𝐴2 , donde:

𝐴2 = 𝐿2 𝐴1 (1.110)

o, 𝐴1 = 𝐿−1
2 𝐴
2
(1.111)

Sustituyendo la ecuación (1.111) en la ecuación (1.106), se obtiene:

𝐴 = 𝐿−1 −1 2
1 𝐿2 𝐴 (1.112)

Continuando este proceso para todos los elementos de la diagonal principal, para
un sistema de orden ntt, se obtiene:

𝐴 = 𝐿−1 −1 −1 𝑛
1 𝐿2 … … … 𝐿𝑛 𝐴 (1.113)

donde 𝐴𝑛 representa la matriz diagonal superior, 𝑈 , de la matriz de coeficiente 𝐴 , para el


sistema de tercer orden, es:

1 1
1 𝑎12 𝑎13
𝐴𝑛 = 𝑈 = [ . 1 2 ]
𝑎23 (1.114)
. . 1

También, como los factores 𝐿1 𝐿2 … … . . 𝐿𝑛 representan las matrices de


transformación o los factores matriciales de la matriz triangular inferior, se obtiene:

𝐿 = 𝐿−1 −1 −1
1 𝐿2 … … … … … . 𝐿 𝑛 (1.115)

Por lo tanto, para el sistema de tercer orden, se obtiene:


Matrices y su Aplicación al Análisis de Sistemas de Potencia 30

𝑎11 . . 1 . . 1 . . 𝑎11 . .
𝐿 = [𝑎21 1 . ] [ . 𝑎122 .][. 1 𝑎
. ] = [ 21 𝑎122 . ] (1.116)
1 . 𝑎132 2
𝑎31 . 1 . . 𝑎33 𝑎31 𝑎132 2
𝑎33

Ejemplo 1.11:

Dada la siguiente ecuación matricial:

2 3 −1 𝑥1 5
[−4 6 8 ] [𝑥2 ] = [7]
10 12 14 𝑥3 9

Hallar la solución de la ecuación dada utilizando el método de factorización 𝐿𝑈.

Paso 1.
3 1
2 ⋮ −
2… …2
⋯ …
−4 ⋮ 12 6
[ 10 ⋮ −3 19]

Paso 2.

2 1.5 −0.5
[−4 12 0.5 ]
10 −3 20.5

Donde:

2 − − 1 1.5 −0.5
𝐿 = [−4 12 − ] 𝑈 = [− 1 0.5]
10 −3 20.5 − − 1

Paso 3.

A partir de la matriz 𝐿 y la ecuación (1.100), se obtienen los elementos del vector


𝑌 utilizando el proceso de sustitución hacia adelante:

2 − − 𝑦
1 5
−4 12 − 𝑦
[ 41] [ 2 ] = [7]
10 −3 𝑦3 9
2
Así:
𝑦1 = 2.5, 𝑦2 = 1.4167, 𝑦3 = −0.5732
Paso 4.
Matrices y su Aplicación al Análisis de Sistemas de Potencia 31

Finalmente, se obtienen los valores de las variables desconocidas a partir de la


ecuación (1.100), y utilizando el procedimiento de sustitución hacia atrás, es decir:

1 1.5 −0.5 𝑥1 2.5


[− 1 0.5] [𝑥2 ] = [ 1.4167 ]
− − 1 𝑥3 −0.5732
Así:
𝑥1 = −0.34155, 𝑥2 = 1.7033, 𝑥3 = −0.5732

1.8.- TRANSFORMACIÓN 𝐿𝐷𝑈 [6-9]

La técnica de descomposición triangular, descrita previamente sirve de base de


técnicas muy modernas y eficientes de factorización. Es evidente a partir de los ejemplos
numéricos que los elementos de la columna ith de la matriz triangular 𝐿 son diferentes de los
elementos de la fila ith de 𝑈. Esto significa que las matices triangulares 𝐿 y 𝑈 deben ser
conocidas explícitamente y ambas, por lo tanto, deben ser almacenadas. En el caso de
matrices de coeficientes simétricas, este problema puede ser simplificado si se descompone
un poco más la matriz triangular inferior, 𝐿. Este método conocido como factorización 𝐿𝐷𝑈,
expresa la matriz de coeficientes original como el producto de tres factores matriciales, tal
como se muestra a continuación:

𝐴 = 𝐿′ 𝐷𝑈 (1.117)
Donde:
𝐿′ = Matriz Triangular Inferior con elementos unidad
en la diagonal principal.
𝑈 = Matriz Triangular Superior con elementos unidad
en la diagonal principal.
D=Matriz Diagonal con todos los elementos nulos
fuera de la diagonal principal.

Esta descomposición es realizada, factorizando primero la matriz de coeficientes


original en las matrices triangulares superior e inferior, 𝐿 y 𝑈, tal como fue descrito

previamente. La matriz triangular 𝐿 es entonces Factorizada en 𝐿 y 𝐷. La matriz diagonal 𝐷
consiste de los elementos de la diagonal principal de 𝐿. La nueva matriz triangular 𝐿′ es
obtenida a partir de 𝐿 dividiendo los elementos de cada columna por el elemento de la diagonal
de esa columna.
Matrices y su Aplicación al Análisis de Sistemas de Potencia 32

Ejemplo 1.12:
Esta técnica puede ser ilustrada a partir del ejemplo 1.11 de factorización LU,
mostrado previamente. De este ejemplo, se obtiene:

2 3 −1 2 − − 1 1.5 −0.5
𝐴 = [−4 6 8] 𝐿 = [−4 12 − ] 𝑈 = [− 1 0.5]
10 12 14 10 −3 20.5 − − 1

Aplicando la técnica descrita anteriormente, se obtiene:

1 − − 2 . .
𝐿′ = [−2 1 −] 𝐷 = [ . 12 . ]
5 −0.25 1 . . 20.5

En el caso de una matriz simétrica, se obtiene:

3 −1 −1 . 3 . . . 1 −0.33 −0.33 .
. . . .
𝐴 = [−1 2
. ] 𝐿 = [−1 1.666 ] 𝑈 = [ .. 1
.
−0.20 .]
−1 2 −1 −1 −0.33 1.60 . 1 −0.625
. . −1 1 . . −1 −1.391 . . . 1

Utilizando la técnica descrita anteriormente, 𝐿′ y 𝐷 pueden ser obtenidas a partir de 𝐿, es


decir:

1 . . . 3 . . .
. . . 1.666 . .
𝐿 = [−0.33
′ 1 ] 𝐷=[ ]
−0.33 −0.20 1 . . . 1.60 .
. . −0.62 1 . . . −1.391

Resulta evidente del último ejemplo, que cuando la matriz de coeficiente original es simétrica
los factores matriciales 𝐿′ y 𝑈, entre ellas, son matrices transpuestas. Esta es la gran ventaja
de esta técnica de descomposición, ya que solo es necesario almacenar uno de los factores
matriciales, el otro puede ser conocido implícitamente.

Si 𝐴 es la matriz de coeficientes de la ecuación matricial siguiente:

𝐴𝑋 = 𝐵 (1.118)
𝐴 puede ser expresada como:

𝐴 = 𝐿′ 𝐷𝑈 (1.119)
De las ecuaciones (1.95) y (1.96), se obtiene:

𝐿′ 𝐷𝑈 𝑋 = 𝐵 (1.120)
Haciendo:

𝑈𝑋 = 𝑌 (1.121)
Matrices y su Aplicación al Análisis de Sistemas de Potencia 33

𝐷𝑌 = 𝑌 ′ (1.122)

y a partir de las ecuaciones (1.120) – (1.122), se obtiene:

𝐿′ 𝑌 ′ = 𝐵 (1.123)
′ ′
Los elementos de 𝑌 pueden ser obtenidos a partir de 𝐿 y 𝐵 por sustitución hacia
adelante, utilizando la ecuación (1.123), luego los elementos de 𝑌 a partir de 𝐷 y 𝑌 ′ utilizando
la ecuación (1.122), y finalmente los elementos de 𝑋 pueden ser obtenidos a partir de 𝑈 𝑦 𝑌
por sustitución hacia atrás, utilizando la ecuación (1.121).

1.9.- TRANSFORMACIÓN R-L O BI-FACTORIZACION [6-9]

El método de bi-factorización, desarrollado por Zollenkopf es una de las


modificaciones más recientes a la técnica de eliminación de Gauss. Es particularmente
apropiado para resolver sistemas ralos muy grandes donde los elementos de la diagonal
principal son no-nulos y predominantes sobre los elementos de las diagonales secundarias,
las cuales son simétricas o en caso de ser asimétricas tienen una estructura simétrica. El
método combina la técnica de triangularización y la forma de factores para expresar la inversa
de una matriz 𝐴 como el producto de 2n matrices.

El método está basado en encontrar 2n factores matriciales para un sistema de


orden nth, de tal forma que el producto de esos factores matriciales satisface la ecuación
siguiente:

𝐿𝑛 𝐿𝑛−1 … … . . 𝐿2 𝐿1 𝐴𝑅1 𝑅2 … … … 𝑅 𝑛−1 𝑅𝑛 = 𝐼 (1.124)

Donde:

A=Matriz de Coeficientes.

L=Factor Matricial Izquierdo.

R=Factor Matricial Derecho.

I=Matriz Unidad.

Pre multiplicando la ecuación (1.124) por la inversa de Ln Ln1 ....L2 L1 , en forma


consecutiva, se obtiene:

𝐴𝑅1 𝑅 2 … … . 𝑅 𝑛−1 𝑅𝑛 = (𝐿1 )−1 (𝐿2 )−1 … … … (𝐿𝑛−1 )−1 (𝐿𝑛 )−1 (1.125)
Matrices y su Aplicación al Análisis de Sistemas de Potencia 34

Post multiplicando la ecuación anterior por 𝐿𝑛 𝐿𝑛−1 … … . 𝐿2 𝐿1 consecutivamente,


da:

𝐴𝑅1 𝑅 2 … … … 𝑅 𝑛−1 𝑅𝑛 𝐿𝑛 𝐿𝑛−1 … … … . 𝐿2 𝐿1 = 𝐼 (1.126)

Finalmente pre multiplicando la ecuación (1.126) por 𝐴−1, se obtiene:

𝑅1 𝑅2 … … … 𝑅 𝑛−1 𝑅𝑛 𝐿𝑛 𝐿𝑛−1 … … … . 𝐿2 𝐿1 = 𝐴−1 (1.127)

Para determinar los factores matriciales la siguiente secuencia de matrices


intermedias son introducidas:

𝐴 = 𝐴0

𝐴1 = 𝐿1 𝐴0 𝑅1 (1.128)

𝐴𝑛 = 𝐿𝑛 𝐴𝑛−1 𝑅𝑛

Los productos matriciales sucesivos indicados en las expresiones (1.128)


transforman la matriz de coeficientes original, 𝐴 = 𝐴0 , en la matriz unidad, 𝐼.

Considerando el siguiente sistema de cuarto orden, el cual tiene la siguiente matriz


de coeficientes inicial:

0 0 0 0
𝑎11 𝑎12 𝑎13 𝑎14
0 0 0 0
𝑎 𝑎22 𝑎23 𝑎24
𝐴 = 𝐴0 = 210 0 0 0 (1.129)
𝑎31 𝑎32 𝑎33 𝑎34
0 0 0 0
[𝑎41 𝑎42 𝑎43 𝑎44 ]

Primer paso de reducción, 𝐴1 = 𝐿1 𝐴0 𝑅1, da:

𝐿111 . . . 0
𝑎11 0
𝑎12 0
𝑎13 0
𝑎14 1 1 1 . . .
1 𝑅 𝑅13 𝑅14
𝐿121 1 . . 0
𝑎21 0
𝑎22 0
𝑎23 0
𝑎24 . . . 𝑎122 𝑎123 𝑎124
[ . 1 ]= . (1.130)
𝐿131 . 1 . 𝑎310 0
𝑎32 0
𝑎33 0
𝑎34 . . 1 . 𝑎132 𝑎133 𝑎134
. . . . 1 [ . 𝑎141 𝑎143 𝑎144 ]
[𝐿141 0
. 1] [𝑎41 0
𝑎42 0
𝑎43 0
𝑎44 ]

El segundo paso de reducción, 𝐴2 = 𝐿2 𝐴1 𝑅2 , da:

1 . . .
1 . . . . . 1 . . .
1 .
. 𝐿222 . .. 𝑎122 1
𝑎23 𝑎124 . 1 2 2 . 1 . .
𝑅23 𝑅24
. 𝐿232 1 [ ] = [. 2
. 𝑎33 2 ] (1.131)
1 . . 𝑎132 𝑎33 𝑎134 . . 1 . 𝑎34
[ . 𝐿242 . 1] [ . 𝑎142 1
𝑎43 𝑎44 ] . .
1 . 1 . . 𝑎2 2
𝑎44
43
Matrices y su Aplicación al Análisis de Sistemas de Potencia 35

El tercer paso de reducción, 𝐴3 = 𝐿3 𝐴2 𝑅3, da:


1 . . . 1 . . . 1 . . . 1 . . .
. 1 . . . 1 . . . 1 . . . 1 . .
[ . . 𝐿3
33 .
][. 2
. 𝑎33 2 ][.
𝑎34 . 1 𝑅3 ] = [ . . 1 . ] (1.132)
34
. . 𝐿3 . . 𝑎2 . . . . . 3
43 1 43
2
𝑎44 1 . 𝑎44

El cuarto y último paso de reducción, 𝐴3 = 𝐿3 𝐴2 𝑅3, da:

1 . . . 1 . . . 1 . . . 1 . . .
. 1 . . . 1 . . . 1 . . . .
[. . 1 . ][. . 1 .] [ . . ] = [ .. 1. ] (1.133)
1 . 1 .
4
. . . 𝐿44 . 3
. . 𝑎44 . . . . .
. 1 1

Puede observarse, a partir de este problema de cuarto orden que le factor, 𝑅, final es una
matriz unidad. Aun más, puede deducirse que, para un sistema de orden nth, los facores
matriciales 𝐿 y 𝑅, en el paso de reducción kth son obtenidas a partir:

1 . . . . . .
. ⋱ . . . . .
. . 𝐿𝑘𝑘𝑘 . . . .
𝐿𝑘 = .. .. 𝐿𝑘𝑖𝑘 1 . . . (1.134)
⋮ . ⋱ . .
. .
⋮ . . ⋱ .
. .
[ 𝐿𝑘𝑛𝑘 . . . 1]

1 . . . . . .
. ⋱ . . . . .
𝑘 𝑘
. . 1 𝑅𝑘𝑗 … . 𝑅𝑛𝑘
𝑅𝑘 = .. .. . 1 . . . (1.135)
. . ⋮ . ⋱ . .
. . ⋮ . . ⋱ .
[ . . . . 1 ]

Donde:

1
𝐿𝑘𝑘𝑘 = 𝑘−1
𝑎𝑘𝑘
𝑘−1
𝑎𝑖𝑘
𝐿𝑘𝑖𝑘 = − 𝑘−1 (𝑖 = 𝑘 + 1, … … . , 𝑛)
𝑎𝑘𝑘
𝑘−1
𝑘 𝑎𝑘𝑗
𝑅𝑘𝑗 =− 𝑘−1 (𝑗 = 𝑘 + 1, … … . , 𝑛) (1.136)
𝑎𝑘𝑘

𝑘−1 𝑘−1
𝑘 𝑘−1
𝑎𝑖𝑘 𝑎𝑘𝑗
𝑎𝑖𝑗 = 𝑎𝑖𝑗 − 𝑘−1
(𝑖 = 𝑘 + 1, … … , 𝑛); (𝑗 = 𝑘 + 1, … … , 𝑛)
𝑎𝑘𝑘
Matrices y su Aplicación al Análisis de Sistemas de Potencia 36

Para una matriz simétrica, se cumple:

𝑘−1 𝑘−1
𝑎𝑖𝑘 = 𝑎𝑘𝑖 (1.137)

Por lo tanto,

𝑘
𝑅𝑖𝑘 = 𝐿𝑘𝑘𝑖 (1.138)

En el caso de una matriz de coeficientes simétrica, solamente es necesario evaluar


los elementos de 𝐿𝑘 . Por lo tanto, en este caso, el número de operaciones y la cantidad de
espacio de almacenamiento se reduce casi a la mitad.

La solución de las ecuaciones originales, pueden ahora ser encontradas a partir


de la ecuación (1.104), es decir:

𝐴−1 = 𝑅1 𝑅2 … . 𝑅 𝑛−1 𝑅 𝑛 𝐿𝑛 𝐿𝑛−1 … . 𝐿2 𝐿1 (1.139)

y como 𝑅 𝑛 es una matriz unidad entonces la solución es dada por:

𝑋 = 𝑅1 𝑅2 … . 𝑅 𝑛−1 𝐿𝑛 𝐿𝑛−1 … . 𝐿2 𝐿1 𝐵 (1.140)

1.10.- APLICACIÓN PRÁCTICA DE LAS TÉCNICAS DE MATRICES RALAS


[6-9]
En el caso de matrices ralas de coeficientes, es decir, de matrices con un gran
número de elementos ceros, ahorro significativo de tiempo de computación y de memoria
pueden ser logrados si es diseñado un esquema de programación que almacene y procese
solamente los elementos no-nulos. Más aún la estructura rala de la matriz debe ser mantenida
tanto como sea posible.

1.10.1.- MULTIPLICACIÓN DE MATRICES

La solución de ecuación 𝑋 = 𝐴−1 𝐵 es obtenida a partir del producto de 2n


matrices, multiplicando el último factor matricial por el vector 𝐵 para obtener otro vector. El
siguiente factor matricial es entonces multiplicado por este vector hasta obtener la solución
final. Debido a que la mayoría de los factores matriciales son todas matrices unitarias excepto
para una columna y fila, la multiplicación es realizada solamente en los elementos no-nulos.
Por ejemplo:

1
1 𝐿112 . 𝑏1 𝑏12
1
[ . 𝐿122 . ] [ 𝑏2 ] = [ 𝑏22 ] (1.141)
1
. . 1 𝑏3 𝑏32
Matrices y su Aplicación al Análisis de Sistemas de Potencia 37

Donde:

𝑏12 = 𝑏11 + 𝐿112 𝑏21


𝑏22 = 𝐿122 𝑏21
𝑏32 = 𝑏31

1.10.2.- PROCESO DE ELIMINACIÓN

Como consecuencia de la adición y sustracción de ecuaciones durante el proceso


de eliminación de Gauss algunos elementos ceros llegan a ser no-nulos; resultando así un
incremento del requerimiento de memoria y del tiempo de computación. Para ilustrar este
efecto, considere el siguiente sistema radial y la matriz de coeficiente correspondiente.

5 1 3

Figura No. 1.2


Sistema Radial 1

𝑥 𝑥 𝑥 𝑥 𝑥
𝑥 𝑥 . . .
𝑥 . 𝑥 . .
𝑥 . . 𝑥 .
[𝑥 . . . 𝑥]
Donde x representa los elementos no-nulos después de la primera eliminación
utilizando la técnica de transformación R-L. La matriz 𝐴−1 será la indicada a continuación:

1 . . . .
. 𝑥 𝑥 𝑥 𝑥
𝐴1 = . 𝑥 𝑥 𝑥 𝑥
. 𝑥 𝑥 𝑥 𝑥
[. 𝑥 𝑥 𝑥 𝑥]

Se puede observar que la matriz resultante de coeficientes tiene nuevos


elementos no-nulos y en consecuencia es menos rala, lo cual constituye una desventaja. Si
los nodos son reenumerados o el proceso de eliminación es llevado a cabo en orden inverso,
la estructura rala puede ser preservada, tal como se muestra a continuación:
Matrices y su Aplicación al Análisis de Sistemas de Potencia 38

5 3
1

Figura No. 1.3


Sistema Radial 2

𝑥 . . . 𝑥
. 𝑥 . . 𝑥
𝐴= . . 𝑥 . 𝑥
. . . 𝑥 𝑥
[𝑥 𝑥 𝑥 𝑥 𝑥]
Los factores matriciales correspondientes tendrán también una estructura rala. Las matrices
resultantes en cada paso del proceso de eliminación son las indicadas a continuación:

1 . . . . 1 . . . . 1 . . . . 1 . . . .
. 𝑥 . . 𝑥 . 1 . . . . 1 . . .
4 . 1 . . .
𝐴 = .
1 . 𝑥 . 𝑥 𝐴 = .
2 . 𝑥 . 𝑥 𝐴 = .
3 . 1 . . 𝐴 = . . 1 . . (1.142)
. . . 𝑥 𝑥 . . . 𝑥 𝑥 . . . 𝑥 𝑥 . . . 1 .
[. 𝑥 𝑥 𝑥 𝑥] [. . 𝑥 𝑥 𝑥] [. . . 𝑥 𝑥] [ . . . . 𝑥]

El objeto del ordenamiento del proceso de eliminación es el de minimizar el


número total de nuevos elementos no-nulos. Existen varias formas para hacerlo.

Un esquema óptimo podría resultar en un mínimo de términos no-nulos pero a lo


mejor el proceso de cálculo involucrado anularía tal esfuerzo.

En la práctica es más ventajoso aplicar la estrategia siguiente. En cada paso del


proceso de reducción se selecciona como pivote aquella columna y fila que contiene el menor
número de elementos no-nulos. Si más de una columna cumple con este criterio, cualquiera
es seleccionada. Este esquema produce una secuencia aproximadamente óptima del proceso
de eliminación pero requiere mucho menos tiempo adicional de cómputo.

1.11.- PRINCIPIOS DE PROGRAMACIÓN [6-10]


- LISTA VINCULADA

Primero se considerará la técnica conocida como lista vinculada para almacenar


una secuencia de números. La lista de números vinculados entre sí permite almacenar los
Matrices y su Aplicación al Análisis de Sistemas de Potencia 39

valores numéricos de los números en cuestión en cualquier orden, la secuencia deseada de


los números es determinada por una técnica de vinculación.

Esta técnica de vinculación consiste en elegir una unidad de memoria para el valor
numérico correspondiente a cada elemento de la lista y asociarle a esta la dirección del valor
numérico correspondiente al siguiente elemento de la lista.

Esta técnica requiere la introducción de un nuevo arreglo, el cual podría ser


llamado NEXT en el cual la dirección del siguiente elemento de la lista es almacenada.
Utilizando tal arreglo, la lista de números de acuerdo a la secuencia original es:

Localización *1 2 3 4 5 6
Valor Numérico 30.5 50.9 26.3 45.7 . .
NEXT 2 3 4 0

En alusión a la lista anterior, es necesario registrar la dirección del primer número


de la lista. Este puede ser almacenado como una variable entera, pero por simplicidad en el
ejemplo anterior este elemento es marcado por un asterisco. Para cambiar el orden de la lista
en valores numéricos ascendientes se modifican las direcciones respectivas en el arreglo
NEXT, permaneciendo igual la secuencia de los números en el arreglo Valor. Esto da lugar al
siguiente arreglo:
Localización 1 2 *3 4 5 6
Valor Numérico 30.5 50.9 26.3 45.7 . .
NEXT 4 0 1 2

Si ahora el número 28.2 es agregado en la lista y la secuencia de los números


permanecen en orden ascendente, es suficiente agregar este número al final de la lista
existente y cambiar las direcciones respectivas en el arreglo NEXT. Esto da:

Localización 1 2 *3 4 5 6
Valor Numérico 30.5 50.9 26.3 45.7 28.2 .
NEXT 4 0 5 2 1

1.11.1.- ALMACENAMIENTO DE MATRICES RALAS

En la solución de sistemas de ecuaciones lineales por cualquiera de los métodos


basados en el proceso de eliminación de Gauss, el proceso de factorización es realizado bien
fila por fila o columna por columna. Es por lo tanto muy deseable y más eficiente indexar la
información almacenada en tal forma que esta pueda ser recuperada durante la factorización
Matrices y su Aplicación al Análisis de Sistemas de Potencia 40

en una manera similar. También, durante el proceso de eliminación, elementos no-nulos son
continuamente generados o eliminados y por lo tanto el esquema de almacenamiento deberá
permitir hacer eficientemente tales modificaciones. Finalmente, para minimizar la generación
de elementos no-nulos es necesario conocer el número de elementos no-nulos en cada
columna o en cada fila.

Un posible esquema el cual satisface los requerimientos anteriores es derivado de


la técnica de almacenamiento denominada lista vinculante.

Asumiendo que el proceso de eliminación de Gauss es efectuado columna por


columna, el esquema utilizado consiste de dos tablas. La primera tabla es constituida por los
siguientes arreglos:

VALOR: Valores Numéricos de los Elementos.


IROW: Índice de la Fila Correspondiente.
NEXT: Localización del siguiente Elemento No-Nulo en la Columna Correspondiente.
La segunda tabla comprende los arreglos siguientes:
DIAG: Valores Numéricos de la Diagonal Principal.
ICAP: Índice de la Columna Correspondiente.
NOZE: Número de Elementos No-Nulos en cada Columna.
Para ilustrar como una matriz A es almacenada de acuerdo al esquema en
discusión, se considerará a continuación el almacenamiento de la matriz siguiente:

3.0 −1.0 −1.0 .


−1.0 2.0 . .
𝐴=[ . ]
−1.0 2.0 −1.0
. . −1.0 1.0

Para esta matriz, las dos tablas y los seis arreglos correspondientes son:

U/Memoria 1 2 3 4 5 6 *7 8 9 10
Valor -1.0 -1.0 -1.0 -1.0 -1.0 -1.0 . . . .
IROW 2 3 1 1 4 3
NEXT 2 0 0 5 0 0 8 9 10 0

U/Memoria 1 2 3 4
DIAG 3.0 2.0 2.0 1.0
ICAP 1 3 4 6
NOZE 2 1 2 1

Además de la información almacenada en las tablas indicadas anteriormente, es


necesario conocer la dirección de la primera unidad de memoria libre en la primera tabla. Esta
Matrices y su Aplicación al Análisis de Sistemas de Potencia 41

puede ser identificada, en la práctica, por medio de la utilización de una variable simple entera.
En el ejemplo anterior esta posición es identificada por medio de un asterisco.

Para entender el significado de los diferentes arreglos en las tablas mostradas


previamente, considere primero los tres elementos almacenados en la unidad de memoria ith
de la primera tabla. VALOR(i) representa el valor numérico de un elemento no-nulo de una
diagonal secundaria, IROW(i) representa la fila a la cual pertenece dicho elemento y NEXT(i)
indica la dirección del siguiente elemento no-nulo en una diagonal secundaria perteneciente
a la misma columna de la matriz de coeficientes. Un cero en el arreglo NEXT indica que no
existen otros elementos no-nulos en esa columna.

Considere, ahora, los tres elementos almacenados en la unidad jth de la segunda


tabla. DIAG(j) representa el valor numérico del elemento de la diagonal principal
correspondiente a la columna j de la matriz, ICAP(j) indica la unidad de memoria en la primera
tabla del primer elemento no-nulo de la diagonal secundaria en la columna j y NOZE(j) da el
número total de elementos no-ceros en la columna jth.

Cualquier columna de la matriz puede ser fácilmente reconstruida a partir de la


información almacenada en esos arreglos. Como un ejemplo, considere la reconstrucción de
la columna tres (03).

A partir de la segunda tabla, el valor del elemento de la diagonal principal puede


ser encontrado en la unidad del arreglo DIAG, resultando igual a 2.0, es decir:
DIAG(3) = 2.0
También, a partir de la segunda tabla, la dirección del primer elemento no-nulo de
una diagonal secundaria en la columna tres puede ser encontrado en la unidad de memoria
tres (03) de ICAP, resultando ser igual a cuatro (04). Así:
ICAP(3) = 4.0
A partir de la primera tabla, el valor del primer elemento no-nulo de una diagonal
secundaria es encontrado en la unidad cuatro (04) del arreglo denominado VALOR, el cual
resulta iguala -1.0, es decir:
VALOR(4) = -1.0
La fila a la cual pertenece este elemento es determinada en la unidad de memoria
cuatro (04) del arreglo IROW, resultando igual a uno (01),
IROW(4) = 1.0
Matrices y su Aplicación al Análisis de Sistemas de Potencia 42

La dirección del siguiente elemento no-nulo de una diagonal secundaria en la


columna tres (03) de la matriz es encontrado en la unidad de memoria cuatro (4) del arreglo
NEXT, el cual resulta igual a 05, es decir:
NEXT(4) = 5
El valor de este elemento, fuera de la diagonal principal es encontrado en la unidad
5 del arreglo VALOR, resultando igual a -1.0,
VALOR(5) = -1.0
Siguiendo la misma técnica en una forma secuencial, la fila a la cual pertenece
este elemento es cuatro (04),
NEXT(5) = 0
Lo cual indica que no existen otros elementos no-nulos en la columna tres (3)de
la matriz considerada. A partir de los valores obtenidos por medio del procedimiento anterior,
la columna 3 es presentada a continuación:
−1.0
[ . ]
2.0
−1.0
La gran ventaja de la técnica descrita es que nuevos elementos pueden ser
agregados y elementos existentes pueden ser eliminados con un mínimo de esfuerzo. A
continuación se ilustra como esto puede ser implementado en el caso de la matriz
almacenada, para ello asuma que los siguientes elementos deben ser agregados a los
arreglos existentes:
𝑎14 = −2.0 𝑦 𝑎41 = −2.0

Esto es efectuado de la manera siguiente:

El elemento 𝑎41 pertenece a la fila cuatro (04) y columna uno (01) de la matriz. Por
lo tanto, primero se debe localizar el último elemento no-nulo en la columna 1. Utilizando
ICAP(1) y el proceso descrito anteriormente, este elemento es encontrado en la unidad de
memoria 2 de la primera tabla. El nuevo elemento 𝑎41 es almacenado en la primera unidad
libre de la primera tabla, es decir, en la unidad 7 y el valor de NEXT(2) y NOZE(1) son
modificados convenientemente. Por lo tanto, las modificaciones realizadas a la primera tabla
son indicadas a continuación:

NEXT(2) = 7
VALOR(7) = -2.0
IROW(7) = 4
NEXT(7) = 0
Matrices y su Aplicación al Análisis de Sistemas de Potencia 43

NOZE(1) = 3
Un proceso similar puede ser utilizado para almacenar el elemento 𝑎14 , el cual es
agregado en la primera tabla en la unidad de memoria 8.

Después de agregar estos dos nuevos elementos las tablas modificadas se


muestran a continuación:

U/Memoria 1 2 3 4 5 6 7 8 *9 10
Valor -1.0 -1.0 -1.0 -1.0 -1.0 -1.0 -2.0 -2.0 . .
IROW 2 3 1 1 4 3
NEXT 2 0 0 5 0 0 8 9 10 0

U/Memoria 1 2 3 4
DIAG 3.0 2.0 2.0 1.0
ICAP 1 3 4 6
NOZE 2 1 2 2

Similarmente, si un elemento debe ser eliminado del listado, su localidad de memoria queda
disponible para agregar un nuevo elemento para lo cual los valores de los arreglos NEXT y
NOZE son modificados convenientemente.

1.11.2.- SIMULACIÓN DEL PROCESO DE ELIMINACIÓN

El método más eficiente de ordenamiento dinámico es basado en el número


mínimo de ramas conectadas en la red. Este orden puede ser determinado, detectando el
menor número de elementos no-nulos en cualquier columna o fila en cada etapa del proceso
de eliminación. Pareciera más lógico efectuar la detección durante el proceso de factorización.
No obstante, un método alternativo determinaría la secuencia completa del ordenamiento
dinámico antes de la factorización, simulando, para ello, el proceso de eliminación.

El proceso de eliminación será menos eficiente en lo que a tiempo de computación


respecta si solamente un conjunto de ecuaciones es resuelto. No obstante, llega a ser muy
eficiente si las ecuaciones a ser resueltas para diferentes matrices de coeficientes tiene la
misma estructura rala pero con elementos diferentes.

Antes de discutir el proceso de factorización se considerará primero el principio


involucrado en esta simulación. Para ilustrar estos principios, considere la matriz de
coeficientes mostrada a continuación:

3.0 −1.0 −1.0 .


. .
𝐴 = [−1.0 2.0
. ]
−1.0 2.0 −1.0
. . −1.0 1.0
Matrices y su Aplicación al Análisis de Sistemas de Potencia 44

Esta matriz es almacenada en la forma indicada previamente. El proceso de


eliminación requiere determinar y registrar la secuencia del orden dinámico de eliminación de
las columnas o filas, basado en el menor número de elementos no-nulos en cualquier
columna. Por lo tanto, es necesario un nuevo arreglo en el cual el orden de eliminación
deducido durante la eliminación es registrado. Este arreglo podría ser llamado NORD
(secuencia numérica del orden de eliminación). Para separar el proceso de almacenamiento
en forma compacta del proceso de simulación del orden de eliminación, es necesario formular
esos vectores en subrutinas independientes.

Inicialmente, como no se ha llevado a cabo ningún paso lógico para determinar el


orden de la eliminación, los elementos del vector NORD pueden, si es requerido, ser igualados
cero, tal como se indica a continuación:

U/Memoria 1 2 3 4 5 6 *7 8 *9 10
Valor -1.0 -1.0 -1.0 -1.0 -1.0 -1.0 . . . .
IROW 2 3 1 1 4 3
NEXT 2 0 0 5 0 0 8 9 10 0

U/Memoria 1 2 3 4
DIAG 3.0 2.0 2.0 1.0
ICAP 1 3 4 6
NOZE 2 1 2 1
NORD 0 0 0 0

El primer paso del proceso de eliminación consiste en encontrar la primera


columna pivote. Esta es determinada chequeando los elementos del vector NOZE (Número
de elementos no-nulos en cada columna) para detectar el menor valor.

Para el ejemplo considerado, NOZE(2)=1 y NOZE(4)=1 indicando que tanto la


columna 2 y 4, tienen solamente un elemento no-nulo en la diagonal secundaria . Por lo tanto,
cualquiera puede ser seleccionado como columna pivote. En este ejemplo se seleccionará,
arbitrariamente la columna 2 y como esta columna y la fila correspondiente serán eliminadas
en el proceso de factorización, el entero 1 es insertado en NORD (2). La segunda tabla resulta
en:

U/Memoria 1 2 3 4
DIAG 3.0 2.0 2.0 1.0
ICAP 1 3 4 6
NOZE 2 1 2 1
NORD 0 1 0 0

La columna siguiente a ser seleccionada como pivote usando ordenamiento


dinámico depende del número de elementos no-nulos en cada columna de la matriz reducida
Matrices y su Aplicación al Análisis de Sistemas de Potencia 45

después de eliminar la columna 2 y la fila 2. El número de elementos no-nulos podría ser


diferentes debido a nuevos elementos generados durante los diferentes pasos del proceso de
reducción. Por lo tanto, el paso siguiente es simular el proceso de reducción debido a la
eliminación de la columna 2 y la fila 2.

En el proceso de simulación, los valores numéricos de los elementos no-nulos no


son importantes. El requerimiento es encontrar la posición de todos de los elementos no-
nulos.

Antes del primer paso de reducción, la estructura rala de la matriz es:

𝑥 𝑥 𝑥 .
𝑥 𝑥 . .
[ ]
𝑥 . 𝑥 𝑥
. . 𝑥 𝑥

En donde se indica la columna y la fila a ser eliminada primero.


Haciendo referencia a la técnica de eliminación de Gauss, el método de
factorización descrito previamente, el lector podrá verificar que al eliminar la columna 2 y la
fila 2 no serán creados nuevos elementos no-nulos y solamente el elemento 𝑎11 será
cambiado. Por lo tanto, la nueva matriz reducida será:

𝑥 . 𝑥 .
. 1 . .
[ ]
𝑥 . 𝑥 𝑥
. . 𝑥 𝑥
Los pasos lógicos involucrados en este proceso podrían ser simulados utilizando
la técnica siguiente:
A partir de la segunda tabla, el primer elemento de la columna pivote corresponde
a la posición ICAP(2)=3, es decir, la localidad 3 de la primera tabla.
El índice de fila de este elemento es IROW(3)=1, lo cual significa la fila 1 de la
matriz. Ya que NEXT(3)=0, existe solamente un elemento no-nulo en la diagonal secundaria
(𝑎12 ) en la columna 2, lo cual es confirmado por el valor de NOZE(2)=1.
Debido a que el resto de los elementos de la diagonal secundaria en la columna y
fila pivote son cero, el primer paso de reducción afecta el valor del elemento 𝑎11 solamente.
Matrices y su Aplicación al Análisis de Sistemas de Potencia 46

Ya que existe actualmente un elemento en esta posición, DIAG(1), este primer paso no
introduce nuevos elementos no-nulos.
En este punto es necesario considerar otro aspecto el cual es útil realizar durante
el proceso de simulación. Durante el proceso de factorización, los valores numéricos y la
indexación de cualquier elemento no-cero debe ser almacenado. Esto puede ser logrado en
el instante apropiado por medio de la lista contenida en el arreglo NEXT.
Durante el proceso de simulación, no obstante, todos los elementos no-ceros son
detectados, aunque sus valores numéricos sean desconocidos. Por lo tanto, para reducir el
tiempo de factorización, la detección de una localidad de memoria cualquiera puede ser
determinada durante este proceso. Esto resulta ser computacionalmente más eficiente ya que,
los nuevos elementos no-ceros pueden ser insertados en localidades predeterminadas sin
esfuerzo adicional.
Durante el proceso de factorización, los elementos no-ceros de la columna y fila
pivote son eliminados de la matriz, tal como se muestra en la matriz reducida; la información
relevante contenida en esta fila y columna es incorporada en alguno de los factores
matriciales. En términos del esquema de almacenamiento, los elementos de los factores
matriciales pueden ser almacenados en las unidades de memoria previamente ocupados por
los elementos de la matriz de coeficientes. No obstante, para matrices simétricas solamente
los factores matriciales del lado izquierdo producidos durante el proceso de bi-factorización
requieren ser almacenados. También, como las columnas y las filas de la matriz de
coeficientes son idénticas, los factores matriciales de la izquierda pueden ser determinados
bien a partir de la columna o fila en particular; consecuentemente la fila puede ser eliminada
de la memoria de tal manera que las localidades vacantes se utilizarían para almacenar
nuevos elementos no-ceros.
De lo anterior es posible explicar cómo las tablas anteriores pueden ser
modificadas para simular el proceso de reducción.
Primero, considere la primera tabla y recuerde que la columna 2 fue utilizada como
columna pivote. Buscando a través del arreglo IROW, todos los elementos no-ceros en la fila
2 pueden ser eliminados. En este caso solamente un elemento es encontrado en la localidad
1. Esta unidad de memoria, ahora es libre y puede ser utilizada para almacenar un nuevo
elemento no-cero. El identificador de una posición o unidad libre es reubicado a la posición 1.
También, el valor de NEXT(1) es fijado igual a 7, indicando la primera .localidad de memoria
libre, anterior a este paso. Todos los demás valores permanecen iguales.
Ahora consideremos la segunda tabla. Como los elementos de la fila 2, es decir,
localidad 1 de la primera tabla, han sido eliminados, el índice ICAP(1) debe ser modificado.
Matrices y su Aplicación al Análisis de Sistemas de Potencia 47

Este ahora, debe referir al siguiente elemento no-nulo en la columna 1, es decir, el elemento
localizado en la unidad dos de la primera tabla. Este es determinado a partir de NEXT(1),
siendo NEXT(1)=2. Por lo tanto, ICAP(1) sería igual a dos. Similarmente, ya que el proceso
de simulación ha detectado que un elemento ha sido eliminado de la columna 1, el valor de
NOZE(1) debe también ser modificado, de tal manera que ahora NOZE(1)=1.
Después de estas modificaciones, las dos tablas resultantes se muestran a
continuación:

U/Memoria *1 2 3 4 5 6 7 8 *9 10
Valor . -1.0 -1.0 -1.0 -1.0 -1.0 . . . .
IROW . 3 1 1 4 3 . . . .
NEXT 7 0 0 5 0 0 8 9 10 0

U/Memoria 1 2 3 4
DIAG 3.0 2.0 2.0 1.0
ICAP 2 3 4 6
NOZE 1 1 2 1
NORD 0 1 0 0

El proceso anterior puede ser repetido para determinar la siguiente fila y columna
a ser eliminada y así, simular todos los pasos, antes indicados, del proceso de reducción.
Buscando en el arreglo NOZE en la segunda tabla se encuentra que tanto la
columna 1 como la columna 4 pueden ser utilizadas como columna pivote. Seleccionando la
columna 1 como pivote produce una matriz reducida tal como se muestra a continuación:

𝑥 . 𝑥 . 1 . . .
. 1 . . . 1 . .
[ ] → [ ]
𝑥 . 𝑥 𝑥 . . 𝑥 𝑥
. . 𝑥 𝑥 . . 𝑥 𝑥
Aplicando los principios descritos anteriormente puede ser simulada esta
segunda reducción. A continuación se muestran las nuevas tablas generadas:
U/Memoria 1 2 3 *4 5 6 7 8 9 10
Valor . -1.0 -1.0 . -1.0 -1.0 . . . .
IROW . 3 1 . 4 3 . . . .
NEXT 7 0 0 1 0 0 8 9 10 0

U/Memoria 1 2 3 4
DIAG 3.0 2.0 2.0 1.0
ICAP 2 3 5 6
NOZE 1 1 1 1
NORD 2 1 0 0
Matrices y su Aplicación al Análisis de Sistemas de Potencia 48

Repitiendo el proceso anterior una vez más y utilizando, ahora, la columna 3


como pivote, se obtiene el tercer paso de la simulación del proceso de reducción, es decir:

U/Memoria 1 2 3 4 5 *6 7 8 9 10
Valor . -1.0 -1.0 . -1.0 . . . . .
IROW . 3 1 . 4 . . . . .
NEXT 7 0 0 1 0 4 8 9 10 0

U/Memoria 1 2 3 4
DIAG 3.0 2.0 2.0 1.0
ICAP 2 3 5 0
NOZE 1 1 1 0
NORD 2 1 3 4

En la última tabla, al arreglo NORD(4) se le puede asignar directamente 4, ya que


la columna 4 representa la última columna a ser seleccionada como pivote. También, el valor
de ICAP(4) será igual a cero, .lo cual indica que después del tercer paso de reducción, en la
columna 4 no hay elementos no-nulos fuera de la diagonal principal. Esto es confirmado por
el valor de NOZE(4) el cual es igual a cero.

Por lo tanto, el cuarto y último paso del proceso de reducción no puede generar
nuevos elementos no-nulos y solo podrá afectar el valor del elemento de la diagonal principal.
En consecuencia las dos últimas tablas representan la simulación completa del
proceso de factorización y el orden dinámico del proceso de eliminación, igualmente muestra
el número y la posición de los elementos no-nulos.
En este proceso de simulación solamente han sido ejecutados una serie de pasos
lógicos, usando enteros, para determinar el orden de eliminación más conveniente, sin
ejecutar alguna operación aritmética. Menor esfuerzo computacional puede ser logrado si en
un determinado paso de reducción, todas las columnas con el mismo número mínimo de
elementos no-nulos son seleccionadas en forma natural ascendente.

1.11.3.- FACTORIZACIÓN DE LA MATRIZ

Apliquemos ahora los principios involucrados en el proceso de simulación a la


factorización de la matriz. Esto resulta relativamente simple, si se utiliza el orden de
eliminación determinado durante la simulación y se procesan solamente los elementos no-
nulos. En el proceso de factorización solamente existen dos aspectos a determinar: los
elementos correspondientes al factor matricial de la izquierda o el factor matricial inferior y los
nuevos valores de los elementos de la matriz de coeficientes reducida. Esos valores son
calculados utilizando las ecuaciones del método de eliminación de Gauss descritas en el
método de bi -factorización.
Matrices y su Aplicación al Análisis de Sistemas de Potencia 49

En el primer paso del proceso de reducción, solamente necesitan ser calculados


tres valores, los cuales son los siguientes:

1 1
𝑙22 = = (almacenado en el lugar de a22 )
𝑎22 2
𝑎12 1
𝑙12 = − = (almacenado en el lugar de a12 )
𝑎22 2

𝑎12 𝑎21 5
𝑎11 = 𝑎11 − = (almacenado en el lugar de a11 )
𝑎22 2

Después de este paso de reducción, el primer factor matricial de la izquierda y la


matriz de coeficiente reducida es:

1
1 . . 5
2 . −1 .
1 2
. . . . 1 . .
2 −1 . 2 −1
. . 1 .
[ . . −1 .]
[. . . 1]
Factor Matricial Izquierdo Matriz reducida

Estos pasos pueden ser computacionalmente ejecutados en la forma siguiente: a


partir de NORD, la primera columna a ser eliminada es la columna 2, ya que NORD(2)=1. Este
determina el elemento pivote, DIAG(2), y así el elemento 𝑙22 del factor matricial de la izquierda
puede ser calculado. A partir de NEXT(3)=0, en la columna 2 no existen otros elementos no-
nulos en las diagonales secundarias y en consecuencia el único elemento afectado en la
matriz reducida es el elemento localizado en la fila 1 y columna 1, es decir, 𝑎11 y por lo tanto
´′
el nuevo elemento 𝑎11 puede ser calculado.

Después de este paso de reducción, los valores de los elementos almacenados


en las dos tablas son:

U/Memoria 1 2 3 4 5 *6 7 8 9 10
Valor . -1.0 0.5 . -1.0 . . . . .
IROW . 3 1 . 4 . . . . .
NEXT 7 0 0 1 0 4 8 9 10 0

U/Memoria 1 2 3 4
DIAG 2.5 0.5 2.0 1.0
ICAP 2 3 5 0
NOZE 1 1 1 0
NORD 2 1 3 4
Matrices y su Aplicación al Análisis de Sistemas de Potencia 50

Utilizando los mismos principios para el segundo y tercer paso de reducción se


obtienen las tablas siguientes:
Segundo paso de reducción:

U/Memoria 1 2 3 4 5 *6 7 8 9 10
Valor . 0.4 0.5 . -1.0 . . . . .
IROW . 3 1 . 4 . . . . .
NEXT 7 0 0 1 0 4 8 9 10 0

U/Memoria 1 2 3 4
DIAG 0.4 0.5 1.6 1.0
ICAP 2 3 5 0
NOZE 1 1 1 0
NORD 2 1 3 4

Tercer paso de reducción:

U/Memoria 1 2 3 4 5 *6 7 8 9 10
Valor . 0.4 0.5 . 0.625 . . . . .
IROW . 3 1 . 4 . . . . .
NEXT 7 0 0 1 0 4 8 9 10 0

U/Memoria 1 2 3 4
DIAG 0.4 0.5 0.626 0.375
ICAP 2 3 5 0
NOZE 1 1 1 0
NORD 2 1 3 4

Para el cuarto y último paso de reducción las tablas resultantes son:

U/Memoria 1 2 3 4 5 *6 7 8 9 10
Valor . 0.4 0.5 . 0.625 . . . . .
IROW . 3 1 . 4 . . . . .
NEXT 7 0 0 1 0 4 8 9 10 0

U/Memoria 1 2 3 4
DIAG 0.4 0.5 0.626 2.66
ICAP 2 3 5 0
NOZE 1 1 1 0
NORD 2 1 3 4

1.11.4.- SOLUCIÓN DEL SISTEMA DE ECUACIONES LINEALES POR

MEDIO DEL METODO DE BIFACTORIZACIÓN

Con la información almacenada, todos los factores matriciales, tanto de la derecha


como de la izquierda pueden ser obtenidos, y la solución de la ecuación 𝐴𝑋 = 𝐵 puede ser
Matrices y su Aplicación al Análisis de Sistemas de Potencia 51

calculada. También, resulta evidente que si una nueva matriz teniendo la misma estructura
rala requiere ser Factorizada, los valores de los elementos de los arreglos VALUE y DIAG
pueden ser redefinidos y la factorización repetida utilizando el mismo orden encontrado para
la eliminación durante el proceso de simulación.
Consideremos ahora los principios básicos involucrados en la utilización de la
información almacenada en las tablas anteriores para resolver un conjunto de ecuaciones
lineales simultáneas. Resulta ventajoso formular esta parte del programa como una subrutina
independiente, de tal manera que las ecuaciones puedan ser resueltas para la misma matriz
de coeficientes factorizada pero con diferentes vectores 𝐵.

Ejemplo 1.13:
Para ilustrar estos principios, consideremos la solución de la ecuación matricial
siguiente:
3.0 −1.0 −1.0 . 𝑥1 1
−1.0 2.0 . . 𝑥2
[ . ] [𝑥 ] = [1]
−1.0 2.0 −1.0 3 1
. . −1.0 1.0 𝑥4 1

Utilizando los elementos de la diagonal principal como pivotes en el orden 2,1,3 y


4 y el método de bifactorización se obtiene la solución siguiente:

. . . . . .
𝑥1 1 . 1 1 2⁄5 . 1 . 1 .
1⁄ 1 . . . . . .
𝑥2
[𝑥 ] = [ 2 ][. 1 . . ][. 1 . 1
. . . . 1 5⁄ ] [ . . 1 . ]
3 1 . . . 1 . 8 . .
𝑥4 . . . 1 . . . 1
. .
. 1 . 8⁄3

𝑅1 𝑅2 𝑅3 𝐿4
7
. . 3
1 . 2⁄ . . 1 1⁄2 . . 1 5
. 1 . . 5 .
5 . 1 . . . 1⁄ . . [1] = 3
. . ⁄8 . 2 2 1 13
. . 5 ⁄5 . 1 . . . 1 .
⁄ 1] [ . . . 1] [ . . 1 3
[ 8 . 1]
10
[3]
𝐿3 𝐿2 𝐿1 𝐵 𝑋

La misma secuencia de multiplicaciones puede ser efectuada utilizando los


resultados del último conjunto de tablas, de la forma siguiente:

Consideremos la multiplicación de 𝐿1 𝐵
Matrices y su Aplicación al Análisis de Sistemas de Potencia 52

A partir del arreglo NORD, el primer elemento seleccionado como pivote fue 𝑎22 ,
luego a partir de DIAG (2), se obtiene:

𝑎22 = 0.5
𝑏2′ = 𝑎22 𝑏2 = 0.5 × 1 = 0.5

A partir de ICAP(2), el primer elemento no-nulos fuera de la diagonal principal


esta en la localidad 3 de la primera tabla, siendo VALOR(3)=0.5. A partir de IROW (3), este
elemento está en la fila 1, es decir, el elemento 𝑎12 . Por lo tanto, se obtiene:

𝑏1′ = 𝑏1 + 𝑎12 𝑏2
= 1 + (0.5 × 1) = 1.5

A partir de NEXT (3), se puede determinar que no existen otros elementos no-
nulos fuera de la diagonal principal, y por lo tanto los otros elementos de 𝐵 permanecen
inalterados.
Estos pasos lógicos dan los resultados siguientes:

1 0.5 . . 1 1.5
. . 1
𝐿1 𝐵 = [ .. 0.5
. ] [ ] = [0.5]
1 . 1 1
. . . 1 1 1

Este proceso puede secuencialmente ser continuado en el orden dado en NORD


hasta que todos los factores matriciales de la izquierda han sido utilizados, es decir,
𝐿1 , 𝐿2 , 𝐿3 𝑦 𝐿4 . El mismo principio aplica cuando se multiplica por 𝑅 3 , 𝑅 2 𝑦 𝑅1 , como esos
factores no son almacenados explícitamente, resulta útil indicar el cambio en la identificación
de ellos. No es necesario multiplicar por 𝑅 4 porque esta es una matriz unidad.
Para ilustrar esos aspectos, consideremos la multiplicación de:
𝐿4 𝐿3 𝐿2 𝐿1 𝐵 = 𝐵′
Y la multiplicación de:
𝑅 3 𝐵′ = 𝐵 ′′
La cual en forma matricial es:
3⁄ 3⁄
1 . . . 5 5
. 1 . . 1⁄ 1⁄
[. 2 = 2
. 1 5⁄ ] 13⁄
8 1 3
. .
. 1 [16⁄ ] 16
3 [ ⁄3]
𝑅3 𝐵′ 𝐵 ′′
Matrices y su Aplicación al Análisis de Sistemas de Potencia 53

Este proceso puede computacionalmente ser ejecutado de la forma siguiente:


Los elementos a ser considerados son los indexados por NORD(3). A partir de
ICAP(3), el primer elemento es encontrado en la localidad 5 de la primera tabla, y a partir de
NEXT(5), existe solamente un elemento fuera de la diagonal principal. La única diferencia
importante en la interpretación de la posición de este elemento respecto a lo discutido
anteriormente es que IROW(5)=4 indica el elemento en la columna 4 en vez de la fila 4, es
decir, el elemento en cuestión es 𝑎34 y no 𝑎43 . Por lo tanto, a partir de VALOR(5), se obtiene:

𝑎34 = 0.625, y
𝑏3′′ = 𝑏3′ + 𝑎34 𝑏4′ = 1 + (0.625 × 5.3333) = 4.3333 = 13⁄3
El proceso puede, entonces, ser continuado en el orden inverso dado por NORD
hasta que el último factor matricial de la derecha ha sido utilizado y la solución final es
obtenida.

1.12.- SOLUCIÓN DE PROBLEMAS DE REDES GRANDES


CON MATRICES DE COEFICIENTES RALAS [6-9]

Resulta evidente, para cualquiera, los diferentes aspectos


involucrados en el análisis de problemas de redes muy grandes con matrices de coeficientes
ralas; las ecuaciones que describen el problema deben ser formuladas, la secuencia de la
eliminación debe ser definida, la matriz de coeficientes factorizada y finalmente el problema
debe ser numéricamente resuelto. Esos aspectos pueden ser incluidos en un programa
general o tratado y programado en subrutinas separadas, lo cual ofrece ventajas relevantes.

En general, los problemas prácticos pueden ser clasificados en tres categorías,


los cuales se indican a continuación:

a) Una solución simple de la ecuación 𝐴𝑋 = 𝐵 es requerida para una matriz de


coeficientes 𝐴 dada y un vector 𝐵 dado.
b) Diferentes soluciones son requeridas para una matriz de coeficientes dada y diferentes
vectores 𝐵.
c) Diferentes soluciones son requeridas para diferentes matrices de coeficientes con la
misma estructura rala y diferentes valores numéricos.

Resulta evidente, de todo lo visto previamente, que la programación de las


técnicas de matrices ralas puede ser relativamente complicada y en consecuencia debería ser
ejecutado en la forma más eficiente posible. Es necesario, por lo tanto, organizar el programa
de tal forma que las soluciones a los diferentes grupos de problemas puedan ser encontradas
Matrices y su Aplicación al Análisis de Sistemas de Potencia 54

sin tantos cálculos repetitivos innecesarios. Por ejemplo, cuando la solución es requerida para
diferentes vectores independientes, B, la misma matriz factorizada puede ser utilizada.
Similarmente, cuando diferentes soluciones son requeridas con diferentes matrices de
coeficientes teniendo la misma estructura rala, la secuencia original de eliminación
previamente encontrada durante el proceso de simulación puede ser utilizada para todas las
soluciones requeridas.

A partir de esta discusión se puede observar que el problema global debe ser
convenientemente subdividido en diferentes subproblemas, es decir, almacenamiento
compacto, simulación del orden de eliminación, factorización y solución, tal como fue discutido
previamente, lo cual permite alcanzar la suficiente flexibilidad.

Los principios básicos involucrados en las cuatro subproblemas son los siguientes:

a) Almacenamiento Compacto
Esto involucra la obtención de los elementos no-nulos de la matriz de coeficientes a
partir de la información básica de la red y el almacenamiento de ellos en forma
compacta. Ya que solamente los elementos no-nulos son almacenados y no la matriz
completa, es necesario incorporar un esquema de direccionamiento muy eficiente para
localizar e identificar cada elemento, minimizando la memoria adicional requerida.
b) Simulación del Orden de Eliminación
En esta subrutina se establece el orden de eliminación. Utilizando un esquema de
ordenamiento dinámico podemos simular el efecto de la característica rala del sistema
en la eliminación antes de efectuar las operaciones aritméticas. El tiempo extra
empleado en el proceso de simulación resulta de un gran valor ya que una vez
establecido el orden de eliminación, este permanece inmodificable para cualquier
problema teniendo la misma estructura rala. De esta manera, para aquellos problemas
que requieren una solución iterativa, aunque los coeficientes podrían cambiar
numéricamente de una iteración a otra, la estructura rala puede permanecer
inalterada. Para problemas como estos, es solamente necesario factorizar la matriz en
cada iteración, utilizando el orden de eliminación obtenido en el proceso inicial de
simulación.
c) Factorización
En esta subrutina se factoriza la matriz de coeficientes de acuerdo a cualquiera de los
esquemas de factorización considerados previamente utilizando el orden de
eliminación determinado durante el proceso de simulación. Las operaciones son
Matrices y su Aplicación al Análisis de Sistemas de Potencia 55

realizadas solamente utilizando los elementos no-nulos y solamente los elementos no-
nulos de la matriz son almacenados. Para matrices de coeficientes simétricas,
utilizando el método de bi factorización o uno de los métodos de descomposición
triangular, solamente los elementos no-nulos del factor matricial de la izquierda o de
la matriz triangular inferior necesitan ser almacenados, lo cual reduce el requerimiento
de memoria aproximadamente en la mitad.
d) Solución Numérica
Este es el paso final del proceso de cálculo y consiste en la determinación de los
valores numéricos de las variables desconocidas utilizando los factores matriciales y
el vector 𝐵 de la ecuación original. Separando este proceso de los considerados
previamente es posible resolver la ecuación básica para diferentes vectores 𝐵 de una
manera muy sencilla.

Para cada sub problema se ha escrito una subrutina en lenguaje FORTRAN las
cuales son denominadas:

- ACDM (Almacenamiento Compacto de Matrices),

- OODM (Orden Optimo del Proceso de Eliminación),

- FDM (Factorización de Matrices, según el Método de Bifactorización),

- SSEL (Solución utilizando el Algoritmo de Eliminación de Gauss)

Utilizando esta secuencia de subrutinas, se obtiene los diagramas de flujo


mostrados en la figura No. 1.4., para los diferentes problemas planteados.

Datos Datos Datos


Entrada Entrada Entrada

Compactación Compactación
Compactación

Simulación Simulación Simulación


Matrices y su Aplicación al Análisis de Sistemas de Potencia 56

Factorización Factorización Factorización

Solución Solución Solución

Todas las Sol? Todas las Sol?


no no
si si

Final Final Final

(a) (b) (c) Commented [M1]:


Commented [EM2R1]:
Figura No 1.4 Commented [EM3R1]:
Diagrama de Flujo Típicos para Análisis de Problemas de Redes [6]

(a) Solución Simple

(b) Solución Múltiple con Diferentes Vectores B

(c) Solución Múltiple con Diferentes Matrices de Coeficientes con la misma Estructura
Rala.

Ejemplo 1.14:

Dado el siguiente circuito:


Matrices y su Aplicación al Análisis de Sistemas de Potencia 57

Determinar las tensiones en los nodos utilizando el método nodal y aplicando en


la solución del sistema de ecuaciones independientes:

a) El método de eliminación de Gauss.

b) El método de triangularización LU

c) El método de triangularización LDU

d) El método de transformación RL o Bifactorización

e) Técnicas de matrices ralas (almacenamiento compacto de la matriz de admitancia,


simulación del proceso de eliminación, Bifactorización y solución por sustitución hacia
atrás)

Solución:

e) Utilizando el método nodal, las técnicas de matrices ralas previamente estudiadas


(almacenamiento compacto de la matriz de admitancia, simulación del proceso de
eliminación, y solución por sustitución hacia atrás) y el método de bifactorización, se
obtiene:

- Ecuación nodal que describe el comportamiento de la red eléctrica dada:

0.139 −0.083 . 𝑉1 −4
[−0.083 0.246 −0.125] [𝑉2 ] = [−2]
. −0.125 0.188 𝑉3 2

- ALMACENAMIENTO COMPACTO DE LA MATRIZ

U/Memoria 1 2 3 4 5* 6 7 8 *9 10
Valor -0.083 -0.083 -0.125 -0.125 - - - - . .
IROW 2 1 3 2 - -
NEXT 0 3 0 0 0 0 8 9 10 0

U/Memoria 1 2 3 4

DIAG 0.139 0.246 0.188 -


ICAP 1 2 4 -
NOZE 1 2 1 -
NORD 0 0 0 -

- SIMULACIÓN DEL PROCESO DE ELIMINACIÓN


Matrices y su Aplicación al Análisis de Sistemas de Potencia 58

- De la tabla, se obtiene: NOZE(1)=1, NOZE(3)=1. A partir de estos valores tanto la


columna (1) como la (3) pueden ser seleccionadas como columna pivote.

- Se selecciona la columna (1) como la columna pivote. Para ello se inserta el entero (1)
en el arreglo NORD(1), es decir: NORD(1)=1 y la tabla (2) se modifica como se indica
a continuación:

U/Memoria 1 2 3 4
DIAG 0.139 0.246 0.188 -
ICAP 1 2 4 -
NOZE 1 2 1 -
NORD 1 0 0 -

- La siguiente columna pivote se obtiene después de eliminar la columna y la fila (1),


seleccionando siempre la columna con el menor número de elementos no-nulos fuera
de la diagonal principal.

- Eliminación de la columna (1) y la fila (1):


El número de elementos no-nulos fuera de la diagonal principal en la columna (1), se
obtiene a partir de ICAP(1)=1, que indica que el primer elemento no-nulo se localiza
en la u/memoria (1) de la tabla (1). El índice de fila de este elemento es IROW(1)=2,
indicando que pertenece a la fila 2 de la matriz. Como NEXT(1)=0, significa que
solamente existe un elemento no-nulo en la columna (1), lo cual también es confirmado
a partir de NOZE(1)=1.

- Debido a que el resto de los elementos fuera de la diagonal principal en la columna


pivote son ceros, el primer paso de reducción solo afecta elemento a22 , no
introduciendo nuevos elementos no-nulos ya que actualmente existe un elemento en
esa posición, es decir, DIAG(2)=a22.

- Modificación de las tablas (1) y (2) para la simulación del proceso de reducción:

- Para la columna (1) como pivote, todos los elementos no-nulos en la fila (1) detectados
por medio del índice IROW, pueden ser eliminados. En este caso, solamente un
elemento es encontrado en la u/memoria (2) de la tabla (1).

- Esta u/memoria, ahora, es libre y puede ser utilizada para almacenar un nuevo
elemento no-cero. De esta manera, el identificador de la primera u/memoria libre es
reubicad a la posición (2).

- Así, se obtienen las tablas (3) y (4):


Matrices y su Aplicación al Análisis de Sistemas de Potencia 59

U/Memoria 1 2* 3 4 5 6 7 8 *9 10
Valor -0.0881 - -0.125 -0.125 - - - - . .
IROW 2 - 3 2 - -
NEXT 0 5 0 0 0 0 8 9 10 0

U/Memoria 1 2 3 4
DIAG 0.139 0.246 0.188 -
ICAP 1 3 4 -
NOZE 1 1 1 -
NORD 1 2 0 -

- El proceso anterior puede ser repetido para eliminar la siguiente fila y columna del
proceso de reducción. En este caso se selecciona la columna (2) como pivote para la
cual se obtiene el índice NOZE(2)=1.

- En este caso todos los elementos no-nulos de la fila (2), pueden ser eliminados. De
acuerdo al índice IROW el elemento IROW(4)=2, perteneciente a la columna (3),
puede ser eliminado, obteniéndose las tablas modificadas (5) y (6) respectivamente,
donde en la tabla (6) el índice NORD(2) pasa a ser (2) y el NORD(3) pasa a ser (3),
definiendo de esta manera el orden de eliminación de las columnas y filas de la matriz
y donde el indicador de la primera u/memoria libre es reubicado a la u/memoria (4).

U/Memoria 1 2 3 4* 5 6 7 8 *9 10
Valor -0.0881 - -0.125 - - - - - . .
IROW 2 - 3 - - -
NEXT 0 5 0 2 0 0 8 9 10 0

U/Memoria 1 2 3 4
DIAG 0.139 0.246 0.188 -
ICAP 1 3 0 -
NOZE 1 1 0 -
NORD 1 2 3 -

- FACTORIZACION DE LA MATRIZ (METODO DE BIFACTORIZACION)

- Primer Paso de Reducción:

En el primer paso de reducción es necesario calcular los siguientes valores:

1 1
𝑙11 = = = 7.194
𝑎11 0.139
𝑎21 −0.081
𝑙21 = − =− = 0.589
𝑎11 0.139
Matrices y su Aplicación al Análisis de Sistemas de Potencia 60

´
𝑎21 × 𝑎12 0.081 × 0.083
𝑎22 = 𝑎22 − = 0.246 − = 0.1976
𝑎11 0.139

7.194 . . 1 . .
𝑙1 = [0.583 1 . ] 𝐴1 = [ . 0.1976 −0.125]
. . 1 . −0.125 0.188

- A partir de NORD, la primera columna a ser eliminada es la número (1), por lo tanto el
pivote requerido es DIAG(1)=0.139 y el elemento l11 puede ser calculado.

- El primer elemento no-cero fuera de la diagonal principal es determinado a partir de


ICAP(1)=1 y VALOR(1)=-0.081.

- El elemento l21 del factor matricial puede, ahora, ser calculado. Como NEXT(1)=0, no
existen otros elementos no-ceros fuera de la diagonal principal en la columna (1), de
tal manera que el único elemento afectado es el a22 . Por lo tanto, el nuevo valor a22’
puede ser calculado a partir de:

´
𝑎21 × 𝑎12 0.081 × 0.083
𝑎22 = 𝑎22 − = 0.246 − = 0.1976
𝑎11 0.139

- Para el primer paso de reducción, las tablas modificadas (7) y (8) se muestran a
continuación:

U/Memoria 1 2 3 4* 5 6 7 8 *9 10
Valor 0.583 - -0.125 - - - - - . .
IROW 2 - 3 - - -
NEXT 0 5 0 2 0 0 8 9 10 0

U/Memoria 1 2 3 4
DIAG 7.44 0.1976 0.188 -
ICAP 1 3 0 -
NOZE 1 1 0 -
NORD 1 2 3 -

Segundo Paso de Reducción:

- A partir del arreglo NORD, la segunda columna a ser eliminada es la columna (2).

- El pivote seleccionado es DIAG(2)=0.1976 y elemento l22 del factor matricial L2 puede


ser calculado, a partir de:
1
𝑙22 = = 5.061
0.1976
Matrices y su Aplicación al Análisis de Sistemas de Potencia 61

- A partir ICAP(2)=3, el primer elemento no-cero es localizado en la u/memoria (3) de la


tabla (7) y tiene un valor determinado por VALOR(3)=-0.125 y como IROW(3)=3, el
elemento l32 puede ser calculado a partir de :

𝑎32 −0.125
𝑙32 = − =− = 0.633
𝑎22 0.1976

- Como NEXT(3)=0, no existen otros elementos no-ceros en la columna (2), por lo que
en la matriz reducida el único elemento afectado es el a33 , el cual puede, ahora, ser
calculado a partir de:

´
𝑎32 × 𝑎23 −0.125 × −0.125
𝑎33 = 𝑎33 − = 0.188 − = 0.109
𝑎22 0.1976

- Las tablas modificadas 9 y 10 se indican a continuación:

U/Memoria 1 2 3 4* 5 6 7 8 *9 10
Valor 0.583 - 0.633 - - - - - . .
IROW 2 - 3 - - -
NEXT 0 5 0 2 0 0 8 9 10 0

U/Memoria 1 2 3 4
DIAG 7.44 5.061 0.109 -
ICAP 1 3 0 -
NOZE 1 1 0 -
NORD 1 2 3 -

- Finalmente, la última columna pivote seleccionada es la (3), por lo tanto el elemento


pivote es obtenido a partir de DIAG(3)=0.109, a partir del cual es calculado el elemento
l33 del factor matricial L3 por medio de:

1
𝑙33 = = 9.174
0.109

- Como ICAP(3)=0, no existen otros elementos no-nulos en la columna (3), de tal


manera que la nueva tabla modificada (11) es indicada a continuación:

U/Memoria 1 2 3 4
DIAG 7.44 5.061 9.174 -
ICAP 1 3 0 -
NOZE 1 1 0 -
NORD 1 2 3 -

- PROCESO DE SOLUCIÓN (MÉTODO DE BIFACTORIZACIÓN)


Matrices y su Aplicación al Análisis de Sistemas de Potencia 62

- Utilizando los elementos de la diagonal principal como pivotes, en el orden 1, 2 y 3,


determinado por el proceso de simulación y el método de Bifactorización, la siguiente
ecuación solución puede ser obtenida:

𝑉 = 𝑅1 𝑅2 … . 𝑅 𝑛−1 𝐿𝑛 𝐿𝑛−1 … . 𝐿2 𝐿1 𝐼

1 0.583 . 1 . . 1 . . 1 . . 7.194 . . −4
[. 1 .][. 1 0.633] [ . 1 . ] [ . 5.061 . ] [0.583 1 . ] [−2] =
. . 1 . . 1 . . 9.174 . 0.633 1 . . 1 2
−45.05
[−26.23]
−6.87

- Esta secuencia de multiplicaciones puede ser realizada a partir del último conjunto de
tablas, como se indica a continuación:
- Consideremos la multiplicación de L1xb:
- A partir de NORD, el primer elemento seleccionado como pivote es el a11 .
- A partir de DIAG(2), a11 =7.44 y el nuevo elemento b1´ es determinado a partir de:
b1´=a11 x b1 =7.44x(-4) = -29.76.
- A partir de ICAP(1)=1, el primer elemento no-nulo fuera de la diagonal principal esta
en la u/memoria (1) de la tabla (9), con VALOR(1)=0.583, este elemento pertenece a
la fila (2) y es identificado como el elemento a21. El nuevo elemento b2’ es obtenido a
partir de:
b2’ = b2 +a21xb1 = -2 + 0.583x(-4) = -4.332
- A partir de NEXT(1)=0, se determina que no existen más elementos no-nulos fuera de
la diagonal principal en la columna (1). Por lo tanto, el resto de los elementos del vector
b no cambian.
- Estos pasos lógicos muestran que:
7.194 . . −4 −29.76
L1 x b = [0.583 1 . ] [−2] = [ −4.33 ]
. . 1 2 2
- Este proceso es continuado secuencialmente en el orden dado por NORD, hasta que
todos los factores matriciales de la izquierda han sido utilizados.
- Los mismos principios aplican cuando multiplicamos por R2 y R1, pero como esos
factores no son almacenados explícitamente, es útil considerar los cambios en
identificación. Puede observarse, que no es necesario multiplicar por R3 , debido a que
esta es la matriz unidad.
- Para ilustrar este punto, podemos partir de la multiplicación de:
Matrices y su Aplicación al Análisis de Sistemas de Potencia 63

−29.76
L3 x L2 x L1 x b = b’ = [−21.92]
−6.81

- Consideremos, ahora, la multiplicación de:

R2 x b’ = b’’

1 . . −29.76 −29.76
[. 1 0.633] [−21.92] = [−26.23]
. . 1 −6.81 −6.81
R2 b’ b’’

- Este proceso puede ser realizado computacionalmente como sigue:


Los elementos a ser considerados son los indexados por NORD(2).
- A partir de ICAP(2)=3, el primer elemento fuera de la diagonal principal es dado en la
u/memoria (3) de la tabla (9) y tiene un valor determinado por VALOR(3)=0.633 y como
NEXT(3)=0, existe solamente un elemento no-nulo fuera de la diagonal principal en la
fila (3) (IROW(3)=3). Esto indica que el
- elemento a identificar pertenece a la columna (3) en lugar de la fila (3) y será
identificado como el a23 en lugar del a32 ,con un valor determinado por:
a23 = 0.633
- El valor modificado para b2’ es obtenido a partir de:
b22’’ =a22 x b2’ + a23 x b3’ = b2’ + a23 x b3’ = -21.924 + (-6.809) = -26.234
- Como todos los demás elementos de la diagonal principal la unidad, el resto de los
elementos de b’ no cambian.
- Así, se obtiene:
−29.76
b’’ = [−26.23]
−6.81
- Este proceso puede ser continuado en el orden inverso dado en NORD hasta que
todos los factores matriciales de la derecha hayan sido utilizados.

1.12.- PROGRAMA DIGITAL PARA LA SOLUCIÓN DE SISTEMAS


LINEALES DE ECUACIONES BASADO EN LAS TECNICAS DE
MATRICES RALAS

En el CD anexo, en la carpeta denominada Matrices Ralas, se presenta el código


fuente, desarrollado en lenguaje Fortran, del programa digital denominado MR basado en las
Matrices y su Aplicación al Análisis de Sistemas de Potencia 64

técnicas de matrices ralas, para la solución de redes eléctricas en régimen permanente AC,
el cual fue elaborado de acuerdo a los principios de programación previamente estudiados.

Este programa consiste fundamentalmente en cuatro subrutinas:

a) Subrutina ACDM:
Almacena en forma compacta la matriz de admitancia.
b) Subrutina OODM:
Determina el orden del proceso de eliminación.
c) Subrutina FDM:
Calcula los factores matriciales.
d) Subrutina SSEL:
Obtiene la solución a partir de la transformación R-L.

El programa MR es aplicado a la solución de la red eléctrica dada en el ejemplo


1.15. En él se muestran las diferentes etapas de las técnicas de matrices ralas estudiadas
anteriormente y su potencialidad en la aplicación a la solución de diferentes problemas en
sistemas de potencia.

Ejemplo 1.15

Resolver mediante el programa MR la red dada a continuación:

Solución:

a.- Programa MR

Del programa MR (Matrices Ralas) se obtuvieron las siguientes tablas:

a.1.- Subrutina ACDM


Matrices y su Aplicación al Análisis de Sistemas de Potencia 65

U/M 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18

ITAG 1 2 3 4 5 6 1 2 1 4 2 3 3 4 4 5 5 6
LNEXT 8 12 14 16 18 0 2 10 13 0 3 0 4 0 5 0 6 0
LCOL 1 7 11 9 15 17
NESEQ 1 2 3 4 5 6
NOZE 3 3 3 4 3 2

a.2.- Subrutina OODM

U/M 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18

ITAG 1 2 3 4 5 6 1 2 1 4 2 4 3 4 4 2 5 6
LNEXT 0 0 14 0 0 0 2 12 16 13 3 10 18 0 5 4 6 19
LCOL 1 7 11 9 15 17
NESEQ 6 5 3 4 2 1
NOZE 1 2 3 3 2 2

a.3.- Subrutina FDM

CE 5.5 -0.5 7.1 -0.4 3.5 -0.4 -0.3 5.2 -0.3 -0.2 5.5 - 0.5 7.8

a.4- Subrutina SSEL

V -16.19 -2.21 22.56 17.66 50.28 22.85


b.- Solución Manual:

b.1.- Matriz de Admitancia:

0.19 −0.083 . −0.056 . .


−0.83 0.25 −0.125 . . .
. −0.125 0.288 −0.1 . .
𝑌=
−0.056 . −0.1 0.254 −0.63 .
. . . −0.063 0.18 −0.083
[ . . . . −0.083 0.18]

b.2.- Solución:

𝑌 −1 𝐼 = 𝑉

8.043 4.14 2.94 3.29 1.46 0.675 −4.0 −16.99


4.14 7.51 4.27 2.92 1.29 0.597 −2.0 −2.49
2.94 4.27 6.59 3.65 1.62 0.75 5.0 22.37
=
3.29 2.92 3.65 6.85 3.05 1.40 . 17.55
1.46 1.29 1.62 3.05 8.41 3.88 6.0 50.14
[0.657 0.597 0.75 1.40 3.88 7.34] [ . ] [ 23.14 ]
Matrices y su Aplicación al Análisis de Sistemas de Potencia 66

1.13.- VECTORES PROPIOS Y VALORES PROPIOS DE UNA MATRIZ


[5], [11-13]

El concepto y determinación de los valores propios y propios es uno de los


problemas más importantes del análisis numérico, teniendo una amplia aplicación en la
solución de muchos problemas físicos. Teóricamente, el problema consiste en encontrar las
raíces de una ecuación algebraica. En la práctica como una regla, métodos numéricos
sofisticados deben ser aplicados en su solución.

El análisis general de redes lleva a la formulación de la ecuación lineal siguiente;

𝑍𝛼𝛼 𝐼𝛼 = 𝑉𝛼 (1.143)

donde 𝑍𝛼𝛼 es en general una matriz no-diagonal. La solución de la ecuación anterior implica
la inversión de una matriz no-diagonal. Complicaciones similares podrían aparecer en la
solución de sistemas de ecuaciones matriciales diferenciales. Si la ecuación funcional es
transformada a:
Matrices y su Aplicación al Análisis de Sistemas de Potencia 67


𝑍𝛼𝛼 𝐼𝛼′ = 𝑉𝛼′ (1.144)


De forma que la matriz de impedancias transformada 𝑍𝛼𝛼 , es diagonal, entonces
la solución es simplificada, ya que la inversa de una matriz diagonal podría ser obtenida por
simple inspección. Tal transformación puede ser obtenida definiendo nuevas variables, 𝑉𝛼′ y
𝐼𝛼′ , las cuales estarían relacionadas con las originales por medio de las siguientes ecuaciones:

𝑉𝛼 = 𝑃𝛼𝛼 𝑉𝛼′ (1.145)

𝐼𝛼 = 𝑄𝛼𝛼 𝐼𝛼′ (1.146)

Sustituyendo estas expresiones en la ecuación original, se obtiene:

𝑍𝛼𝛼 𝑄𝛼𝛼 𝐼𝛼′ = 𝑃𝛼𝛼 𝑉𝛼′ (1.147)

Despejando 𝑉𝛼′ , se obtiene:

𝑉𝛼′ = 𝑃𝛼𝛼
−1
𝑍𝛼𝛼 𝑄𝛼𝛼 𝐼𝛼′ = 𝑍𝛼𝛼

𝐼𝛼′ = Λ𝛼𝛼 𝐼𝛼′ (1.148)

Donde:

′ −1
𝑍𝛼𝛼 = Λ𝛼𝛼 = 𝑃𝛼𝛼 𝑍𝛼𝛼 𝑄𝛼𝛼 = Matriz Diagonal

𝑃𝛼𝛼 = Matriz de transformación

𝑄𝛼𝛼 = Matriz de transformación

Para simplificar la solución de problemas complejos por medio del método de los
valores propios es necesario determinar las matrices de transformación 𝑃𝛼𝛼 y 𝑄𝛼𝛼 , las cuales
permiten obtener la matriz diagonal Λ𝛼𝛼 . A menudo la transformación es realizada con 𝑃𝛼𝛼 y
𝑄𝛼𝛼 iguales a la matriz 𝑀𝛼𝛼 , de tal manera de formular, en lugar de la ecuación(1.148), la
siguiente ecuación:

−1
𝑀𝛼𝛼 𝐴𝛼𝛼 𝑀𝛼𝛼 = Λ𝛼𝛼 (1.149)

donde 𝐴𝛼𝛼 es una matriz conocida

𝐴𝛼𝛼 𝑀𝛼𝛼 = 𝑀𝛼𝛼 Λ𝛼𝛼 (1.150)

Como Λ𝛼𝛼 es una matriz diagonal, se puede considerar una columna a la vez,
entonces para la columna i-ésima , se obtiene:

𝐴𝛼𝛼 𝑉𝛼𝑖 = 𝑉𝛼𝑖 𝜆𝑖 = 𝜆𝑖 𝑉𝛼𝑖 (1.151)

La ecuación anterior se puede presentar en la forma siguiente:


Matrices y su Aplicación al Análisis de Sistemas de Potencia 68

(𝐴𝛼𝛼 − 𝜆𝑖 𝑈𝛼𝛼 )𝑉𝛼𝑖 = 0 (1.152)

Donde 𝑈𝛼𝛼 es la matriz unidad.

1.13.1.- RELACIONES BASICAS

Dada la matriz cuadrada 𝐴𝛼𝛼 ,determinar los valores del escalar 𝜆 para los cuales
se satisface el siguiente conjunto de ecuaciones lineales:

(𝐴𝛼𝛼 − 𝜆𝑈𝛼𝛼 )𝑉𝛼 = 0 (1.153)

Puede ser demostrado que el conjunto de ecuaciones mostradas anteriormente tienen una
solución no trivial 𝑉𝛼 si, y solo si, el determinante de los coeficientes es cero, esto es:

𝐷 = det((𝐴𝛼𝛼 − 𝜆𝑈𝛼𝛼 ) = 0 (1.154)

La expansión del determinante antes mostrados es una ecuación polinómica de


grado 𝛼 en 𝜆, donde 𝛼 es el orden de la matriz 𝐴𝛼𝛼 . La solución de la ecuación polinómica da
𝛼 raíces, 𝜆1 , 𝜆2 , … … . . , 𝜆𝑖 , … … . 𝜆𝛼 , para cualquier raíz 𝜆𝑖 existe un vector 𝑉𝛼𝑖 correspondiente
el cual satisface la ecuación (1.154).

Los valores 𝜆𝑖 son llamados los valores propios de la matriz 𝐴𝛼𝛼 y los
correspondientes vectores 𝑉𝛼𝑖 son denominados los vectores propios de la derecha. La matriz
construida por los vectores propios, 𝑀𝛼𝛼 , es denominada la matriz Modal.

Como los valores propios de la matriz 𝐴𝛼𝛼 y su transpuesta 𝐴𝛼𝛼 𝑡 son idénticos,
para cada valor propio 𝜆𝑖 asociado con un vector propio 𝑉𝛼𝑖 , existe también un vector propio
𝑊𝛼𝑖 de 𝐴𝛼𝛼 𝑡 , tal que se satisface la ecuación:

𝐴𝑡𝛼𝛼 𝑊𝛼𝑖 = 𝜆𝑖 𝑊𝛼𝑖 (1.155)

haciendo transposición:
𝑡 𝑡
(𝑊𝛼𝑖 ) 𝐴𝛼𝛼 = 𝜆𝑖 (𝑊𝛼𝑖 ) (1.156)

los vectores propios 𝑊𝛼𝑖 , son denominados los vectores propios de la izquierda de la matriz
𝐴𝛼𝛼

A partir de la expansión del determinante de (𝐴𝛼𝛼 − 𝜆𝑈𝛼𝛼 ) puede ser visto que:

a.- La suma de los valores propios es igual a la traza de la matriz 𝐴𝛼𝛼 . La traza de una matriz
es la suma de todos los elementos de la diagonal principal
b.- El producto de los valores propios es el valor del determinante de la matriz.
Matrices y su Aplicación al Análisis de Sistemas de Potencia 69

c.- Los valores propios de la matriz transpuesta son iguales a esos de la matriz original.
Ejemplo 1.16

Dada la siguiente ecuación:

(𝐴𝛼𝛼 − 𝜆𝑈𝛼𝛼 )𝑉𝛼 = 0

1 −1 1 0 𝑉1 0
([ ]− 𝜆[ ]) [ ] = [ ]
2 4 0 1 𝑉2 0

1− 𝜆 −1 𝑉 0
[ ] [ 1] = [ ]
2 4 − 𝜆 𝑉2 0

Expandiendo el determinante de la matriz de coeficientes e igualando el polinomio


resultante a cero, se obtiene:
𝜆2 − 5𝜆 + 6 = 0

Las raíces del polinomio o valores propios de la matriz, son: 𝜆1 = 2, 𝜆2 = 3.

Asociados a esas raíces, se obtienen los vectores propios correspondientes de la


derecha, de la manera siguiente:

1 1
𝑉𝛼1 = 𝑘 1 [ ] 𝑉𝛼2 = 𝑘 2 [ ]
−1 −2

donde 𝑘 1 y 𝑘 2 son factores arbitrarios de escala, en este ejemplo el primer elemento de cada
vector propio ha sido arbitrariamente seleccionado igual a la unidad.

1.13.2.- CALCULO MATRICIAL

A partir de la definición de valores propios y vectores propios, se tiene:

−1
Λ𝛼𝛼 = 𝑀𝛼𝛼 𝐴𝛼𝛼 𝑀𝛼𝛼 (1.156)

−1
𝐴𝛼𝛼 = 𝑀𝛼𝛼 Λ𝛼𝛼 𝑀𝛼𝛼 (1.157)

𝐴2𝛼𝛼 = 𝑀𝛼𝛼 Λ𝛼𝛼 𝑀𝛼𝛼


−1 −1
𝑀𝛼𝛼 Λ𝛼𝛼 𝑀𝛼𝛼 = 𝑀𝛼𝛼 Λ2𝛼𝛼 𝑀𝛼𝛼
−1
(1.158)

Por lo tanto:

A𝑛𝛼𝛼 = 𝑀𝛼𝛼 Λ𝑛𝛼𝛼 𝑀𝛼𝛼


−1
(1.159)

En general se obtiene:

ϕ(A𝑛𝛼𝛼 ) = 𝑀𝛼𝛼 ϕ(Λ𝑛𝛼𝛼 )𝑀𝛼𝛼


−1
(1.160)
Matrices y su Aplicación al Análisis de Sistemas de Potencia 70

Ejemplo 1.17:

Encontrar la raíz cuadrada de 𝐴

1 −1 2 . 1 1 2 1
𝐴=[ ] Λ=[ ] 𝑀=[ ] 𝑀 −1 = [ ]
2 4 . 3 −1 −2 −1 −1

1 1 √2 . 2 1 2√2 −√3 √2 −√3 1.096 −0.318


√𝐴=[ ][ ][ ]=[ ][ ]=[ ]
−1 −2 . √3 −1 −1 2√3 −2√2 2√3 −√2 0.636 2.050

1.13.3.- CALCULO DE LOS VALORES PROPIOS Y VECTORES PROPIOS

Considerando que un determinado sistema puede ser representado por la


ecuación siguiente:

(𝑃∝∝ − 𝜆𝐷𝛼𝛼 )𝑌𝛼 = 0 (1.161)

Dónde:

𝑃∝∝ = 𝑀𝑎𝑡𝑟𝑖𝑧 𝐶𝑢𝑎𝑑𝑟𝑎𝑑𝑎

𝐷𝛼𝛼 = 𝑀𝑎𝑡𝑟𝑖𝑧 𝐷𝑖𝑎𝑔𝑜𝑛𝑎𝑙

𝑌𝛼 = 𝑉𝑒𝑐𝑡𝑜𝑟

𝜆 = 𝑣𝑎𝑙𝑜𝑟 𝑝𝑟𝑜𝑝𝑖𝑜

El valor propio 𝜆𝑖 , i=1,2,…….,𝛼 de este sistema podría ser determinado a partir de


la solución de 𝑑𝑒𝑡(𝑃∝∝ − 𝜆𝐷𝛼𝛼 ) = 0. El determinante produce una ecuación polinómica de
orden 𝛼. La solución produce 𝛼 raíces. La forma de resolver tal polinomio podría ser mediante
prueba y error, pero cuando el orden de la matriz es muy grande es necesario adoptar un
método sistemático adecuado para computadores digitales.

1.13.4.- REDUCCIÓN DE LA MATRIZ DIAGONAL 𝑫𝜶𝜶 A UNA MATRIZ


UNIDAD

En general, simplificaciones considerables pueden ser obtenidas en el proceso


algebraico y numérico si la matriz diagonal 𝐷𝛼𝛼 es reducida a la matriz unidad.

A partir de la ecuación (1.161)

(𝑃 − 𝜆𝐷)𝑌 = 0 (1.162)

(𝐷−1 𝑃 − 𝜆) = 0 , pero 𝐷−1 𝑃 ≠ 𝑠𝑖𝑚é𝑡𝑟𝑖𝑐𝑎 (1.163)


Matrices y su Aplicación al Análisis de Sistemas de Potencia 71

Haciendo:

𝑋 = 𝐷0.5 𝑌 , (1.164)

𝑌 = 𝐷−0.5 𝑋 , (1.165)

De la ecuación (1.161) se obtiene:

𝑃𝑌 = 𝜆𝐷𝑌 (1.166)

Multiplicando por 𝐷 −0.5 , se obtiene:

𝐷−0.5 𝑃𝑌 = 𝜆𝐷0.5 𝑌 (1.167)

Sustituyendo (1.164), (1.165) en (1.166), se obtiene:

𝐷−0.5 𝑃𝐷 −0.5 𝑋 = 𝜆𝑋 (1.168)

(𝐴 − 𝜆𝑈)𝑋 = 0 (1.169)

Donde:

𝐴 = 𝐷 −0.5 𝑃𝐷−0.5 (1.170)

Siendo:

𝑃𝑟𝑐
𝑎𝑟𝑐 = (1.171)
√𝑑𝑟𝑟 √𝑑𝑐𝑐

En el proceso numérico algebraico asociado con la solución de problemas de


valores propios, es a menudo necesario calcular la inversa de la matriz modal 𝑀𝛼𝛼 . Este
cálculo, aun en el caso de problemas pequeños, podría consumir un tiempo considerable, por
−1
lo que es necesario definir una relación lo más sencilla posible entre la matriz 𝑀𝛼𝛼 y 𝑀𝛼𝛼 .

1.13.5.- NORMALIZACIÓN

La solución de la ecuación (1.169) da como resultado 𝜆1 , 𝜆2 , … … 𝜆𝑖 , … . . , 𝜆𝛼 valores


propios. Para cada auto valor existe un auto vector correspondiente, los cuales podrían ser
designados por 𝑋𝛼1 , … … … , 𝑋𝛼𝑖 , … … … , 𝑋𝛼𝛼 . Para la solución i-ésima, la siguiente ecuación debe
ser satisfecha:

(𝐴𝛼𝛼 − 𝜆𝑖 𝑈𝛼𝛼 )𝑋𝛼𝑖 = 0 (1.172)

Puede, también, ser visto que la ecuación:

(𝐴𝛼𝛼 − 𝜆𝑖 𝑈𝛼𝛼 )𝑘 𝑖 𝑋𝛼𝑖 = 0 (1.173)


Matrices y su Aplicación al Análisis de Sistemas de Potencia 72

donde 𝑘 𝑖 es cualquier factor de escalamiento, es también satisfecha. Remplazando 𝑘 𝑖 𝑋𝛼𝑖 por


𝑉𝛼𝑖 , es decir:

𝑉𝛼𝑖 = 𝑘 𝑖 𝑋𝛼𝑖 (1.174)

Usualmente se selecciona el factor de escalamiento,𝑘 𝑖 , de tal forma que el primer,


el ultimo o el mayor elemento de 𝑋𝛼𝑖 sea igual a la unidad. En general, es más conveniente
seleccionar 𝑘 𝑖 , tal que:

𝑡
(𝑘 𝑖 𝑋𝛼𝑖 ) 𝑘 𝑖 𝑋𝛼𝑖 = 1 (1.175)

De donde se obtiene:

1
𝑘𝑖 = (1.176)
√(𝑋 𝑖 )𝑡 (𝑋 𝑖 )

La expresión anterior en forma expandida puede ser dada por:

𝑘 𝑖 = 1⁄√𝑋1𝑖 𝑋1𝑖 + ⋯ … + 𝑋𝑖𝑖 𝑋𝑖𝑖 … … . +𝑋𝛼𝑖 𝑋𝛼𝑖 (1.177)

El factor de escalamiento 𝑘 𝑖 es denominado el factor de normalización y los


vectores propios escalados 𝑉𝛼𝑖 son denominados los vectores propios normalizados. A partir
de los vectores propios normalizados, la matriz modal puede ser definida de la forma siguiente:

𝑉11 ⋯ 𝑉1𝑖 ⋯ 𝑉1𝛼


⋮ ⋱ ⋮ ⋮ ⋮
𝑀𝛼𝛼 = 𝑉𝑖1 ⋯ 𝑉𝑖𝑖 ⋯ 𝑉𝑖𝛼 (1.178)
⋮ ⋮ ⋮ ⋱ ⋮
[𝑉𝛼1 ⋯ 𝑉𝛼𝑖 ⋯ 𝑉𝛼𝛼 ]

1.13.6.- PROPIEDAD ORTOGONAL

La ecuación de los valores propios de problemas físicos podría ser expresada por
medio de la ecuación característica:

(𝑃∝∝ − 𝜆𝐷𝛼𝛼 )𝑌𝛼 = 0 (1.179)

Donde, en general, 𝑃∝∝ es una matriz simétrica y 𝐷𝛼𝛼 es una matriz diagonal. Usualmente es
más conveniente reducir 𝐷𝛼𝛼 a una matriz unidad como se demostró previamente, resultando
en:

(𝐴𝛼𝛼 − 𝜆𝑈𝛼𝛼 )𝑋𝛼 = 0 (1.180)


Matrices y su Aplicación al Análisis de Sistemas de Potencia 73

Donde:

−0.5 −0.5
𝐴𝛼𝛼 = 𝐷𝛼𝛼 𝑃𝛼𝛼 𝐷𝛼𝛼

0.5
𝑋𝛼 = 𝐷𝛼𝛼 𝑌𝛼

La matriz resultante, 𝐴𝛼𝛼 , es también simétrica si 𝑃∝∝ es simétrica.

Considerando la i-ésima y la j-ésima solución, para 𝜆𝑖 ≠ 𝜆𝑗 , se obtiene:

(𝐴𝛼𝛼 − 𝜆𝑖 𝑈𝛼𝛼 )𝑉𝛼𝑖 = 0 (1.181)

𝑗
(𝐴𝛼𝛼 − 𝜆𝑗 𝑈𝛼𝛼 )𝑉𝛼 = 0 (1.182)

Donde:
𝑉𝛼𝑖 = 𝑘 𝑖 𝑋𝛼𝑖 , es el i-ésimo vector propio o vector propio de la derecha
Haciendo transposición, se obtiene:
𝑡
(𝑉𝛼𝑖 ) (𝐴𝛼𝛼 − 𝜆𝑖 𝑈𝛼𝛼 ) = 0 (1.183)
𝑗 𝑡
(𝑉𝛼 ) (𝐴𝛼𝛼 − 𝜆𝑗 𝑈𝛼𝛼 ) = 0 (1.184)

Ya que 𝑃∝∝ y 𝐷∝∝ son matrices simétricas, es decir:

𝐴𝑡𝛼𝛼 = (𝐷𝛼𝛼
−0.5 −0.5 )𝑡
𝑃∝∝ 𝐷𝛼𝛼 −0.5
= 𝐷𝛼𝛼 −0.5
𝑃∝∝ 𝐷𝛼𝛼 = 𝐴𝛼𝛼 (1.185)

Multiplicando la ecuación (1.184) por 𝑉𝛼𝑖 , se obtiene:


𝑗 𝑡
(𝑉𝛼 ) (𝐴𝛼𝛼 − 𝜆𝑗 𝑈𝛼𝛼 )𝑉𝛼𝑖 = 0 1.186)

Sustituyendo 𝐴𝛼𝛼 𝑉𝛼𝑖 por 𝜆𝑖 en la ecuación anterior, se obtiene:

𝑗 𝑡
(𝑉𝛼 ) (𝜆𝑖 − 𝜆𝑗 )𝑉𝛼𝑖 = 0 (1.187)

Para diferentes valores propios, 𝜆𝑖 ≠ 𝜆𝑗 , se obtiene:

𝑗 𝑡
(𝑉𝛼 ) 𝑉𝛼𝑖 = 0 (1.188)

Sustituyendo la ecuación (1.188) en la ecuación (1.186) se obtiene:

𝑗 𝑡
(𝑉𝛼 ) 𝐴𝛼𝛼 𝑉𝛼𝑖 = 0 (1.189)

A partir de las ecuaciones anteriores, para matrices simétricas 𝑃∝∝ y 𝐷∝∝ , y si 𝑀𝛼𝛼 es
normalizada, se obtiene:
Matrices y su Aplicación al Análisis de Sistemas de Potencia 74

𝑡 𝑡 𝑡 −1
𝑀𝛼𝛼 𝑀𝛼𝛼 = 𝑀𝛼𝛼 𝑀𝛼𝛼 = 𝑈𝛼𝛼 𝑦 𝑀𝛼𝛼 = 𝑀𝛼𝛼 = 𝑊𝛼𝛼 (1.190)

En general, no obstante:

𝑡
𝑀𝛼𝛼 ≠ 𝑀𝛼𝛼 (1.191)

Donde 𝑀𝛼𝛼 es la matriz modal construida de columnas de vectores propios


normalizados. Esta relación es conocida como propiedad ortogonal y es automáticamente
satisfecha cuando los valores propios de la matriz son diferentes.

La solución de muchos problemas puede incluir dos o más valores propios


idénticos. Cuando resultan raíces múltiples, la propiedad ortogonal no es automáticamente
satisfecha. En este caso, usualmente es más conveniente la ortogonalización de los vectores
propios de tal forma de evitar la inversión de la matriz modal 𝑀𝛼𝛼 .

Considere la ecuación característica:

(𝐴𝛼𝛼 − 𝜆𝑖 𝑈𝛼𝛼 )𝑋𝛼𝑖 = 0 (1.192)

Donde 𝐴𝛼𝛼 no necesariamente es una matriz simétrica y el valor propio 𝜆𝑖 es


repetido dos veces, es decir, 𝜆𝑖 = 𝜆𝑗 . A partir de los vectores propios correspondientes
𝑗 𝑗
𝑋𝛼𝑖 𝑦 𝑋𝛼 , es posible derivar, por combinación lineal de 𝑋𝛼𝑖 𝑦 𝑋𝛼 , vectores propios ortogonales.
Así, para las soluciones i-ésima y j-ésima, se obtiene:

(𝐴𝛼𝛼 − 𝜆𝑖 𝑈𝛼𝛼 )𝑋𝛼𝑖 = 0 (1.193)

𝑗
(𝐴𝛼𝛼 − 𝜆𝑗 𝑈𝛼𝛼 )𝑋𝛼 = 0 (1.194)

multiplicando cada ecuación por un constante escalar, 𝑘 𝑖 𝑦 𝑘 𝑗 , respectivamente y como 𝜆𝑖 =


𝜆𝑗 , se obtiene:

𝑘 𝑖 (𝐴𝛼𝛼 − 𝜆𝑖 𝑈𝛼𝛼 )𝑋𝛼𝑖 = 0 (𝐴𝛼𝛼 − 𝜆𝑖 𝑈𝛼𝛼 ) 𝑘 𝑖 𝑋𝛼𝑖 = 0 (1.195)

𝑗 𝑗
𝑘 𝑗 (𝐴𝛼𝛼 − 𝜆𝑖 𝑈𝛼𝛼 )𝑋𝛼 = 0 (𝐴𝛼𝛼 − 𝜆𝑖 𝑈𝛼𝛼 )𝑘 𝑗 𝑋𝛼 = 0 (1.196)

sumando las dos últimas ecuaciones, se obtiene:

𝑗
(𝐴𝛼𝛼 − 𝜆𝑖 𝑈𝛼𝛼 )( 𝑘 𝑖 𝑋𝛼𝑖 + 𝑘 𝑗 𝑋𝛼 ) = 0 → (𝐴𝛼𝛼 − 𝜆𝑖 𝑈𝛼𝛼 )𝑌𝛼𝑖 = 0 (1.197)

Donde:
𝑗
𝑌𝛼𝑖 = 𝑘 𝑖 𝑋𝛼𝑖 + 𝑘 𝑗 𝑋𝛼 , es también un vector propio correspondiente a la raíz repetida.
Matrices y su Aplicación al Análisis de Sistemas de Potencia 75

Normalizando:

𝑉𝑖 = 𝑎𝑌𝑖 = 𝑎(𝑘𝑖 𝑋𝑖 + 𝑘𝑗 𝑋𝑗 ) (1.198)


𝑉𝑗 = 𝑏𝑗 𝑋𝑗 (1.199)

Es requerido que:
𝑉𝑖𝑡 𝑉𝑖 = 1 (1.200)
𝑉𝑖𝑡 𝑉𝑗 =0 (1.201)
𝑉𝑗𝑡 𝑉𝑗 =1 (1.202)
A partir de (1.202):
1
𝑘𝑖 𝑘𝑗 𝑋𝑗𝑡 𝑋𝑗 = 1 𝑜 𝑋𝑗𝑡 𝑋𝑗 = (1.203)
𝑘𝑗 𝑘𝑗

(1.199) → (1.200) 𝑎(𝑘𝑖 𝑋𝑖 + 𝑘𝑗 𝑋𝑗 )𝑘𝑗 𝑋𝑗 = 𝑎(𝑘𝑖 𝑘𝑗 𝑋𝑖𝑡 𝑋𝑗 + 𝑘𝑗 𝑘𝑗 𝑋𝑗𝑡 𝑋𝑗 ) = 0 (1.204)


(1.203) → (1.204) 𝑘𝑖 𝑘𝑗 𝑋𝑖𝑡 𝑋𝑗 = −1
Por lo tanto, se obtiene:
1 1
𝑘𝑖 = − 𝑘 𝑡 𝑦 𝑘𝑗 = (1.205)
𝑗 𝑋𝑖 𝑋𝑗 √∑ 𝑋𝑗2

Este proceso de ortogonalización es conocido como procedimiento de


ortogonalización de SCHMIDT. El nuevo vector 𝑌𝛼𝑖 puede ser, también, normalizado. Cuando
todos los vectores son normalizados, teniendo la propiedad ortogonal, es decir, siendo todos
ortonormales, se cumple:
𝑡 𝑡 𝑡 −1
𝑀𝛼𝛼 𝑀𝛼𝛼 = 𝑀𝛼𝛼 𝑀𝛼𝛼 = 𝑈𝛼𝛼 𝑦 𝑀𝛼𝛼 = 𝑀𝛼𝛼 (1.206)
En general, no obstante:

𝑡
𝑀𝛼𝛼 ≠ 𝑀𝛼𝛼 (1.207)

1.13.7.- SOLUCION DE SISTEMAS SIMULTANEOS DE ECUACIONES


DIFERENCIALES

La teoría de funciones matriciales provee bases muy poderosas para la solución


de sistemas de ecuaciones diferenciales simultáneas.

En forma matricial un conjunto de ecuaciones diferenciales simultáneas puede


ser presentado en la forma siguiente:
𝑑𝑋
= 𝐴𝛼𝛼 𝑋𝛼 (1.208)
𝑑𝑡

La solución puede ser simplificada, transformando 𝑋𝛼 de acuerdo a la siguiente relación:


𝑋𝛼 = 𝑀𝛼𝛼 𝑌𝛼 (1.209)
Matrices y su Aplicación al Análisis de Sistemas de Potencia 76

Sustituyendo (1.209) en (1.210) , se obtiene:

𝑑(𝑀𝛼𝛼 𝑌𝛼)
= 𝐴𝛼𝛼 𝑀𝛼𝛼 𝑌𝛼 (1.210)
𝑑𝑡

𝑑𝑌𝛼 −1
= 𝑀𝛼𝛼 𝐴𝛼𝛼 𝑀𝛼𝛼 𝑌𝛼 = Λ𝛼𝛼 𝑌𝛼 (1.211)
𝑑𝑡

La diferencia fundamental entre la ecuación (1.211) y la (1.209) es que la matriz


 es una matriz diagonal, mientras que la matriz A es en general una matriz no-diagonal.
Por lo tanto, la ecuación (1.211) representa un conjunto de n ecuaciones diferenciales
desacopladas de primer orden, donde la i-ésima ecuación puede ser presentada en la forma:

𝑑𝑦𝑖
𝑑𝑡
= 𝜆𝑖 𝑦𝑖 , 𝑖 = 1,2, … … … . , 𝑛 (1.212)

La solución respecto al tiempo es determinada por:

𝑦(𝑡)𝑖 = 𝑦(0)𝑖 𝑒 𝜆𝑖 𝑡 (1.213)

Donde 𝑦(0) representa el valor inicial de 𝑦(𝑡)𝑖 .

Considerando de nuevo la ecuación (1.210):

𝑋𝛼 (𝑡) = 𝑀𝛼𝛼 𝑌𝛼 (𝑡) (1.214)

𝑥(𝑡)1 𝑦(𝑡)1
𝑥(𝑡)2
[ ] = [𝑀1 𝑀2 ⋯ 𝑀𝛼 ] [ 𝑦(𝑡)2 ] (1.215)
⋮ ⋮
𝑥(𝑡)𝛼 𝑦(𝑡)𝛼

Considerando de nuevo la ecuación (1.213), la solución en términos del vector


original es dada por:

𝑥(𝑡)𝑖 = ∑𝑛𝑖=1 𝑀𝑖 𝑦𝑖 (0)𝑒 𝜆𝑖𝑡 (1.216)

Además, a partir de la ecuación (1.214), se tiene:

−1 𝑡
𝑌𝛼 (𝑡) = 𝑀𝛼𝛼 𝑋𝛼 (𝑡) = 𝑀𝛼𝛼 𝑋𝛼 (𝑡) = 𝑊𝛼𝛼 𝑋𝛼 (𝑡) (1.217)

Para 𝑡 = 0, se obtiene:

𝑡
𝑦𝑖 (0) = 𝑀𝑖 𝑥𝑖 (0) = 𝑐𝑖 (1.218)

Sustituyendo la expresión anterior en la ecuación (1.216), se obtiene:

𝑥(𝑡)𝑖 = ∑𝑛𝑖=1 𝑀𝑖 𝑐𝑖 𝑒 𝜆𝑖 𝑡 (1.219)


Matrices y su Aplicación al Análisis de Sistemas de Potencia 77

En consecuencia, la respuesta en el tiempo de la i-ésima variable de estado es


determinada por:

𝑥𝑖 (𝑡) = 𝑀1 𝑐1 𝑒 𝜆1 𝑡 + 𝑀2 𝑐2 𝑒 𝜆2 𝑡 + ⋯ ⋯ + 𝑀𝛼 𝑐𝛼 𝑒 𝜆𝛼𝑡 (1.220)

La ecuación anterior corresponde a la expresión de la respuesta libre del sistema


en términos de los valores propios y los vectores propios de la derecha y de la izquierda.

Así, la respuesta libre (o condición inicial) es determinada por una combinación


lineal de n modos dinámicos correspondientes a los n valores propios de la matriz de
estado.

El producto escalar 𝑐𝑖 = 𝑀𝑖𝑡 𝑥𝑖 (0) representa la magnitud de la excitación del


i  ésimo modo, obtenido a partir de las condiciones iniciales. Si uno de los componentes de
uno de los autovectores de las condiciones iniciales es cero, el correspondiente modo no será
excitado.
1.13.8.- RELACION ENTRE LOS VALORES PROPIOS Y LA ESTABILIDAD

DE UN SISTEMA

La estabilidad de un sistema es determinada por sus valores propios. Como la

característica dependiente del tiempo de un modo correspondiente a un valor propio i es


dada por e  t , se obtiene, por lo tanto, que:
i

a.- Un valor propio real corresponde a un modo no oscilatorio. Un valor propio negativo
representa un modo que decae en el tiempo, siendo mayor la velocidad del decaimiento en la
medida en que la magnitud del modo sea mayor. Un valor propio positivo representa una

inestabilidad aperiódica. Los valores de las constantes, ci , y los vectores propio de la

izquierda asociados con valores propios reales son también reales.

b.- Los valores propios complejos ocurren en pares conjugados, y cada par corresponde a un
modo oscilatorio.

El escalar ci y el vector propio izquierdo asociado tienen valores complejos tales que los

valores de los elementos de X (t ) en cada instante de tiempo son reales. Así por ejemplo:

(a  jb)e (  j )t  (a  jb)e (  j )t (1.221)


da como resultado:
Matrices y su Aplicación al Análisis de Sistemas de Potencia 78

e t Sen ( t   ) (1.222)

la cual representa una sinusoide amortiguada para  negativo.


La componente real del valor propio produce el amortiguamiento y la parte
imaginaria produce la frecuencia de la oscilación. Una parte real negativa representa una
oscilación amortiguada mientras que una parte real positiva representa oscilaciones de
amplitud creciente. Así, para el par complejo de valores propios:

    j (1.223)

La frecuencia de la oscilación en Hz es dada por:



f  (1.224)
2
La constante de tiempo del decaimiento de la amplitud es 1 . En otras palabras

la amplitud decae a 1 o al 37% de la amplitud inicial en 1 segundos.
e 

En la figura No. 1.5 se muestran seis diferentes combinaciones de valores propios


y el comportamiento de las trayectorias alrededor de puntos singulares aplicable a un caso
bidimensional.

1.13.9.- MODO SHAPE, SENSIBILIDAD Y FACTORES DE PARTICIPACION

a.- Forma de los Modos y vectores propios

En las ecuaciones (1.215) y (1.217) se establece la relación entre los vectores de

estado 𝑋 𝑦 𝑌 , donde las variables x1 , x2 ,....., xn son las variables de estado originales las

cuales representan el comportamiento dinámico del sistema. Mientras que las variables

y1 , y2 ,....., yn representan las transformadas de las variables de estado, estando cada una

asociada solamente a un modo. En otras palabras, las variables transformadas Y están


directamente relacionadas a los modos.

A partir de la ecuación (1.216) se puede observar que el vector propio derecho da


la forma del modo (mode shape), es decir, la actividad relativa de la variable de estado cuando

un determinado modo es excitado. Por ejemplo, el grado de actividad de la variable x k en el

modo i  ésimo es dado por el elemento M ki del vector propio derecho Mi.
Matrices y su Aplicación al Análisis de Sistemas de Potencia 79

La magnitud de los elementos del vector propio derecho, 𝑀𝑖 , da el grado de


actividad de la n  ésima variable de estado en el i  ésimo modo, y el ángulo de los
elementos da el desplazamiento de fase de la variable de estado respecto el modo.

Por lo tanto, de las ecuaciones (1.215) y (1.217), se puede observar que si el


k  ésimo elemento del vector propio derecho, 𝑀𝑖 , mide el grado de actividad de la k  ésima
variable de estado, xk , en el i  ésimo modo, el k  ésimo elemento del vector propio

izquierdo, 𝑀𝑖𝑡 , pesa la contribución de esta actividad en el i  ésimo modo.

Ahora, se puede considerar la interpretación de los conceptos antes estudiados,


para ello se puede suponer que para un sistema de cuarto orden se obtiene el siguiente
resultado:

 d  100.  0.  10  j5 10  j5


   0.  20.  0.   
 q   10.  e 5t  5.  e 8t  (6  j5)   e (5 j 4)t  (6  j 5)  0.  e (5 j 4)t
 iF   50.   0.   3  j4   3  j4 
         
 ia   10.  10.  2 j   2 j 

(1.225)

donde los coeficientes exponenciales de t representan los cuatro valores propios y los
vectores columna representan los vectores propios derechos. Los valores propios representan
los modos de la respuesta del sistema. Ellos deben estar localizados en el semiplano izquierdo
del plano complejo, si el sistema es estable y los valores propios complejos deben ocurrir en

pares complejos representando términos de la forma e t Sen( t   ) .

El primer término de la derecha es un exponencial que decae en el tiempo debido


al valor propio real negativo (   5) . Los elementos del vector propio correspondiente

muestran que en este modo de respuesta no está presente en la variable  q , que es cinco

veces mayor en i F que en ia y que este es diez veces mayor en  d que en ia .


De una manera similar, se puede observar que la respuesta e 8 t no está presente

en do i F y es dos veces mayor en q que en i a . Para los valores propios complejos, los
elementos de los vectores propios son complejos. Al igual que para los vectores propios
reales, la magnitud de los términos de los elementos componentes representan la magnitud
Matrices y su Aplicación al Análisis de Sistemas de Potencia 80

relativa de la respuesta de ese modo en las diferentes variables. Mientras que el ángulo da la
fase relativa de este modo de la respuesta en esa variable particular.
Los valores propios y vectores propios son función del sistema propiamente dicho
y no de las condiciones iniciales. Las condiciones iniciales son reflejadas a través de las
constantes, c , o de los vectores propios izquierdo, tal como puede observarse en la ecuación
(1.218).

Así, puede verse que los vectores propios de la derecha muestran la distribución
de los modos de respuesta a través de las variables de estado, mientras que los autovectores
izquierdos reflejan el efecto relativo de las diferentes condiciones iniciales en el modo de la
respuesta.

Puede demostrarse que existen diferentes selecciones de variables de estado


para describir un sistema. Como los valores propios son característicos del sistema, sus
valores serán independientes de la selección de las variables de estado, pero los
correspondientes vectores propios cambiarán con la selección.
Matrices y su Aplicación al Análisis de Sistemas de Potencia 81

Figura No. 1.5


Puntos Singulares Correspondientes a Seis Posibles Combinaciones de
Pares de Valores propios

b.- Sensibilidad de Los Valores Propios

Considerando la ecuación que define los valores propios y vectores propios, es decir:

𝐴𝑀𝑖 = 𝜆𝑖 𝑀𝑖 (1.226)

Diferenciando la ecuación anterior respecto a a kj (elemento de la matriz A ), se obtiene:

𝜕𝐴 𝜕𝑀𝑖 𝜕𝜆𝑖 𝜕𝑀𝑖


𝑀 +𝐴 = 𝑀 + (1.227)
𝜕𝑎𝑘𝑗 𝑖 𝜕𝑎𝑘𝑗 𝜕𝑎𝑘𝑗 𝑖 𝜕𝑎𝑘𝑗

Pre multiplicando ambos miembros de la ecuación anterior por 𝑀𝑖𝑡 y observando que 𝑀𝑖𝑡 𝑀𝑖 =
1 y 𝑀𝑖𝑡 (𝐴 − 𝜆𝑖 ) = 0, la ecuación anterior se puede escribir en la forma siguiente:

𝜕𝐴 𝜕𝜆𝑖
𝑀𝑖𝑡 𝑀 = (1.228)
𝜕𝑎𝑘𝑗 𝑖 𝜕𝑎𝑘𝑗

Todos los elementos de 𝜕𝐴⁄𝜕𝑎𝑘𝑗 son cero, a excepción del elemento de la fila k y columna
j , el cual es igual a uno (1). Por lo tanto, se obtiene:
Matrices y su Aplicación al Análisis de Sistemas de Potencia 82

𝜕𝜆𝑖 𝑡
𝑎𝑘𝑗
= 𝑀𝑖𝑘 𝑀𝑗𝑖 (1.229)

Así, la sensibilidad del valor propio 𝜆𝑖 con respecto al elemento a kj de la matriz de


𝑡
estado es igual al producto del elemento 𝑀𝑖𝑘 del vector propio izquierdo por el elemento 𝑀𝑗𝑖
del vector propio derecho.

c.- Factores de Participación

Representan el grado en que las variables de estado y los modos están relacionados. Así,
dada la matriz:

𝑃 = [𝑃1 𝑃2 ⋯ 𝑃𝑛 ] (1.230)

donde cada columna de la matriz es definida por:

𝑡
𝑃1𝑖 𝑀1𝑖 𝑀1𝑖
𝑃2𝑖 𝑡
𝑀2𝑖 𝑀2𝑖
𝑃𝑖 = [ ]= (1.231)
⋮ ⋮
𝑃𝑛𝑖 𝑡
[𝑀𝑛𝑖 𝑀𝑛𝑖 ]

donde:

M ki  Elemento ki  ésimo de la matriz mo dal M .


 Elemento k  ésimo del vector propio derecho M ki .
M  Elemento ik  ésimo de la matriz mo dal M t .
t
ik

 Elemento k  ésimo del vector propio izquierdo M tik

Como M ki mide la actividad de la variable de estado, x k , en el i  ésimo modo y

M ikt representa el peso de la contribución de esta actividad en el modo, el producto 𝑃𝑘𝑖 =


𝑡
𝑀𝑘𝑖 𝑀𝑖𝑘 mide la participación neta, es decir, representa una medida de la participación relativa
de la k  ésima variable de estado en el i  ésimo modo y viceversa. Además el factor de
participación por ser el producto de los elementos de los vectores propios izquierdo y derecho,
resulta adimensional y por lo tanto independiente de las unidades seleccionadas.

En vista de la normalización, la suma de los factores de participación asociados con cualquier

 n n

modo o con cualquier variable de estado 

P i 1
ki ó P
k 1
ki  es igual a 1.

Matrices y su Aplicación al Análisis de Sistemas de Potencia 83

A partir de la ecuación (1.228), podemos observar que el factor de participación es igual a la

sensibilidad del valor propio i respecto al elemento a kk de la diagonal principal de la matriz

de estado, A , es decir:

i
Pki  (1.232)
akk

REFERENCIAS
1.- Braae, R., Matrix Algebra for Electrical Engineers, Addison-Wesley Publishing
Company, INC, 1963.
2.- Jennngs, A., Matrix Computation for Engineers and Scientists, Jhon Wiley & Sons, Ltd,
1978.
3.- Bouteloup, J., Cálculo de Matrices, Editorial Universitaria de Buenos Aires, 1966.
4.- Gajardo, C., Algebra Lineal I, Facultad de Ingeniería, ULA, 1991.
5.- Brameller, A., Numerical Analysis Notes, UMIST, 1978.
6.- Brameller, A., Allan, R.N. y Hamam, Y.M., Sparsity,Pitman Publishing Limited, 1976.
7.- Pissanetzky, S., Sparse Matrix Technology, Academic Press,1984.
8.- Sato, N. y Tinney, W.F., Techniques for Exploiting The Sparsity of the Network
Admittance Matrix, AIEE Transactions, 944-950, 1963.
9.- Ogboubiri, E.C., Tinney, W. F. y Walker J. W., Sparsity – Directed Decomposition for
Gaussian Elimination on Matrices, IEEE Transactions on Power Apparatus and
Systems, Vol. Pas-89, No. 1, January, 141-150, 1970.
10.- Tinney, W. F. y Walker J, W,, Direct Solutions for Sparse Network Equations by
Optimally Ordered Triangular Factorization, Proc. IEEE, Vol 55, pag 1801- 1809,
November 1967.
11.- Elgerd, O.I., Control Systems Theory, McGraw-Hill, Ltd, 1967.
12.- Anderson, P.M., Agrawal, B.L. y Van Ness, J.E., Subsychronous Resonance in
Power Systems,The Institute of Electrical and Electronics Engineers,INC, 1990.
13.- Kundur, P., Power System Stability and Control, McGraw-Hill, Inc, 1994.

Contenido
CAPITULO I
MATRICES Y SU APLICACIÓN AL ANÁLISIS DE SISTEMAS DE POTENCIA

1.1.- INTRODUCCIÓN…………………………………………………………………………………….…1
Matrices y su Aplicación al Análisis de Sistemas de Potencia 84

1.2.- ESCALARES Y VECTORES ………………………………………………………………………….1


1.2.1.- OPERACIONES ALGEBRAICAS CON ESCALARES ...................................................... 1
1.2.2.- OPERACIONES ALGEBRAICAS CON VECTORES ........................................................ 2
1.2.3.- COMBINACIÓN LINEAL DE VECTORES ........................................................................ 3
1.2.4.-INDEPENDENCIA LINEAL DE VECTORES ..................................................................... 4
1.2.5.- RANGO DE UN CONJUNTO VECTORIAL ...................................................................... 5
1.2.6.- SISTEMAS DE ECUACIONES LINEALES ....................................................................... 5
1.3.- MATRICES………………………………………………………………………………………………6
1.3.1.- OPERACIONES MATRICIALES ...................................................................................... 6
1.3.2.- LA MATRIZ TRANSPUESTA ........................................................................................... 8
1.3.3.- LA TRAZA DE UNA MATRIZ ........................................................................................... 9
1.3.4.- DETERMINANTES .......................................................................................................... 9
1.3.5.- MATRIZ ADJUNTA .........................................................................................................12
1.3.6.- DETERMINACIÓN DEL RANGO DE UNA MATRIZ ........................................................13
1.3.7.- LA MATRIZ INVERSA ....................................................................................................13
1.3.8.- MATRICES COMPUESTAS ...........................................................................................16
1.3.9.- DIFERENCIACIÓN DE MATRICES ................................................................................16
1.3.10.- INTEGRACIÓN DE MATRICES ....................................................................................17
1.4.- MATRICES RALAS Y SU APLICACIÓN A LA SOLUCIÓN DE………………………………….17
GRANDES SISTEMAS LINEALES DE ECUACIONES
1.5.- MÉTODO DIRECTO- MÉTODO DE ELIMINACIÓN DE GAUSS………………………………..18
1.6.- INVERSIÓN DE MATRICES…………………………………………………………………..……..22
1.6.1.- LA INVERSA DE UNA MATRIZ EN FORMA FACTORIZADA .........................................26
1.7.- TRANSFORMACIÓN 𝐿𝑈………………………………………………………………………...…26
1.8.- TRANSFORMACIÓN 𝐿𝐷𝑈…………………………………………………………………………..31
1.9.- TRANSFORMACIÓN R-L O BI-FACTORIZACION……………………………………………..…33
1.10.- APLICACIÓN PRÁCTICA DE LAS TÉCNICAS DE MATRICES RALAS………………………36
1.10.1.- MULTIPLICACIÓN DE MATRICES ...............................................................................36
1.10.2.- PROCESO DE ELIMINACIÓN ......................................................................................37
1.11.- PRINCIPIOS DE PROGRAMACIÓN………………………………………………………………38
1.11.1.- ALMACENAMIENTO DE MATRICES RALAS .................................... …………………..39
1.11.2.- SIMULACIÓN DEL PROCESO DE ELIMINACIÓN ........................................................43
1.11.3.- FACTORIZACIÓN DE LA MATRIZ ...............................................................................48
1.11.4.- SOLUCIÓN DEL SISTEMA DE ECUACIONES LINEALES POR ...................................50
MEDIO DEL METODO DE BIFACTORIZACIÓN ........................................................................50
1.12.- SOLUCIÓN DE PROBLEMAS DE REDES GRANDES………………………………………...53
CON MATRICES DE COEFICIENTES RALAS
1.12.- PROGRAMA DIGITAL PARA LA SOLUCIÓN DE SISTEMAS………………………………....63
LINEALES DE ECUACIONES BASADO EN LAS TECNICAS DE MATRICES RALAS
1.13.- VECTORES PROPIOS Y VALORES PROPIOS DE UNA MATRIZ……………………………66
1.13.1.- RELACIONES BASICAS ..............................................................................................68
1.13.2.- CALCULO MATRICIAL .................................................................................................69
1.13.3.- CALCULO DE LOS VALORES PROPIOS Y VECTORES PROPIOS ............................70
1.13.4.- REDUCCIÓN DE LA MATRIZ DIAGONAL 𝑫𝜶𝜶 A UNA MATRIZ ..................................70
UNIDAD ....................................................................................................................................70
1.13.5.- NORMALIZACIÓN ........................................................................................................71
1.13.6.- PROPIEDAD ORTOGONAL .........................................................................................72
1.13.7.- SOLUCION DE SISTEMAS SIMULTANEOS DE ECUACIONES ...................................75
DIFERENCIALES ......................................................................................................................75
1.13.8.- RELACION ENTRE LOS VALORES PROPIOS Y LA ESTABILIDAD ............................77
DE UN SISTEMA ......................................................................................................................77
1.13.9.- MODO SHAPE, SENSIBILIDAD Y FACTORES DE PARTICIPACION ..........................78
Matrices y su Aplicación al Análisis de Sistemas de Potencia 85

REFERENCIAS…………………………………………………………………………………………………88
3

CAPITULO I
MATRICES Y SU APLICACIÓN AL ANÁLISIS DE SISTEMAS DE POTENCIA

1.1.- INTRODUCCIÓN…………………………………………………………………………………………..1
1.2.- ESCALARES Y VECTORES …………………………………………………………………………….1
Matrices y su Aplicación al Análisis de Sistemas de Potencia 86

1.2.1.- OPERACIONES ALGEBRAICAS CON ESCALARES………………………………………………1


1.2.2.- OPERACIONES ALGEBRAICAS CON VECTORES………………………………………………..2
1.2.3.- COMBINACIÓN LINEAL DE VECTORES…………………………………………………………….3
1.2.4.-INDEPENDENCIA LINEAL DE VECTORES…………………………………………………………..4
1.2.5.- RANGO DE UN CONJUNTO VECTORIAL…………………………………………………………...5
1.2.6.- SISTEMAS DE ECUACIONES LINEALES……………………………………………………………5
1.3.- MATRICES………………………………………………………………………………………………….6
1.3.1.- OPERACIONES MATRICIALES ………………………………………………………………………6
1.3.2.- LA MATRIZ TRANSPUESTA…………………………………………………………………………..9
1.3.3.- LA TRAZA DE UNA MATRIZ…………………………………………………………………………...9
1.3.4.- DETERMINANTES………………………………………………………………………………………9
1.3.5.- MATRIZ ADJUNTA…………………………………………………………………………………….12
1.3.6.- DETERMINACIÓN DEL RANGO DE UNA MATRIZ……………………………………………….13
1.3.7.- LA MATRIZ INVERSA…………………………………………………………………………………13
1.3.8.- MATRICES COMPUESTAS…………………………………………………………………………..16
1.3.9.- DIFERENCIACIÓN DE MATRICES………………………………………………………………….16
1.3.10.- INTEGRACIÓN DE MATRICES…………………………………………………………………….17
1.4.- MATRICES RALAS Y SU APLICACIÓN A LA SOLUCIÓN DE……………………………………..18
GRANDES SISTEMAS LINEALES DE ECUACIONES
1.5.- MÉTODO DIRECTO- MÉTODO DE ELIMINACIÓN DE GAUSS…………………………………...19
1.6.- INVERSIÓN DE MATRICES…………………………………………………………………………….23
1.6.1.- LA INVERSA DE UNA MATRIZ EN FORMA FACTORIZADA…………………………………….26
1.7.- TRANSFORMACIÓN LU…………………………………………………………………………...……26
1.8.- TRANSFORMACIÓN LDU……………………………………………………………………………..31
1.9.- TRANSFORMACIÓN R-L O BI-FACTORIZACION…………………………………………………..33
1.10.- APLICACIÓN PRÁCTICA DE LAS TÉCNICAS DE MATRICES RALAS…………………………36
1.10.1.- MULTIPLICACIÓN DE MATRICES…………………………………………………………………36
1.10.2.- PROCESO DE ELIMINACIÓN………………………………………………………………………37
1.11.- PRINCIPIOS DE PROGRAMACIÓN………………………………………………………………….39
1.11.1.- ALMACENAMIENTO DE MATRICES RALAS ………………………………………………….40
1.11.2.- SIMULACIÓN DEL PROCESO DE ELIMINACIÓN……………………………………………….43
1.11.3.- FACTORIZACIÓN DE LA MATRIZ…………………………………………………………………49
1.11.4.- SOLUCIÓN DEL SISTEMA DE ECUACIONES LINEALES POR……………………………….51
MEDIO DEL METODO DE BIFACTORIZACIÓN
1.12.- SOLUCIÓN DE PROBLEMAS DE REDES GRANDES……………………………………………53
CON MATRICES DE COEFICIENTES RALAS
1.12.- PROGRAMA DIGITAL PARA LA SOLUCIÓN DE SISTEMAS…………………………………….64
LINEALES DE ECUACIONES BASADO EN LAS TECNICAS DE MATRICES RALAS
1.13.- VECTORES PROPIOS Y VALORES PROPIOS DE UNA MATRIZ……………………….……..67
1.13.1.- RELACIONES BASICAS…………………………………………………………………………….68
1.13.2.- CALCULO MATRICIAL ………………………………………………………………………………70
1.13.3.- CALCULO DE LOS VALORES PROPIOS Y VECTORES PROPIOS………………………….70
1.13.4.- REDUCCIÓN DE LA MATRIZ DIAGONAL Dαα A UNA MATRIZ ……………………………….71
UNIDAD
1.13.5.- NORMALIZACIÓN……………………………………………………………………………………72
1.13.6.- PROPIEDAD ORTOGONAL………………………………………………………………………...73
1.13.7.- SOLUCION DE SISTEMAS SIMULTANEOS DE ECUACIONES……………………………….76
DIFERENCIALES
1.13.8.- RELACION ENTRE LOS VALORES PROPIOS Y LA ESTABILIDAD………………………….78
DE UN SISTEMA
Matrices y su Aplicación al Análisis de Sistemas de Potencia 87

1.13.9.- MODO SHAPE, SENSIBILIDAD Y FACTORES DE PARTICIPACION………………………...79


REFERENCIAS…………………………………………………………………………………………………83

Das könnte Ihnen auch gefallen