You are on page 1of 97

TEORIA DAS FILAS

Introduo
Por que aparecem as filas?
No eficiente, nem racional, que cada
um disponha de todos os recursos
individualmente. Por exemplo:

que cada pessoa disponha do uso exclusivo

de uma rua para se movimentar


que cada pessoa tenha um supermercado
para o seu abastecimento exclusivo

Recursos limitados devem ser


compartilhados.

Introduo

Ao compartilhar recursos, pode


acontecer que no momento em que se
queira fazer uso de um recurso, este
esteja ocupado,
necessidade de esperar
aparecem as filas

Exemplo: nos sistemas de fluxo pode


acontecer a formao de filas

Sistemas de fluxo

Um fluxo o movimento de alguma entidade


atravs de um ou mais canais de capacidade
finita para ir de um ponto a outro.
Capacidade finita significa que o canal s
pode satisfazer a demanda a uma taxa finita.
Exemplos:
fluxo de automveis (entidades) atravs de uma

rede de caminhos (canais)


transmisso de mensagens telefnicas
(entidades) atravs da rede (canal)

Sistemas de fluxo

Se dividem em duas classes:


Determinsticos: sistemas no qual o

comportamento da demanda de servio


totalmente previsvel, isto , a quantidade
de demanda exatamente conhecida sobre
o intervalo de interesse.
Aleatrio: no possvel predizer como vai
se comportar a demanda de servio, por
exemplo, o instante de chegada de uma
demanda imprevisvel.

Sistemas de fluxo

Exemplo de fluxo determinstico:


Seja r a taxa de chegada (constante) de

pacotes em uma rede de comutao a um


buffer.
Seja c a taxa (constante) com que esses
pacotes so processados em cada n.
Se r > c, o buffer do n inundado com
pacotes, j que o nmero de pacotes em
espera de servio crescer indefinidamente.
Se r < c, se tem um fluxo estvel, o nmero de
pacotes em espera de servio finito.

Sistemas de fluxo

Exemplo de fluxo aleatrio:


Um centro de computao em que as

solicitaes de impresso podem chegar em


instantes imprevisveis.
Quando um trabalho de impresso chega,
pode ser que o servidor esteja atendendo
outro e seja necessrio esperar.
Se est desocupado, pode atender
imediatamente nova solicitao de
impresso at que esta fique completa.

Teoria das filas

Representao de uma fila


sistema
1
2

Chegadas ao
sistema

Fila
m

Servidores

Sadas do
sistema

Teoria das filas

Notao de Kendall para descrever uma


fila:
A/B/C/K/m/Z

Teoria das filas

Notao de Kendall para descrever uma fila:

A/B/C/K/m/Z

distribuio do
tempo entre chegadas

Alguns valores de A mais comuns:

M: denota distribuio exponencial


equivalente (M provm de Markoviano)
G: distribuio geral
D: representa um tempo fixo (determinstico)

Teoria das filas

Notao de Kendall para descrever uma fila:

A/B/C/K/m/Z

distribuio do
tempo entre chegadas

distribuio do
tempo de servio

Alguns valores de B mais comuns:

M: denota distribuio exponencial


equivalente (M provm de Markoviano)
G: distribuio geral
D: representa um tempo fixo (determinstico)

Teoria das filas

Notao de Kendall para descrever uma fila:

A/B/C/K/m/Z

distribuio do
tempo entre chegadas

distribuio do
tempo de servio

nmero de
servidores

Teoria das filas

Notao de Kendall para descrever uma fila:

A/B/C/K/m/Z

distribuio do
tempo entre chegadas

distribuio do
tempo de servio

K omitido quando:
nmero de
servidores

K=

nmero mximo de
clientes permitidos
no sistema

Teoria das filas

Notao de Kendall para descrever uma fila:

A/B/C/K/m/Z

m se omite quando:
distribuio do
tempo entre chegadas

distribuio do
tempo de servio

m=
nmero de
servidores

tamanho da
populao
nmero mximo de
clientes permitidos
no sistema

Teoria das filas

Notao de Kendall para descrever uma fila:

A/B/C/K/m/Z

distribuio do
tempo entre chegadas

distribuio do
tempo de servio

disciplina
de servio
nmero de
servidores

tamanho da
populao
nmero mximo de
clientes permitidos
no sistema

Z se omite quando:
= FIFO

Teoria das filas

Notaes usadas nos sistemas de filas:


Ci: i-simo usurio que entra ao sistema.
ri: tempo de chegada de Ci
ti: tempo entre as chegadas de C i-1 e Ci (ti = ri - ri-1)
A(t): distribuio do tempo entre chegadas = P[t it]
xi: tempo de servio para Ci
B(x): distribuio do tempo de servio = P[x i x]
wi: tempo de espera na fila de C i
se: tempo no sistema (fila mais servio) de C i

xi)

(se = wi +

Teoria das filas

Notao de filas em diagrama temporal


se
Ci-1
wi

Servidor
Fila

ri

ri+1
ti+1

Ci

Ci+1

Ci

xi
Ci

Ci+1

Ci+2

xi+1
Ci+1

xi+2
Ci+2
ri+2

ti+2
Ci+2

Tempo

Teoria das filas

Notaes usadas nos sistemas de filas


(cont.)
Ek: estado do sistema (normalmente

corresponde ao nmero de usurios no


sistema)
ktaxa mdia de chegada dos usurios
ao sistema, quando este se encontra no
estado k
k: taxa mdia de servio quando o sistema
se encontra no estado k

Teoria das filas

Outros parmetros de uma fila:


N(t): nmero de usurios no sistema no

instante t
L = E[k]: nmero mdio de usurios no
sistema (em estado estacionrio)
LQ: nmero mdio de usurios na fila (em
estado estacionrio).
T = E[s]: tempo mdio de permanncia de um
usurio no sistema = E[k]/ (frmula de Little)

CADEIAS DE MARKOV
DISCRETAS

Cadeias de Markov
discretas

Markov estabeleceu uma simples e til


relao entre as variveis aleatrias que
forman processos estocsticos

Definies

Estado: se Xn= i diz-se que o processo


est no estado i no instante n, onde {Xn,
n=0,1,2...} um processo estocstico
que passa por um nmero finito ou
contvel de possveis estados.

Transio: a transio de um estado a


outro depende somente do estado
atual, e no da histria do processo

Observaes

No caso das cadeias discretas de


Markov, os instantes de tempo nos
quais a transio entre um estado e
outro acontecem podem asumir apenas
valores inteiros 0, 1, 2..., n. Em outras
palavras, o tempo discretizado.

Os processos devem permanecer num


estado determinado durante um tempo
que deve estar geomtricamente
distribudo.

Observaes

Propriedade Markoviana:
P{Xn+1 = j | Xn = i, Xn-1= in-1,... X0 = i0}
=P{Xn+1 = j | Xn = i} = Pij 0

Interpretao (sistema sem memria):


A transio de um estado para outro s
depende do estado atual, e no da
histria do processo.

Cadeias de Markov
discretas

Xn denota a cidade na qual encontra-se o turista ao


meio-dia no dia n
X1
Curic

X2
Rancagua

X3
Santiago

X4
Valparaso

X5
Serena

...

Me leva?

Cadeias de Markov
discretas
Curic

Rancagua

Santiago

Valparaso

Serena

...

Me leva?

Cadeias de Markov
discretas
Curic

Rancagua

Santiago

Valparaso

Serena

...

Me leva?

Cadeias de Markov
discretas
Curic

Rancagua

Santiago

Valparaso

Serena

...

Me leva?

Cadeias de Markov
discretas
Curic

Rancagua

Santiago

Valparaso

Serena

...

Continuarei mais ao
Norte?

Cadeias de Markov
discretas

Da minha viagem,n posso lhes dizer que:

Nos processos de Markov, o estado atual


do sistema e as probabilidades de
transio entre os diversos estados
caracterizam o comportamento futuro do
sistema.

J que um processo de Markov est num


estado determinado, seu comportamento
futuro no depende de sua histria antes

Definies

Cadeias de Markov so processos


estocsticos {X(t)} que satisfazem:
pij: probabilidade de transio do estado i
para o estado j depende somente do
estado i
YP=[p
( i ) ij]: matriz de probabilidade de
transio
: tempo em que o processo
permanece no estado i, sem memria

Exemplo

Considerando-se apenas o trajeto


Santiago-Valparaso-Serena, tem-se
(1)
graficamente:
Valpo

1/4

3/4
3/4

Santiago
(0)

1/4
1/4
Serena
1/4

(2)

1/2

(1)
Valpo

1/4

3/4
3/4

Santiago
(0)

1/4
1/4
Serena
1/4

1/2

(2)

Nmeros nos arcos do a probabilidade pij do viajante


ser recolhido por um carro

Probabilidade do viajante permanecer em Serena at o


dia seguinte 1/2

Nmeros entre parnteses usados posteriormente

Valpo

1/4

3/4
3/4

Santiago
(0)

(1)

1/4
1/4
Serena
1/4

(2)

Matriz de probabilidades de transio:


0 3 / 4 1/ 4
P 1/ 4
0 3 / 4

1 / 4 1 / 4 1 / 2

1/2

Definies

Num processo de Markov, se diz que um


estado Sj transiente se, de algum
estado Sk que pode ser alcanado desde
Sj, o sistema no pode voltar a Sj. A
probabilidade de no voltar a si mesmo
1existe.
3

Estados 1 e 2 so transientes

Definies

Se diz que um estado recorrente se


de cada estado Sk alcanvel a partir de
Sj, o sistema pode voltar a Sj.

Estados 1, 2 e 3 so recorrentes

Cadeias de Markov
discretas

Exemplo 1: predio do tempo


Dois estados possveis:
0: chuva
1: no chuva
Hiptese: o tempo amanh s depende
de hoje (processo sem memria)
Chove hoje probabilidade de chover
amanh =
No chove hoje probabilidade de
chover amanh =

Cadeias de Markov
discretas
Cadeia de Markov fica definida por:
0

1
1

Graficamente:

1
1

Cadeias de Markov
discretas
Exemplo 2: transformar um processo

no- Markoviano em Markoviano (s


vezes possvel)
Considere-se um elevador em um prdio
de trs andares:
Estados:
Andar 3

Andar 2
Andar 1

Cadeias de Markov
discretas

Processo no-Markoviano, porque no


estado 2 necessria a informao do
estado anterior (1 ou 3) para saber qual
ser a direo do elevador.
Para que o processo seja Markoviano,
se faz necessria uma redefinio dos
estados.

Cadeias de Markov
discretas

Exemplo 2: transformar um processo


no-Markoviano em Markoviano (s
vezes possvel)
Redefinio dos estados:
3: Andar 2, sentido abaixo

2: Andar 3, sentido abaixo


1: Andar 2, sentido acima
0: Andar 1, sentido acima

Cadeias de Markov
discretas

Da redefinio obtm-se o novo diagrama


1
1
1
de estados:
0

0: andar 1, sentido acima


2: andar 3, sentido abaixo

1: andar 2, sentido acima


3: andar 2, sentido abaixo

Cadeias de Markov
discretas

Exemplo 2.1: transformar um processo


no-Markoviano em Markoviano (s
vezes possvel)
Choveu, choveu amanh chover:
p=0,7
No-choveu, choveu amanh chover:
p=0,5
Choveu, no choveu amanh chover:
p=0,4
No choveu, no choveu amanh

Cadeias de Markov
discretas
Exemplo 2.1: transformar um processo

no- Markoviano em Markoviano (s


vezes possvel)
Motivo: h contradio; precisa-se de
informao no s do dia presente, mas
tambm do anterior.
Redefinio de estados: se o estado
depende do tempo de ontem e hoje ento
SIM, pode ser Markoviano
Para transformar um processo noMarkoviano em Markoviano (se possvel),
devem ser redefinidos os estados de

Cadeias de Markov
discretas

Exemplo 2.1: transformar um processo


no- Markoviano em Markoviano (s
vezes possvel)

Portanto, se so redefinidos os seguintes


estados:
0: Choveu, choveu
1: No choveu, choveu
2: Choveu, no choveu
3: No choveu, no choveu

Cadeias de Markov
discretas
Estados:
0: Choveu, choveu
2: Choveu, no choveu

1: No choveu, choveu
3: No choveu, no choveu

Cadeia de Markov definida pela matriz de


probabilidade de transio:

0,7 0 0,3 0
0,5 0 0,5 0

P
0 0,4 0 0,6
0 0,2 0 0,8

Definies

i = probabilidade estacionria de estar


no estado i
i(n) = probabilidade de estar no estado I
no instante n
i(0) = probabilidade inicial de estar no
estado i
=(0, 1, 2, , n)
Por definio:

(1)

( 0)

Definies

Exemplo:

(1) (1)
0 1

( 0) ( 0)
0 1

P00
P
10

Aplicando recursivamente:

(n)

( n 1) P

(n)

( 0) P n

ou

P01
P11

Definies

Se a cadeia de Markov irredutvel e


ergdica, ento:

lim

( 0)

Pn

existe e denominada a probabilidade


lmite de P, ou autovetor esquerdo de P.

Obteno de :

Cadeias de Markov discretas

Exemplo 3: utilizando o exemplo 1, se a


probabilidade de que chover hoje 0.2
e

0.7 0.3
P

0
.
4
0
.
6

Qual a probabilidade incondicional de


que amanh chover?

Cadeias de Markov
discretas
Aplicando o teorema da probabilidade
total:
seja a probabilidade incondicional de
que chover amanh.
= P(amanh chover | hoje choveu) +
P(amanh chover | hoje no choveu)
02
. P00 08
. P10

0.2 0.7 0.8 0.4 0.46

Cadeias de Markov
discretas

Exemplo 4: utilizando o exemplo 1


1
0 1 0 1 1

0 1

(1 ) 0 (1 ) 1

1 0 1

Se 0.7 e 0.4 ento a probabilidade


lmite de que chover 4 / 7 3 / 7
0

Cadeias de Markov
discretas
Voltando ao exemplo do turista:
Me leva?

Valpo

1/4

3/4
3/4

Santiago
(0)

(1)

1/4
1/4
Serena
1/4

(2)

1/2

Cadeias de Markov discretas


Do diagrama de estados pode obter-se a
matriz de probabilidades de transio
0 3 / 4 1/ 4
P 1/ 4
0 3 / 4

1 / 4 1 / 4 1 / 2

definindo-se a matriz de probabilidade


como: 0 1 2

Cadeias de Markov
discretas
Considerando-se a relao

obtm-se que
3
1
3

2
1
4
4
3
1
1 4 0 0 1 4 2
1
1
1
2 4 0 4 1 2 2

com
1 0 1 2

0 0

Cadeias de Markov
discretas
Resolvendo-se as equaes obtm-se
as probabilidades em estado de
equilbrio:
1
0 020
.
5
7
1
028
.
25
13
2
052
.
25

CADEIAS DE MARKOV DE
TEMPO CONTNUO

Cadeias de Markov de
tempo contnuo

Definio: uma cadeia de Markov de


tempo contnuo um processo aleatrio
em que, dado o estado presente, o valor
do processo no futuro no depende do
passado.

como uma cadeia de Markov discreta,


com a diferena de que o tempo de
permanncia em um estado uma
varivel aleatria com distribuio
exponencial.

Cadeias de Markov de
tempo contnuo

Evoluo a partir de um estado:

ij

ik
ij

: taxa mdia de sada do estado i para o estado j


ik
: taxa mdia de sada do estado i para o estado k
Pij : probabilidade de transitar do estado i ao estado j, no
momento da transio

Cadeias de Markov de
tempo contnuo

Definio:
tij (tik): tempo de permanncia no estado i

antes de transitar para j (k), caso passe para


j(k).
tij e tik so variveis aleatrias com distribuio
exponencial de parmetros ij e ik
respectivamente.
t = min { tij , tik }
Seja t
o tempo de
permanncia no estado i. Do anterior se
t se :distribui exponencialmente
deduz que

com parmetro ( ij+ ik)

Cadeias de Markov de
tempo contnuo

Propriedades:
O tempo de permanncia em um estado

Markoviano (processo sem memria)


A escolha do prximo estado se efetua no

instante da transio e s depende do estado


atual e no do passado, portanto Markoviano.

Cadeias de Markov de
tempo contnuo

Dado que o tempo de permanncia em


qualquer estado e a escolha do prximo
estado so Markovianos, ento tem-se
uma cadeia de Markov de parmetro
contnuo.

As variveis aleatrias tempo de


permanncia no estado i e prximo
estado visitado so independentes.

Cadeias de Markov de
tempo contnuo

Definio formal:
Um processo aleatrio X(t) uma cadeia de Markov
de tempo contnuo se:

P X (t s) j | X ( s) i, X (u ) x(u ),0 u s

P X (t s ) j | X ( s ) i

Cadeias de Markov de
tempo contnuo

Exemplo : processo de Poisson


N( )
N(t+s) = j

j-i chegadas
j-i arribos
N(t) = i

t+s

N(t): estado no instante t


N(t): nmero de chegadas
at t

P{ N (t s ) j / N (t ) i , N (u ) X (u ) 0 u t}
P{ N (t s ) j / N (t ) i}
P{( j i )chegadasem(t , t s ]}

O que resolver uma


cadeia de Markov?

encontrar as probabilidades de
transio de qualquer estado i a qualquer
estado j em um dado instante.

Para resolver este problema se utilizar o


princpio do balano global

Princpio de balano
global
Definies:

i i1

2 2i

i i2

...

k ki

...

11i

i ij

Princpio de balano
global
Definies:

k: probabilidade em regime estacionrio de


estar no estado k
Outra interpretao: frao de tempo que o
sistema fica no estado k.

k
Unidad de tiempo de tempo
Unidade

Unidad de tiempo
Unidade
de tempo

Princpio de balano
global
Definies:

k(t): probabilidade de estar no estado k no


instante t
lim k ( t ) k
t

ki: taxa mdia de transio do estado k


para o estado i

k ki: nmero mdio de transies do


estado k ao estado i, por unidade de

Princpio de balano
global
1 ( t ) 1i t

Nmero mdio de
entradas de qualquer
estado k ao estado i
em t

...

...

k ( t ) ki t

i ( t ) i1t

i ( t ) ij t
nmero mdio de
sadas do estado i a
qualquer estado j
em t

Princpio de balano
global

Nmero de entradas totais ao estado i emt:

( t ) ki t o( t )

Nmero de sadas totais desde o estado i em


t:

( t )
j

ij

t o( t )

Princpio de balano
global

Balano de fluxos

Entradas lquidas
nmero mdio de nmero mdio de
mdias por unidade = entradas totais por - sadas totais por
de tempo (EN)
unidade de tempo
unidade de tempo

Considerando-se o nmero de entradas lquidas


em um intervalo t, se tem que:

EN t

k i

( t ) ki i ( t ) ij t o( t )

j i

Princpio de balano
global

O nmero de entradas lquidas em t


pode ser interpretado como:
i t t
+

i t
Unidad de tiempo

Unidade de tempo

i t

EN t i ( t t ) i ( t ) o( t )
i ( t ) o( t )

Princpio de balano
global

Usando-se novamente o balano de


fluxos:

nmero de
Variao do tempo de
permanncia no estado i, = entradas totais em t
por unidade de tempo

nmero de
sadas totais
em t

Esta variao pode expressar-se em forma da


equao de diferenas:

i ( t )

k i

( t ) ki i ( t ) ij t o( t ) (1)

j i

Princpio de balano
global

Dividindo por t em (1):

i ( t )

k i

( t ) ki

o( t )
(2)
i ( t ) ij
t
j i

Tomando-se o limite lim


em (2):
t 0
i ( t )

k i

( t ) ki i ( t ) ij

j i

Equao de balano global para o estado i

(3)

Princpio de balano
global
Equao

de balano global para um estado i

qualquer:
i ( t )

k i

( t ) ki i ( t ) ij
j i

Pode-se

reescrever em forma vetorial da


seguinte maneira:

0i

i ( t )
0 ( t ) ... i ( t ) ... n ( t ) ij
j i
t
:

ni

Princpio de balano
global
Definindo-se:

( t ) 0 ( t )
( t ) 0 ( t )

t
t

0 j

...
...

...

j 0

i0

n0

n (t)

...

i ( t )
t

0i

...

...

... ij
j i

i (t)

...

ni

...

n ( t )
t

0n

in

... nj

j n

Equaes de balano
global

O conjunto das equaes de balano global


pode expressar-se em forma matricial como:

( t )
( t )Q
t
Alm disso, sempre:

(t) 1
i

Equaes de balano global

Equaes de balano
global

Em estado estacionrio se tem que:


fluxo de entrada = fluxo de sada

Q 0

Equaes de balano global em estado estacionrio

Equaes de balano
global

Os conjuntos de equaes anteriores


servem para resolver tanto a situao
transiente como estacionria da cadeia
de Markov. Isto , nos permite encontrar
as probabilidades de transio de
qualquer estado i a qualquer estado j
num intervalo t qualquer (Pij(t)).

Exemplo: Cadeia de
Markov de dois estados

Uma mquina funciona uma quantidade de


tempo exponencialmente distribuda com
mdia 1/Quando falhase repara com a
mesma distribuio em um tempo mdio
1/. Inicialmente, a mquina encontra-se
funcionando.

Deseja-se determinar a probabilidade de


que a mquina esteja funcionando em um
instante t dado. Inicialmente a mquina se
encontra operacional.

Exemplo: Cadeia de
Markov de dois estados
0

1
En
Em
reparo
Reparacin

Operacional

Se

tem que :
01

Condies iniciais:

( 0) 0 ( 0)

10

1 ( 0) 1 0

Exemplo: Cadeia de
Markov de dois estados

Equaes de balano global estabelecem


que:

( t )
0 ( t ) 1 ( t )

0 ( t ) 1 ( t ) 1
Forma

i ( t )

escalar da equao anterior :

k i

( t ) ki i ( t ) ij

j i

k , i, j 0,1

Exemplo: Cadeia de
Markov de dois estados

Portanto:
0 ( t )
0 ( t ) 1 ( t )
t
1 ( t )
0 ( t ) 1 ( t )
t
0 ( t ) 1 ( t ) 1

(4)
(5)
(6)

Exemplo: Cadeia de
Markov de dois estados

Resolvendo (4), (5) e (6), obtm-se:

( ) t
0 (t)

1 ( t )

e ( ) t

Exemplo: Cadeia de
Markov de dos estados

Resolvendo em estado estacionrio,


obtm-se:
0 ( t ) 1 ( t )

0
t
t

0 1 0

(7)

0 1 0

(8)

0 1 1

(9)

Exemplo: Cadeia de
Markov de dois estados

Resolvendo (7), (8) e (9), obtm-se :

Observao:

Tambm pode chegar-se a este resultado atravs


das equaes em estado transiente, fazendo
tender o parmetro t a infinito.

Exemplo: Cadeia de
Markov de dois estados
Grfico de 0 com =4
0

=2

=5
=7

Exemplo: Cadeia de
Markov de dois estados
Grfico de 0 com =4
0

=7
=5

=2

Exemplo: Cadeia de
Markov de dois estados
Grfico de 1 com =4
1

=7
=5

=2

Exemplo: Cadeia de
Markov de dois estados
Grfico de 1 com =4
1

=2

=5
=7

Problema 1

Seja uma cadeia de Markov de trs


estados como se ilustra na figura:
01
10

02

20

Dado que acontece uma transio do estado 0,


determinar a probabilidade de que esta transio
seja para o estado 1.

Problema 1

Define-se:
t01: tempo de permanncia no estado 0 antes de

transitar para o estado 1, caso transite para o


estado 1
t02: tempo de permanncia no estado 0 antes de
transitar para o estado 2, caso transite para
o estado 2

A probabilidade pedida equivalente


probabilidade de que a transio para o
estado 1 ocorra antes da transio para o

Problema 1

Portanto:

P( t 01 t 02 ) P( t 01 t 02 / t 02 s) P( t 02 s)ds
0

P( t 01 s) P( t 02 s) ds
0

(1 e 01s ) 02 e 02s ds
0

01

01 02

Problema 1

Estendendo o resultado anterior, para


qualquer nmero de estados, se tem que:

Pij
onde

ij

k i

ik

Pij: probabilidade de transitar do estado i para o


estado j, dado que acontece uma transio
ik: taxa mdia de sada do estado i para o

Problema 2

Dado que aconteceu uma transio do


estado i, qual a probabilidade de que o
prximo estado seja i ?
Sabe-se que:
Pii 1 Pij
j i

Alm disso:
Pij

ij

k i

ik

Problema 2

Portanto:
Pii 1
j i

ij

k i

1
Pii 1
ik
k i

Pii 1 1 0

ik

j i

ij

Problema 3

Dado que no instante zero o sistema est


no estado i, qual a probabilidade de
permanecer neste estado at o instante t?

P{permanecer em estado i at t} = 1 - P{sair do estado i at t}

Dado que o tempo de permanncia exponencial:


Portanto:

P{sair do estado i at t} 1 e
P{permanecer no estado i at t}

ik t
k i

ik t
k i