Sie sind auf Seite 1von 8

22.12.

Ejemplos de SPE con estrategias recursivas


Nuestros dos ejemplos anteriores de sub-juegos equilibrios perfectos ya eran
de una naturaleza recursiva. Sin embargo, para poner de relieve esta
propiedad, que refundicin los SPE en la presente notacin para estrategias
recursivas. Equilibrios se construyen mediante el uso de una tcnica de
estimacin-y-verificacin.
En primer lugar, conjetura (v1, z

, z

,V) en las ecuaciones (22.11.1), a

continuacin, verificar las partes (1), (2), y (3) de la Definicin 12.


Los ejemplos coincidan con el desarrollo histrico de la teora. (1) El primer
ejemplo es la repeticin infinita de un resultado de Nash de un perodo, que
era Kydland y equilibrio (1977) consistentes en el tiempo de Prescott. (2) Barro
y Gordon (1983a, 1983b) y Stokey (1989) utilizaron el valor de la repeticin
infinita de los resultados Nash un valor de continuacin para evitar la
desviacin del resultado Ramsey. Para suficientemente altos factores de
descuento, el valor asociado con la continuacin de la repeticin de Nash
resultado puede disuadir al gobierno de que se aparte de la repeticin infinita
de la Ramsey resultado. Esto no es posible para los factores de descuento
bajos. Abreu, Dilip (3) Abreu (1988) y Stokey (1991) demostraron que induce la
estrategia de "palo y zanahoria" de Abreu consecuencias ms graves que la
repeticin de los resultados Nash
22.12.1. La repeticin infinita de los resultados Nash
Es fcil de construir un equilibrio cuyo camino se repite indefinidamente el
resultado de un periodo resultado Nash. Deje

vN

=r( x

, y

). El

equilibrio propuesto es

v 1=v N
z h ( v )=x N v ,
z g ( v )= y N v ,
V ( v , x , y )=v N , ( v , x , y )
Aqu

juega todos los roles de los tres valores en la condicin (3)

Definicin de 12.
Condiciones (1) y (2) son satisfechas por la construccin, y la condicin (3) se
colapsa para

r ( x N , y N ) r [ x N , H ( x N ) ] ,
que es satisfecha por la igualdad en la definicin de una funcin de mejor
respuesta.

22.12.2. Repeticin infinita de un resultado mejor que Nash


Deje

vb

ser un valor asociado con el resultado ( x , y

) de tal manera que

v b =( x b , y b ) > v N

( xb , yb )

y supongamos que

constituye un equilibrio competitivo.

Supongamos, adems, que

r [ x , H ( x ) ]r ( x , y )
b

( v bv N )
1

(22.12.1)

El lado izquierdo es el de un perodo de retorno al gobierno se desve de YB; es


la ganancia de la desviacin. El lado derecho es la diferencia en los valores
actuales asociados
con ajusten al plano frente a revertir para siempre el equilibrio de Nash; es
el coste de desviarse. Cuando la desigualdad es satisfecha, el equilibrio
presenta la
gobierno con un incentivo para no desviarse de YB. A continuacin, un SPE es

v 1=v
z h ( v )=

z g ( v )=

x b si v =v b ;
N
x de otra forma ;

y b si v=v b ;
y de otra manera;
N

b
b
b
b
V ( v , x , y )= v si ( vN , x , y )=( v , x , y ) ;
v de otra manera

Esta estrategia especifica resultado


siempre que
desviacin de

yb

( xb , yb)

y el valor continuacin

vb

es el valor prometido al comienzo del perodo. Cualquier


genera valor continuacin v

. La desigualdad (22.12.1)

valida la condicin (3) Definicin de los 12.


Barro y Gordon (1983a) consideran una versin de este equilibrio en el que la
desigualdad (22.12.1) est satisfecho con

( v b , x b , y b ) =( v R , x R , y R )

. En este

caso, la reversin prev que Nash siempre apoya Ramsey siempre. Cuando la
desigualdad (22.12.1) no se cumple para

( v b , x b , y b ) =( v R , x R , y R )

, podemos

resolver de la mejor SPE valor

( xb , yb )

[con acciones asociadas

soportable por la reversin infinita de Nash

] de

v b =r ( x b , y b ) =( 1 ) r [ x b , H ( x b ) ]+ v N > v N

( 22.12.2 )

La recompensa de seguir la estrategia es igual a la de la desviacin y


volviendo a
Nash. Cualquier valor por debajo de este se puede apoyar, pero ninguno
superior.
b

v <v ,

Cuando

Abreu (1988) busc una manera de apoyar algo mejor que

. En primer lugar, se debe construir un equilibrio que se obtiene un valor

peor que la repeticin permanente de los resultados de Nash. La expectativa


de volver a este equilibrio es compatible con algo mejor que v

en la

ecuacin (22.12.2).
De alguna manera el gobierno debe inducirse temporalmente para realizar una
accin

que tiene un rendimiento peor periodo a periodo que el resultado

de Nash, lo que significa que el gobierno, en general, se vera tentado a


desviarse. Un sistema de equilibrio de las expectativas tiene que ser
construido que hace el gobierno espera hacerlo mejor en el futuro slo por
ajustarse a las expectativas que se adhiere temporalmente a la mala poltica

y .
22.12.3. Algo peor: una estrategia de palo y zanahoria

Para conseguir algo peor que la repeticin de un periodo de resultado Nash,


Abreu (1988) propuso un "castigo palo y la zanahoria." El "palo" parte es un
resultado

( x , y ) C ,

que en relacin con

( xN , y N )

es un mal equilibrio

competitivo desde el punto de vista del gobierno. La parte de "la zanahoria" es


el resultado de Ramsey

( xR , yR ) ,

que el gobierno alcanza para siempre

despus de que se ha aceptado el "palo" en el primer perodo de su castigo.


Queremos un valor de continuacin

por desviarse para apoyar el

resultado del primer periodo

( x , y ) y obtener el valor 12
~
v =( 1 ) r ( x , y ) + v R ( 1 ) r [ x , H ( x ) ] + v . (22.12 .3 )

Abreu propone fijar

v =~v manera que el valor de continuacin de la

desviacin de la accin del primer periodo es igual a su valor original. Si la


parte de "palo" es lo suficientemente grave, la estrategia asociada alcanza un
valor peor que la repeticin de Nash. La estrategia induce al gobierno a
aceptar el mal resultado temporalmente con la promesa de un alto valor de la
continuacin.
Una SPE ofrece el "palo y zanahoria castigos" que alcanza es

v 1=v
h

x si v=v
x de otra forma ;

y R si v=v R ;
y de otra forma ;

z ( v )=

z g ( v )=

R;

R
h
g
V ( v , x , y )= v si ( x , y )=[ z ( v ) , z ( v ) ] ;
~v de otra forma

Cuando el gobierno se desva del primer perodo de accin

y mal prescrito ,

la consecuencia es reiniciar el equilibrio. En otras palabras, el equilibrio es de


auto-ejecucin.
22.13. El mejor y el peor SPE
El valor asociado a la estrategia de palo y la zanahoria de Abreu todava podra
no ser lo suficientemente mala para disuadir al gobierno de que se aparte de
la repeticin de los resultados Ramsey.
Por tanto, estamos interesados en encontrar el valor SPE peor. Ahora
presentamos un par de problemas de programacin sencillas de encontrar el
mejor y el peor valor de SPE. APS (1990) mostraron cmo encontrar todo el
conjunto de valores de equilibrio V. En la configuracin actual, sus ideas
implican lo siguiente:
1. El conjunto de valores de equilibrio V alcanzable por el gobierno es un
subconjunto compacto

[ v , v ] de [ min( x , y ) C r ( x , y ) , r ( x R , y R ) ]
2. El valor de equilibrio peor

puede calcularse a partir de un simple

problema de programacin.
3. Teniendo en cuenta el valor de equilibrio
equilibrio

peor, el mejor valor de

puede calcularse a partir de un problema de programacin.

4. Dado un

v [ v , v ] , es fcil construir un equilibrio que lo alcanza.

Recuerde que en la proposicin 2 que lo peor de equilibrio es que se imponga


por s sola, y aqu se repite versiones de las ecuaciones (22.10.2) y (22.10.3),

v = min

y Y , v 1 V

{( 1 ) r [ h ( y ) , y ]+ v 1 }

(22.13.1)

donde la minimizacin est sujeta a la restriccin de incentivos

( 1 ) r [ h ( y ) , y ]+ v 1 (1 ) r {h ( y ) , H [ h ( y ) ] }+ v .
En la expresin (22.13.2), utilizamos el peor SPE como el valor continuacin en
el caso de una desviacin. Se alcanzar el mnimo cuando la restriccin es
vinculante, lo que implica

ese 13

v =r {h ( y ) , H [ h ( y ) ] } , por alguna accin del gobierno y. Por lo tanto, el

problema de encontrar la peor SPE reduce a la solucin de

v =min r {h ( y ) , H [ h ( y ) ] }
y Y

Luego

v 1 de

calcular

y=argmin r {h ( y ) , H [ h ( y ) ] } ;

( 1 ) r [ h ( y ) , y ]+ v 1=v

y finalmente, comprobando que

cuando

v1

es en s

misma un valor asociado con un mbito. Para comprobar esta condicin,


necesitamos conocer
El computo de

v .

utiliza el hecho de que la mejor SPE es auto-gratificante

es decir, la mejor SPE tiene un valor

continuacin, cuando el

gobierno sigue la estrategia de equilibrio prescrito. Por lo tanto, despus de


que hemos calculado un candidato para el valor SPE peor
calcular un candidato para el mejor valor

v , podemos

resolviendo el problema de

programacion

v =max r [ h ( y ) , y ]
y Y

Sujeto a

r [ h ( y ) , y ] ( 1 ) r {h ( y ) , H [ h ( y ) ] }+v .

Aqu estamos usando el hecho de que

es el valor mximo de continuacin

disponible para premiar a la adhesin a la poltica, de manera que

v =( 1 ) r [ h ( y ) , y ]+ v .

Vamos

y b ser la maximizacin del valor de

Una vez que hemos completado o, podemos comprobar que el valor

y .
v1

continuacin para soportar el peor valor esta dentro de nuestro conjunto de


candidatos

[ v , v ] . Si es as, hemos tenido xito en la construccin de V.

22.13.1 Cuando

v1

Si nuestro candidato

esta fuera del conjunto de candidatos

v1

no est dentro de nuestro conjunto de candidatos

[ v , v ] , tenemos que buscar un conjunto ms pequeo.


Pudimos encontrar esta conjunto mediante la aplicacin de la siguiente lnea
de razonamiento. Lo sabemos

v =r {h ( y ) , H [ h ( y ) ] }

y , y que para

Para algunos

(22.13.3)
que

satisface el valor de continuacin

v1

( 1 ) r [ h ( y ) , y + v 1 ]=( 1 ) r {h ( y ) , H [ h ( y ) ] }+ v .
Resolviendo esta ecuacin para

v 1=

v1

da

1
( r {h ( y ) , H [ h ( y ) ] }r [ h ( y ) , y ] )+r { h ( y ) , H [ h ( y ) ] }

(22.13.4)

El termino en grandes parntesis de la derecha mide el periodo de una sola


tentacin de desviarse de

+ como 0

y . Se multiplica por

. Por lo tanto, como

1
, que se aproxima a

0 , es necesario que el termino

entre llaves se acerque a cero, lo que significa que el requerido


acercarse

debe

yN .

Para los factores de descuento que son tan pequeas que

v 1 es fuera de la

regin de los valores propuestos en la subseccin anterior debido a que la

v1

implcita excede el candidato

v , podemos proceder con el espritu de

la poltica de palo y zanahoria de Abreu, pero en lugar de utilizar la realidad


virtual como la continuacin valor para recompensar la adhesin (porque eso
es demasiado esperar de aqu), simplemente podemos beneficiar a la peor
adhesin con
Usando

v , lo que tenemos que soluciona

v =v 1 como el valor de continuacin para la adhesin a los peores

conduce a resolver cuatro ecuaciones para

v , v, y,y:

v =r {h ( y ) , H [ h ( y ) ] }
(22.13.5)

v=

1
( r {h ( y ) , H [ h ( y ) ] }r [ h ( y ) , y ] )+ r {h ( y ) , H [ h ( y ) ] }

(22.13.6)

v =r [ h ( y ) , y ]
(22.13.7)

v =( 1 ) r { h ( y ) , H [ h ( y ) ] }+ v
(22.13.8)
En el ejercicio 16.3, pedimos al lector resolver estas ecuaciones para un
ejemplo particular.
22.14. Ejemplos: formas alternativas para lograr el peor
Volvemos a la situacin prevista antes del ltimo inciso, de modo que la
alternativa

v1

[v ,v]

pertenece al conjunto de candidatos requeridos

describen ejemplos de algunos equilibrios que alcanzan el valor

.Se

v .

22.14.1 El logro de lo peor, mtodo 1


Hemos visto que para evaluar el mejor valor sostenible, queremos encontrar el
peor valor. Muchos SPE alcanzan el peor valor. Para calcular una estrategia de
este SPE, podemos utilizar el siguiente procedimiento recursivo:
1. Establecer el primer-periodo, valor prometido

y =arg minr {h ( y ) , H [ h ( y ) ] }.

donde

valor de un periodo da valor

El equilibrio competitivo con el peor

r [h ( y ) , y

x =h ( y ) , el gobierno est tentado hacia


utilidad de un periodo de gobierno de
A continuacin utilice
de una desviacin ,

v 0 =v=r {h ( y ) , H [ h ( y ) ] } ,

. Dadas las expectativas

H (x ),

que produce la

r {h ( y ) , H [ h ( y ) ] } .

como el valor de la continuacin en el caso

y construir el aumento de la secuencia de valores

de continuacin para recompensar a la adherencia , como sigue:


2. Resolver
3. Para

v =( 1 ) r [ h ( y ) , y ] + v 2 para el valor de continuacin

j=1,2, ,

v1 .

continua la solucin de

para los valores de continuacin

v j+1

v j=( 1 ) r [ h ( y ) , y ] + v j+1

mientras

v j+1 v .

Si

v j+1

j= j

amenace incumplir esta restriccin


4.

4. Utilizar

como

v j=( 1 ) r [ h ( ~
y ) , ~y ] + v
vj

el valor prometido

v j+s =v

5. Conjunto

valor

de

a continuacin vaya al paso


continuidad,

para la prescripcin

~
y

solucionar

que debe seguirse si

es encontrado.

para

s 1 .

22.14.2 Consecucin del peor, mtodo 2


Para construir otro equilibrio apoyando el peor valor SPE, siga los pasos 1y2, y
siga
el
paso
3
tambin,
excepto
si
continuamos
resolviendo

v j=( 1 ) r [ h ( y ) , y ] + v j+1

medida

v j+1 solo en la

para la continuacin de valores

v j+1 <v N .Tan pronto como

>v N
v j+1=v , usamos

ya que tanto el

valor prometido y el valor de continuacin a partir de entonces. En trminos de

nuestra notacin estrategia recursiva, cada vez

prometido

y
v

,
zh

Escriba aqu la ecuacin.

h
=r

es el valor

Das könnte Ihnen auch gefallen