Sie sind auf Seite 1von 3

Teora de juegos de azar y la informacin, Kelly Apuestas, Las solicitudes de auto-informacin

La inferencia estadstica puede ser pensado como la teora de juego aplicado al mundo que los rodea. La mirada de aplicaciones para las medidas de informacin logartmicas nos dicen exactamente cmo tomar la mejor estimacin en la cara de una informacin parcial. En ese sentido, la teora de la informacin podra considerarse una expresin formal de la teora de los juegos de azar. No es de extraar, por tanto, que la teora de la informacin tiene aplicaciones de juegos de azar.

Kelly Apuestas
Kelly apuestas o apuestas proporcional es una aplicacin de la teora de la informacin para invertir y apostar. Su descubridor fue John Larry Kelly Jr.. Parte de la idea de Kelly era que el jugador maximizar la expectativa del logaritmo de su capital, en lugar de la ganancia esperada de cada apuesta. Esto es importante, ya que en este ltimo caso, uno se llev a apostar todo lo que tena cuando se le presenta una apuesta favorable, y si perda, tendra capital con el que hacer apuestas posteriores. Kelly se dio cuenta de que era el logaritmo de la capital del jugador que es aditivo en apuestas secuenciales, y "al que se aplica la ley de los grandes nmeros". INFORMACIN SIDE Un bit es la cantidad de entropa en un evento apostable con dos resultados posibles e incluso las probabilidades. Obviamente, podramos duplicar nuestro dinero si supiramos de antemano con certeza cul ser el resultado de ese evento sera. Idea de Kelly es que no importa lo complicado que es el escenario de las apuestas, se puede usar una estrategia ptima de apuestas, llamado el criterio de Kelly, para hacer que nuestro dinero crezca de manera exponencial con cualquier informacin complementaria que somos capaces de obtener. El valor de esta informacin lateral "ilcito" se mide como la informacin mutua en relacin con el resultado del evento betable: donde Y es la informacin lateral, X es el resultado del evento betable, y es el estado de los conocimientos de la casa de apuestas. Este es el promedio de divergencia de Kullback-Leibler, o ganancia de informacin, de una distribucin de la probabilidad a posteriori de X dado el valor de Y en relacin con la distribucin a priori, o las cifras indicadas, en X. Tenga en cuenta que la expectativa se toma sobre Y en lugar de X: hay que evaluar la forma precisa, a largo plazo, nuestra informacin complementaria Y es antes de empezar a apostar dineroreal en X. Se trata de una aplicacin directa de la inferencia bayesiana. Tenga en cuenta que la informacin Y lado podra afectar no slo nuestro conocimiento del hecho X, sino tambin el propio evento. Por ejemplo, Y puede ser un caballo que tena demasiados avena o no suficiente agua. Las mismas matemticas se aplica en este caso, porque desde el

punto de vista de la casa de apuestas, la fijacin carrera ocasional ya se tiene en cuenta cuando se hace sus probabilidades. La naturaleza de la informacin lateral es extremadamente meticuloso. Ya hemos visto que puede afectar el caso actual, as como el conocimiento de los resultados. Supongamos que tenemos un informante, que nos dice que un determinado caballo va a ganar. Desde luego, no queremos apostar todo nuestro dinero en ese caballo justo en un rumor: que el informante puede apostar por otro caballo, y puede estar propagando rumores slo para que puedan obtener mejores probabilidades mismo. En cambio, como ya hemos indicado, tenemos que evaluar nuestra informacin complementaria en el largo plazo para ver cmo se relaciona con los resultados de las carreras. De esta manera se puede determinar exactamente qu tan confiable es nuestro informante, y colocar nuestras apuestas precisamente para maximizar el logaritmo esperada del capital de acuerdo con el criterio de Kelly. Incluso si nuestro informante nos est mintiendo, an podemos sacar provecho de sus mentiras si podemos encontrar alguna correlacin inversa entre los consejos y los resultados reales de carrera.

DUPLICAR TASA Duplicar tasa de juego en una carrera de caballos es


donde hay caballos, la probabilidad de que el caballo th ser ganar, la proporcin de la riqueza apuesta en el caballo que es, y siendo las probabilidades. Esta cantidad se maximiza por los juegos de azar proporcional: para los cuales donde es la entropa de informacin.

BENEFICIOS ESPERADOS Una relacin importante pero simple que existe entre la cantidad de informacin complementaria de un jugador obtiene y el crecimiento exponencial esperado de su capital:
para una estrategia de apuesta ptima, dnde est el capital inicial, es la capital despus de la apuesta tth, y es la cantidad de informacin secundaria obtenida sobre la apuesta i. Esta ecuacin se aplica en ausencia de los costes de transaccin o las apuestas mnimas. Cuando se aplican estas restricciones, otro concepto de juego importante entra en juego: el jugador debe enfrentarse a una cierta probabilidad de ruina definitiva, lo que se conoce como escenario de la ruina del jugador. Tenga en cuenta que, incluso alimentacin, vestido y vivienda se puede considerar los costos fijos de transaccin y por lo tanto contribuyen a la probabilidad del jugador de la ruina final. Esta ecuacin fue la primera aplicacin de la teora de la informacin de Shannon fuera de su paradigma prevaleciente de comunicaciones de datos.

Las solicitudes de auto-informacin

La probabilidad medida de auto-informacin o surprisal logartmica, cuyo promedio es de entropa de informacin/incertidumbre y cuya diferencia promedio es de KLdivergencia, tiene aplicaciones probabilidades-anlisis por s mismo. Sus dos principales puntos fuertes son que surprisals: reducir las probabilidades de minsculas a nmeros de tamao manejable, y aadir cuando las probabilidades se multiplican. Por ejemplo, se podra decir que "el nmero de estados es igual a dos el nmero de bits", es decir, los estados # # = 2 bits. Aqu la cantidad que se mide en bits es la medida de informacin logartmica antes mencionado. Por lo tanto hay N bits de surprisal en aterrizar todos los jefes de las propias primer lanzamiento de N monedas. La naturaleza aditiva de surprisals, y la capacidad para tener una idea de su significado con un puado de monedas, pueden ayudar a uno poner los eventos improbables en su contexto. Por ejemplo, si uno de los 17 millones de entradas es un ganador, entonces el surprisal de ganar a partir de una sola seleccin aleatoria es de aproximadamente 24 bits. Lanzando 24 monedas varias veces le puede dar una idea de la surprisal de conseguir todas las cabezas en el primer intento. El carcter aditivo de esta medida tambin es muy til cuando sopesar las alternativas. Por ejemplo, imagine que el surprisal de dao de la vacuna es de 20 bits. Si el surprisal de contraer una enfermedad sin ella es de 16 bits, pero el surprisal de dao de la enfermedad si se detecta que es 2 bits, entonces el surprisal de dao por no recibir la vacuna es slo 16 +2 = 18 bits. Independientemente de si usted decide obtener la vacuna, usted puede de esa manera, al menos, asumir la responsabilidad de una decisin informada sobre el hecho de que el no conseguir la vacuna consiste en ms de un poco de riesgo adicional. En trminos ms generales, se puede relacionar la probabilidad p de bits de sbits surprisal como probabilidad = 1/2sbits. Como se sugiri anteriormente, esto es principalmente til con pequeas probabilidades. Sin embargo, Jaynes seal que con verdadero o falso afirmaciones tambin se puede definir bits de Ebits pruebas que el surprisal contra menos el surprisal para. Esta evidencia en bits se refiere simplemente a la odds ratio = p/= 2ebits, y tiene ventajas similares a las de la libre informacin en s misma.

Das könnte Ihnen auch gefallen