Beruflich Dokumente
Kultur Dokumente
Valor buscadoo
Error ocasional
- Errores estadsticos: se pueden hacer hiptesis sobre su comportamiento y evolucin - Errores sistemticos: son muy difciles de estimar. Se pueden acotar mediante la medida de un valor patrn
m.s-2
Dos variables: Sea la variable x relacionada con las variables a y b a travs de la relacin analtica: x = f(a,b) Si se conocen las incertidumbres estadsticas a y b, la incertidumbre estadstica de x viene dada por la relacin: 2x = (f/a)2.2a + (f/b)2.2b
La extrapolacin a varias variables es inmediata
Algunos casos particulares: x = a+b o x = a-b x = ab o x = a/b Ejemplos : (x) 2 = (a)2 + (b)2 (x/x) 2 = (a/a)2 + (b/b)2
La incertidumbre de la altura h suponemos que es no estadstica. No se dice nada de ella as que suponemos que solo se ha medido una vez con una precisin de 1mm (ltima cifra signicativa). En este caso, la resolucin est dada por:
h = 0.001m 12 = 0.0003m gNoEstad = g.dhh = 9.8 0.0003 2.1 = 0.0014 gEstad = g. 2 dtt = 9.8 1.4 0.0005 0.65 = 0.011
y:
Interpretacin inversa de la probabilidad: En un ejemplo como el anterior, es habitual decir: El valor buscado a tiene una probabilidad del 68% de encontrarse en el intervalo (99,101)
Sin embargo, dicha as, la expresin es incorrecta, puesto que el valor buscado est o no est en dicho intervalo y no se le puede asociar una probabilidad
1-=95% /2 /2
As, en una distribucin gaussiana, al intervalo centrado en su valor medio con un anchura de 4 le corresponde un nivel de conanza del 95%. En el caso de distribuciones no simtricas (como la distribucin de Poisson) dado un cierto nivel de conanza, el intervalo de conanza puede ser elegido no simtrico. En ese caso, se puede elegir un intervalo centrado o bien aquel que sea menor.
La medida
Ej: Medida de la longitud de una varilla con una regla Se dan varias posibilidades:
a: La medida proporciona siempre el mismo valor
30
# (num.) medidas
20
# (num.) medidas
24
20
10
10
1
0 19.0 19.2
7
19.4
9 2
19.6
1
19.8 20.0
19.0
19.2
19.4
19.6
19.8
20.0
Longitud (cm)
Longitud (cm)
Aparentemente es el caso mas favorable Sin embargo: - La repeticin de la medida no aporta ventajas - No se puede obtener mejor resultado que el proporcionado por la precisin del aparato de medida: el intervalo mnimo de medida (Ej: L=19.5)
Aparentemente es el caso mas desfavorable Sin embargo (bajo ciertas condiciones): - La repeticin de la medida permite mejorar el conocimiento de la magnitud medida - La calidad (incertidumbre) de la medida se puede mejorar tanto como se quiera aumentando el nmero de medidas
Histograma
Distribuciones
Longitud (cm) 100 # Cuentas/ Intervalo 80 60 40 20 0 10 19.0 19.2 19.4 19.6 40 20 10 19.8 20.0 70
90
Longitud (cm) 3,80 #Cuentas/NTot/Invervalo 3,04 2,28 1,52 0,80 0,76 0 0,40 19.0 19.2 19.4 19.6 0,40 19.8 20.0 2,90 3,80
1,70
Longitud (cm)
Medidas de centralizacin:
- Valor medio o media aritmtica:
x= i=1 xi/N
Si los datos estn agrupados en k intervalos, cada uno centrado en mj y con nj entradas:
k x=j=1 (nj/N) mj
k j j x= j=1 p.m
- Mediana, xM: Es aquel valor tal que, ordenados en magnitud los datos, hay un mismo nmero de ellos por encima y por debajo de dicho valor - Moda, xm: Es el valor mas frecuente
Medidas de dispersin:
- Desviacin tpica:
Otras medidas:
- Residuo:
ri = xi - x
- Momento de orden k:
k = 1 N j=1 (xj- x )k
Nota: Los momentos son tambin medidas de dispersin: La varianza es el momento de orden 2: V=2
x = 19.45
xM = 19.45 =(19.4+19.5)/2 xm = 19.5
# (num.) medidas
20
10
1
0 19.0 19.2
9 2 1
19.8 20.0
19.4
19.6
Longitud (cm)
Comentarios: - Obsrvese que se verica la desigualdad de Tchebychev, que dice: El nmero de medidas entre el valor medio x y k veces la desviacin tpica s es como mnimo: 100(1- 1 )%
k2
- Los datos se distribuyen siguiendo una distribucin fsica para la que se puede disponer o no de un modelo fsico
El problema consiste en determinar la mejor forma funcional de la distribucin, y los parmetros que la denen, con sus incertidumbres, asignando algn ndice de calidad (o de conanza) a las diversas formas funcionales propuestas. Ej. Distribucin de masa invariante de los productos de la desintegracin de una partcula inestable, los niveles de energa en un espectro....
Ejemplos de la medida de una misma variable fsica con un comportamiento aproximadamente gaussiano. La medida de la izquierda tiene mejor resolucin (menor dispersin) que la medida de derecha)
Distribuciones fsicas:
Los datos se distribuyen siguiendo una distribucin fsica para la que se puede disponer o no, totalmente o parcialmene, de un modelo fsico:
Fondo polinmico
Pgina del logbook de un experimento en el detector de neutrinos subterraneo de Kamiokande en el momento de detectar un neutrino proveniente del acelerador KEK, situado a mas de 250km de distancia
Descubrimiento del lepton tau. Cuaderno mostrando los datos experimentales obtenidos y las curvas correspondientes a diversos decaimientos en dos o tres partculas.
(Axiomas de Kolmogorov)
Ejemplo: Cul es la probabilidad de obtener cara (c) o cruz (f) lanzando una moneda al aire? 1. Por b) y c) P(c) + P(f) = 1 2. Por hiptesis de simetra: P(c) = P(f) 1. y 2. P(c) = P(f) = 0.5 Problema: Qu ocurre si la moneda no es simtrica y no es cierta la hiptesis 2.?
Probabilidad (Denicin frecuentista) Dado un conjunto discreto de N medidas de una variable a: A={a1, a2... ak}, se dene: P(ai) = ni/N siendo ni el nmero de observaciones del resultado a =ai.
Ejemplo: Cul es la probabilidad de obtener cara (c) o cruz (f), lanzando una moneda al aire, si ha lanzado 100 veces y se han obtenido 54 veces cara y 46 veces cruz? P(c) = 56/100 = 0.54 y P(f) = 44/100 = 0.46
Problema: Para obtener un resultado mas preciso hay que realizar mas medidas (y ello no siempre es posible). Qu ocurre si estamos sesgando los lanzamientos y el recuento no es correcto?
=1
Por extensin se puede denir la probabilidad de un subconjunto BA P(B), como: P(B) = B f(x)dx
F(x2) F(x1)
x1
x2
Varianza: V=E[(x-)2]
Desviacin tpica:
sN-1 es un estimador centrado de la dispersin matemtica mat. El factor (N-1) corrige el hecho de estar calculado con el valor medio de x en vez de con el valor esperado .
Ejemplo: En la baraja espaola sean, por ejemplo, las siguientes observaciones: a oro : P(a) = 10/40 = 1/4 b rey: P(b) = 4/40 = 1/10 a y b rey de oros: P(a y b) = 1/40 Segn la denicin: P(a|b) = (1/40) / (1/10) = 1/4 ( Probabilidad de ser oro, si es un rey) P(b|a) = (1/40) / (1/4) = 1/10 ( Probabilidad de ser rey, si es un oro) Se verica: P(a|b) = P(a) y P(b|a) =P(b) Ser rey y ser oro a la vez son observaciones independientes
Esta relacin permite calcular una probabilidad condicionada, conocidas las probabilidades individuales y la probabilidad condicional inversa
Ejemplo: En la Faculta de Fsica de la Univ. de Santiago de Compostela, en la especialidad de Fsica de Partculas hay un 70% de chicos. En toda la Facultad hay el mismo nmero de chicas y de chicos y la proporcin de estudiantes que eligen la especialidad de Fsica de Partculas es del 30%. Qu probabilidad hay de que un cierto estudiante est en la especialidad de Partculas? Probabilidad (F. Partculas|Chico) = Prob (Chico|FPartculas). Prob(FPartculas)/Prob (Chico) luego: Probabilidad (F. Partculas|Chico) = 0.7 0.3 / 0.5 = 0. 42 = 42%
Anlisis Bayesiano
El uso del teorema de Bayes se puede extender mas all del concepto de probabilidad y aplicarlo en el llamado test de hiptesis. Esta tcnica estadstica intenta asignar una probabilidad a una cierta hiptesis cmo si se tratase de una variable. Si Hi es una hiptesis, de entre un conjunto de posibles hiptesis vlidas, y a es una cierta observacin, o un conjunto de datos, el teorema de Bayes aplicado a una hiptesis dice:
P(Hi|a) =
P(a|Hi)P(Hi) P(a )
Anlisis Bayesiano
Comentarios: - El teorema supone aplicar una probabilidad a una hiptesis P(Hi), lo que es algo complicado (Ej: cul es el espacio de hiptesis, como se normaliza su probabilidad...?) - Una misma hiptesis se puede expresar de forma diferente pudiendo dar lugar a resultados diferentes. (Ej: masa>0 o masa3>0 son matemticamente iguales. Qu condicin se aplica? ) - El anlisis bayesiano permite tener en cuenta la informacin previa acerca de una cierta hiptesis algo que las tcnicas clsicas no hacen (desperdiciando informacin) o hacen a posteriori (ignorando la informacin previa)
Ejemplo: Se mide una cierta magnitud a, obtenindose el valor a=93. En otro momento se mide nuevamente de forma independiente obtenindose el valor a=101. Qu se puede decir del valor de a? Las tcnicas clsicas consideran las dos medidas independientes. Las tcnicas bayesianas tienen en cuenta la medida previa, lo que, de alguna forma, reduce el espacio de posibles los posibles resultados de a deformando su distribucin de probabilidad y proporcionando un valor ligeramente diferente.
Analisis Bayesiano
Un ejemplo: La masa del neutrino del electrn: Durante mucho tiempo diversos experimentos proporcionaban para el neutrino masas negativas. En ese caso no se puede aplicar el anlisis clsico de intervalos de conanza y niveles de conanza. Es mejor proceder a un tipo de anlisis alternativo conocido como anlisis bayesiano.
PDG 1994
m2 < 0!
Tcnicas clsicas: La masa del neutrino (en concreto m2) se determina en el decaimiento del tritio, como la masa restante de los productos de la desintegracin. Debido a la dicultad de corregir los errores sistemticos, el anlisis clsico ha proporcionado valores negativos! con una probabilidadde ser positiva del 3.5%! Tcnicas bayesianas: Imponen a priori la condicin de que la masa sea positiva (y m2>0). Proporcionan, por tanto, valores positivos (aunque la estimacin de intervalos de probabilidad se hace mas complicada)
Anlisis bayesiano
Un ejemplo de la vida corriente:
IMDb: IMovieDatabase, la mejor base de datos sobre cine IMDb: Su clasificacin sobre las mejores pelculas
- Precaucin al trabajar con histogramas con muchos intervalos conteniendo muy pocos sucesos. Es mejor agrupar los intervalos y trabajar con menos intervalos aunque mas poblados.
Distribucin Binomial
Los recuentos de una cierta magnitud discreta se agrupan siguiendo una distribucin Binomial si podemos suponer que se dan las siguientes condiciones: 1. La magnitud solo admite dos valores: Exito o Fracaso (o Cara o Cruz, Si o No,...) 2. La probabilidad de xito (o fracaso) es constante 3. El nmero de recuentos es siempre el mismo La expresin analtica de una distribucin binomial depende de 1 parmetro, p, y es de la forma:
Representa la probabilidad de obtener k xitos, en N intentos, siendo la p la probabilidad de tener un xito en un intento.
Ejemplos: - El nmero de veces que salen 6 caras, con una moneda en 10 intentos - El nmero de veces que sale un 2 con un dado, cada 10 intentos - El nmero de veces que una partcula sale hacia detrs en el experimento de Rutherford en intervalos iguales de tiempo
Distribucin Binomial
Algunos casos de distribucin binomial:
Comentario: Todo recuento de una variable de la que solo hay dos valores posibles, y sus probabilidades son constantes en el tiempo, sigue una distribucin binomial.
Distribucin de Poisson
Un conjunto de contajes (de una magnitud discreta) se agrupan siguiendo una distribucin de Poisson si podemos suponer que se dan las siguientes condiciones: 1. La produccin de cada cuenta es independiente y aleatoria 2. La probabilidad de cada suceso (cada cuenta) es constante 3. Los sucesos se producen a ritmo constante La expresin analtica de una distribucin de Poisson depende de 1 parmetro es de la forma:
La variable k solo toma valores enteros, aunque el parmetro puede no ser entero.
El parmetro es el valor esperado de las medidas!
Ejemplos: - El nmero de desintegraciones radiactivas de una fuente de larga vida media por unidad de tiempo - El nmero de latas de refresco por kilmetro en la cuneta de una carretera - El nmero entradas en un intervalo de un histograma
Distribucin de Poisson
Comentario: En general, todos los contajes de sucesos independientes y de baja probabilidad, que se producen a ritmo constante, se supone que se distribuyen segn una distribucin de Poisson
Distribucin de Poisson
La distribucin de Poisson se obtiene como lmite de la distribucin binomial cuando se hace: p 0 y N manteniendo p.N = cte. Requrdese que, en la binomial: = N.p y V = N.p.(1-p) Tras el clculo de los lmites: = N.p y V= .(1-p) V= (Poisson)
k Distribuciones de Poisson que denen el intervalo de conanza (1,2) asociado al nivel de conanza (1-). (a): P(x>k)=1/2(1-) (b) P(x<k)=1/2(1-). Cualquier distribucin de Poisson con parmetro dentro de (1,2) contendr al valor k en su intervalo de probabilidad .
Comentario: En general, toda las medidas continuas de una magnitud constante, realizadas con suciente precisin y sin sesgos y sin contribuciones importantes al error, se puede suponer que se agrupan segn una distribucin gaussiana
FWHM=2.32
Algunas propiedades:
Colas no gaussianas!
- f(x=)= 0.6 fmax - La Anchura de la Funcin a Mitad de la Altura, FWHM (Full Width at Half Maximum) = 2.32 - Valor de la integral entre distintos invervalos de probabilidad:
Extremo Inferior Extremo superior Integral
- -2 -3 -4
+ +2 +3 -4
Los valores de esta distribucin son los que habitualmente vienen en las tablas estadsticas o los que producen los generadores de nmeros aleatorios de los ordenadores. Transformacin para pasar de: N(0,1) Transformacin para pasar de: N(,) N(,): x = (xnorm +) N(0,1): xnorm = (1/) (x-)
Ejemplo: Sean x, y y z tres variables que siguen una distribucin N(0,1) y tales que x+y+z=cte. Entonces, el resultado de la medida de la variable n=x2+y2+z2 sigue una distribucin Chi cuadrado con k=3-1=2 grados de libertad.
Ejemplo: Sea un conjunto de variables xi, que se miden independientemente y que siguen distribuciones normales de la forma N(i,i). Entonces, la cantidad, Texto
Esta cantidad est tabulada para diferentes valores del grado de libertad k
(y est incorporada a las funciones de la librera de casi todos los programas de anlisis estadstico de los ordenadores)
C.L
31. Probability
Table 31.1. Some common probability density functions, with corresponding characteristic functions and means and variances. In the Table, (k ) is the gamma function, equal to (k 1)! when k is an integer. Distribution Uniform Probability density function f (variable; parameters) f (x; a, b) = 1/(b a) 0 axb otherwise Characteristic function (u) eibu eiau (b a)iu (q + peiu )N Mean Variance 2 a+b 2 Np (b a )2 12 N pq
Binomial
f (r ; N, p) = r = 0, 1, 2, . . . , N ;
N! pr q N r r !(N r )! 0p1 ;
Poisson
f (n ; ) =
n e ; n!
n = 0, 1, 2, . . . ;
Normal (Gaussian)
f (x; , 2 ) =
T exp i u 1 2u V u
Vjk
T 1 exp 1 (x ) 2 (x ) V
< xj < ; 2 f (z ; n ) =
|V | > 0 (1 2iu)n/2 n 2n
z0
(n+1)/2
Students t
t2 1+ n
Gamma
f (x; , k ) =
k/
k/2
References: 1. H. Cram er, Mathematical Methods of Statistics, (Princeton Univ. Press, New Jersey, 1958). 2. A. Stuart and J.K. Ord, Kendalls Advanced Theory of Statistics, Vol. 1 Distribution
Los principales mtodos de determinacin paramtrica son: - Mtodo de mnimo Chi cuadrado - Mtodo de mxima verosimilitud
Si, efectivamente, los datos obedecen a dicha relacin: - cada yi es una medida del valor f(xi;a) afectada por la incertidumbre i y se espera, entonces, que - las cantidades: yi - f (xi;a) i
deben seguir, cada una de ellas, una distribucin N(0,1). yi - f (xi;a) Entonces, la cantidad s = 2 debe de seguir una distribucion Chi2 i
Procedimiento: El clculo de la familia de parmetros a que minizan el valor de s se puede puede realizar por: - Mediante un procedimiento analtico (este mtodo es muy sencillo para polinimios de cualquier orden) - Mediante un mtodo de minimizacin numrico con el ordenador (imprescindible para funciones complicadas)
8 8 8
2 3 4
6 5 4
La mejor eleccin es la de un polinomio cuadrtico, n=3. Al aadir mas parmetros, la calidad del ajuste mejora pero se pierde signicacin estadstica
Moraleja: El premio Nobel puede estar merodeando alrededor de lo que parece un dato sin inters. Por lo tanto, investiga (tomando mas medidas) cualquier dato extrao antes de despreciarlo.
Ref. Daryl W. Preston: Experiments in Physics (J. Wiley & Sons)