Beruflich Dokumente
Kultur Dokumente
Curso 2012-2013
Pedro Faraldo, Beatriz Pateiro
Tema 2. Probabilidad
1. Introducción 1
4. Asignación de probabilidad 6
4.1. Probabilidad condicionada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
4.2. Sucesos independientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
5. Resultados importantes 9
5.1. Teorema de las Probabilidades Totales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
5.2. Teorema de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1 Introducción
En este tema estudiaremos los conceptos fundamentales de la Teoría de la Probabilidad, ilustrándolos desde la
perspectiva de la Teoría de Conjuntos. Comenzaremos describiendo datos obtenidos de experimentos aleatorios,
que son aquellos en los que interviene el azar, y analizando los sucesos que pueden surgir, a través de operaciones
básicas como la unión o la intersección.
El principal objetivo de un experimento aleatorio suele ser determinar con qué probabilidad ocurre cada uno de
los sucesos que lo forman. Las leyes de probabilidad que veremos son fundamentales en el campo de ciencias de
la salud, en la evaluación de pruebas diagnósticas. Ya que las pruebas diagnósticas no son infalibles es importante
conocer probabilidad de la presencia o ausencia de una enfermedad en un paciente a partir de los resultados
(positivos o negativos) de pruebas o de los síntomas (presentes o ausentes) que se manifiestan.
Trabajaremos en este capítulo con el siguiente ejemplo, que nos servirá para entender los conceptos y resultados
que presentaremos a lo largo del tema.
1
Estadística y metodología de la investigación. Grado en Enfermería Tema 2
Ejemplo 1: Se considera una familia formada por una madre, un padre y dos hijos y se definen los siguientes
sucesos:
A1 ={la madre tiene la enfermedad E}
Experimento determinista: es aquel experimento que repetido sucesivamente en condiciones idénticas siem-
pre produce los mismos resultados. Un experimento determinista puede volverse aleatorio si se introduce
un error asociado (por ejemplo, un error de medida).
Para el estudio de los experimentos aleatorios, debemos definir el concepto de espacio muestral y de suceso.
Suceso elemental: es cada uno de los posibles resultados de un experimento aleatorio.
Suceso: es cualquier subconjunto del espacio muestral Ω. En particular, Ω se denomina suceso seguro,
mientras que ∅ (el conjunto vacío) es el suceso imposible.
Al conjunto formado por todos los sucesos asociados a un experimento aleatorio lo denotamos por A.
En el ejemplo. ¿qué significa A1 ∪ A2? ¿y qué significa A1 ∩ A2? A1 ∪ A2 es la unión de los sucesos A1 (la
madre tiene la enfermedad E) y A2 (el padre tiene la enfermedad E). Por tanto A1 ∪ A2 es el suceso en que el
padre o la madre (o ambos) padecen la enfermedad E. También se podría enunciar como:
A1 ∩ A2 es la intersección de A1 con A2 y representa la situación en que los dos sucesos se dan a la vez:
¿Qué significan A3 ∪ B y A3 ∩ B? En este caso, debemos tener en cuenta que A3 ⊂ B. Es decir, A3 está contenido
en B, ya que el suceso en que el primer hijo tiene la enfermedad E es un caso particular de B: al menos un hijo
tiene la enfermedad E. Por tanto: A3 ∪ B = B y A3 ∩ B = A3.
En el ejemplo que hemos planteado, ¿son A3 y A4 incompatibles? Sabemos que dos sucesos son incompatibles
cuando su intersección es vacía, o equivalentemente, cuando no pueden darse a la vez. En el caso de los sucesos
A3 y A4, la intersección es posible, dado que puede haber familias donde el primer hijo y el segundo hijo tengan
la enfermedad E.
A ∪ B = A ∩ B, para A, B ∈ A.
A ∩ B = A ∪ B, para A, B ∈ A.
Sobre el ejemplo, se pueden hacer distintas representaciones de los sucesos, escribiendo unos en función de
otros. Por ejemplo, para expresar C en términos de A1, A2, A3 y A4, el suceso C (al menos uno de los padres
tiene la enfermedad E), podemos escribirlo como C = A1 ∪ A2, como se ha visto en la interpretación de la unión.
Por otro lado, el suceso D (al menos un miembro de la familia tiene la enfermedad E) se puede escribir como
la unión de B (al menos un hijo tiene la enfermedad E) y C (al menos uno de los padres tiene la enfermedad
E): D = B ∪ C . Para el complementario de B tendríamos que, como D = B ∪ C , al igual que en el apartado
anterior, por las leyes de Morgan: D = B ∩ C .
4 Asignación de probabilidad
En el estudio de experimentos aleatorios no es sólo importante conocer los posibles resultados sino también saber
con qué probabilidad ocurre cada uno de ellos. Es por ello que, una vez definidos los posibles sucesos se les debe
asignar una probabilidad. En este curso, introduciremos la definición frecuentista y la asignación de Laplace, que
serán las que consideraremos desde el punto de vista práctico.
Probabilidad. Definición de Laplace (método clásico). Supongamos que Ω tiene un número finito de sucesos
y que todos los sucesos ω ∈ Ω tienen la misma probabilidad. La probabilidad del suceso A, que denotaremos
por P(A), se calcula como el cociente entre casos favorables y casos posibles.
Continuando con el ejemplo, supongamos que en un 10 % de las familias de una determinada población, la
madre tiene la enfermedad E y también en un 10 % de las familias el padre padece dicha enfermedad. El padre
y la madre tienen la enfermedad en un 2 % de las familias.
Sin embargo, en la Figura 7, podemos ver que se hace necesario tener en cuenta también la probabilidad del
suceso que condiciona P(B), ya que aunque la intersección es la misma, en el segundo estamos considerando un
suceso B más probable.
Como aplicación de la probabilidad condicionada, podemos calcular cuál es la probabilidad de que el padre
tenga la enfermedad E si la madre la padece.
Observa que el espacio muestral se reduce ahora a las familias donde la madre padece E. Debemos calcular la
¿Cuál es la probabilidad de que el padre tenga la enfermedad E si la madre no la tiene? Partimos en este
caso de que la madre no padece la enfermedad E. Debemos calcular la siguiente probabilidad condicionada:
P(A2 ∩ A1)
P(A2|A1) = , (1)
P(A1)
P(A1 ∩ A2)
P(A1|A2) = ⇒ P(A1 ∩ A2) = P(A1|A2) · P(A2) = 0 8 · 0 1 = 0 08
P(A2)
ya que tenemos
P(A1 ∩ A2) 0 02
P(A1|A2) = 1 − P(A1|A2) = 1 − = 1 − = 1 − 0 2 = 0 8.
P(A2) 01
En el ejemplo que hemos planteado, ¿son independientes A1 y A2? Por la definición de independencia, A1 y
A2 son independientes si la probabilidad de su intersección es igual al producto de sus probabilidades. Es decir:
P(A1 ∩ A2) = P(A1) · P(A2). Tenemos la siguiente información:
Supongamos que la probabilidad de que cada hijo tenga la enfermedad E es 0’2, mientras que en un 10 % de
las familias ambos hijos tienen la enfermedad E. ¿Cuál es la probabilidad de que en una familia al menos un hijo
tenga la enfermedad E?
Como tenemos las probabilidades: P(A3) = P(A4) = 0 2 y P(A3 ∩ A4) = 0 1 (ambos hijos tienen la enfermedad
E), la probabilidad de que al menos un hijo tenga la enfermedad E sería:
P(B) = 0 2 + 0 2 − 0 1 = 0 3.
5 Resultados importantes
5.1 Teorema de las Probabilidades Totales
Si {A1 , . . . , An } es un conjunto completo de sucesos, con P(Ai ) > 0, para todo i = 1, . . . , n y B ∈ A es un
suceso cualquiera, entonces:
n
P(B) = P(B|Ai )P(Ai )
i=1
Una representación gráfica del resultado podemos verla en la Figura 8, donde podemos ver que el suceso B puede
representarse como unión de cada una de sus intersecciones con los Ai . Como los Ai son disjuntos, la probabilidad
de B puede escribirse como suma de las probabilidades de las intersecciones P(B ∩ Ai ), y como P(Ai ) > 0 la
probabilidad de cada intersección puede obtenerse a partir de la probabilidad condicionada P(B|Ai ).
El Teorema de Probabilidades Totales se aplica para conocer la probabilidad de un suceso, cuando tenemos
definido un conjunto completo de sucesos. Sin embargo, puede ocurrir que conozcamos la probabilidad del suceso
B y que nos interese, a partir de ella, obtener información sobre los sucesos que forman el conjunto completo, es
decir, obtener P(Ai |B). Para ello utilizamos el Teorema de Bayes.
Prevalencia puntual: número de individuos que presenta la enfermedad en un momento dado / número total
de individuos de la población en ese momento o edad.
Prevalencia de período: frecuencia (relativa) de una enfermedad, durante el período de tiempo definido.
Es una proporción que expresa la probabilidad de que un individuo sea un caso (es decir, presente la
enfermedad) en cualquier momento de un determinado período de tiempo. Se calcula como: número de
casos identificados durante el período/número total de individuos de la población.
La prevalencia es una proporción (valores entre 0 y 1) y no tiene dimensiones. Se obtiene como aplicación
inmediata de la regla de Laplace que vimos para la asignación de probabilidad (casos favorables: enfermos; casos
posibles: población total).
Incidencia. La incidencia de una enfermedad es la probabilidad de que un individuo que no ha padecido la
enfermedad la desarrolle en un período de tiempo especificado. Se calcula como: número de casos nuevos de la
enfermedad / número de personas en riesgo de desarrollar la enfermedad por el tiempo que cada una de ellas
permanece en riesgo.
La incidencia expresa la fuerza que tiene una efermedad para cambiar el estado de salud de una población
al estado de enfermedad por unidad de tiempo, en relación a la población susceptible en ese momento. Es un
índice dinámico que requiere seguimiento en el tiempo de la población de interés. Al igual que la prevalencia,
es una proporción y no tiene dimensiones. Su valor depende del tiempo de seguimiento y suele calcularse sobre
una cohorte fija (un grupo de individuos, no permitiendo nuevas entradas en la población durante el período de
seguimiento).
P(+|E) = Sensibilidad.
Falsos positivos: Se produce un falso positivo cuando el individuo está sano pero el resultado de la prueba
es positivo. La probabilidad del falso positivo es:
Falso negativo: Se produce un falso negativo cuando el individuo está enfermo pero la prueba no detecta
la enfermedad. La probabilidad del falso negativo es:
P(−|E) = 1 − Sensibilidad.
La capacidad discriminatoria de una prueba diagnóstica, se puede medir a través de su exactitud o probabilidad
de clasificación correcta:
Exactitud = p · P(+|E) + (1 − p) · P(−|S),
donde p = P(E). El inconveniente de esta medida es que está influencia por el valor de la prevalencia de la
enfermedad p.
Valores predictivos de pruebas diagnósticas. Los conceptos de sensibilidad y especificidad permiten, por lo tanto,
valorar la validez de una prueba diagnóstica. Sin embargo, carecen de utilidad en la práctica clínica. Tanto la
sensibilidad como la especificidad proporcionan información acerca de la probabilidad de obtener un resultado
concreto (positivo o negativo) en función de la verdadera condición del individuo con respecto a la enfermedad.
Sin embargo, cuando a un paciente se le realiza alguna prueba, el médico carece de información a priori acerca
de su verdadero diagnóstico, y más bien la pregunta se plantea en sentido contrario: ante un resultado positivo
(negativo) en la prueba, ¿cuál es la probabilidad de que el paciente esté realmente enfermo (sano)?.
Valor predictivo positivo: Es la probabilidad de padecer la enfermedad si se obtiene un resultado positivo
en el test.
V P+ = P(E|+).
Valor predictivo negativo: Es la probabilidad de que un sujeto con un resultado negativo en la prueba esté
realmente sano.
V P− = P(S|−).
Eficacia: La eficacia de una prueba se define como la suma de sus valores predictivos y mide cómo la
prueba diagnóstica predice el estado de salud/enfermedad:
Ef icacia = V P+ + V P− .
Diagnóstico verdadero
Resultado prueba Enfermo (E) Sano (S)
Positivo Verdaderos positivos (VP) Falsos positivos (FP)
P(+|E) P(+|S)
Sensibilidad
Negativo Falsos negativos (FN) Verdaderos negativos (VN)
P(−|E) P(−|S)
Especificidad
Cuadro 1: Relación entre el resultado de una prueba diagnóstica y la presencia o ausencia de una enfermedad.