Beruflich Dokumente
Kultur Dokumente
El trmino alemn Statistik, que fue primeramente introducido por Gottfried Achenwall
(1749), designaba originalmente el anlisis de datos del Estado, es decir, la "ciencia del
Estado" (tambin llamada aritmtica poltica de su traduccin directa del ingls). No fue
hasta el siglo XIX cuando el trmino estadstica adquiri el significado de recolectar y
clasificar datos. Este concepto fue introducido por el militar britnico Sir John Sinclair
(1754-1835).
En su origen, por tanto, la Estadstica estuvo asociada a los Estados, para ser utilizados
por el gobierno y cuerpos administrativos (a menudo centralizados). La coleccin de
datos acerca de estados y localidades contina ampliamente a travs de los servicios de
estadstica nacionales e internacionales. En particular, los censos suministran
informacin regular acerca de la poblacin.
Ya se utilizaban representaciones grficas y otras medidas en pieles, rocas, palos de
madera y paredes de cuevas para controlar el nmero de personas, animales o ciertas
mercancas. Hacia el ao 3000 a. C. los babilonios usaban ya pequeos envases
moldeados de arcilla para recopilar datos sobre la produccin agrcola y de los gneros
vendidos o cambiados. Los egipcios analizaban los datos de la poblacin y la renta del
pas mucho antes de construir las pirmides en el siglo XI a. C. Los libros bblicos de
Nmeros y Crnicas incluyen en algunas partes trabajos de estadstica. El primero
contiene dos censos de la poblacin de Israel y el segundo describe el bienestar material
de las diversas tribus judas. En China existan registros numricos similares con
anterioridad al ao 2000 a. C. Los antiguos griegos realizaban censos cuya informacin
se utilizaba hacia el 594 a. C. para cobrar impuestos.
Orgenes en probabilidad
Los mtodos estadstico-matemticos emergieron desde la teora de probabilidad, la
cual data desde la correspondencia entre Pascal y Pierre de Fermat (1654). Christian
Huygens (1657) da el primer tratamiento cientfico que se conoce a la materia. El Ars
coniectandi (pstumo, 1713) de Jakob Bernoulli y la Doctrina de posibilidades (1718)
de Abraham de Moivre estudiaron la materia como una rama de las matemticas.1 En la
era moderna, el trabajo de Kolmogrov ha sido un pilar en la formulacin del modelo
fundamental de la Teora de Probabilidades, el cual es usado a travs de la estadstica.
La teora de errores se puede remontar a la pera miscellnea (pstuma, 1722) de Roger
Cotes y al trabajo preparado por Thomas Simpson en 1755 (impreso en 1756) el cual
aplica por primera vez la teora de la discusin de errores de observacin. La
reimpresin (1757) de este trabajo incluye el axioma de que errores positivos y
negativos son igualmente probables y que hay unos ciertos lmites asignables dentro de
los cuales se encuentran todos los errores; se describen errores continuos y una curva de
probabilidad.
Pierre-Simon Laplace (1774) hace el primer intento de deducir una regla para la
combinacin de observaciones desde los principios de la teora de probabilidades.
Laplace represent la Ley de probabilidades de errores mediante una curva y dedujo una
frmula para la media de tres observaciones. Tambin, en 1871, obtiene la frmula para
la ley de facilidad del error (trmino introducido por Lagrange, 1744) pero con
ecuaciones inmanejables. Daniel Bernoulli (1778) introduce el principio del mximo
producto de las probabilidades de un sistema de errores concurrentes.
El mtodo de mnimos cuadrados, el cual fue usado para minimizar los errores en
mediciones, fue publicado independientemente por Adrien-Marie Legendre (1805),
Robert Adrain (1808), y Carl Friedrich Gauss (1809). Gauss haba usado el mtodo en
su famosa prediccin de la localizacin del planeta enano Ceres en 1801. Pruebas
adicionales fueron escritas por Laplace (1810, 1812), Gauss (1823), James Ivory (1825,
1826), Hagen (1837), Friedrich Bessel (1838), W.F. Donkin (1844, 1856), John
Herschel (1850) y Morgan Crofton (1870). Otros contribuidores fueron Ellis (1844),
Augustus De Morgan (1864), Glaisher (1872) y Giovanni Schiaparelli (1875). La
frmula de Peters para , el probable error de una observacin simple es bien conocido.
El siglo XIX incluye autores como Laplace, Silvestre Lacroix (1816), Littrow (1833),
Richard Dedekind (1860), Helmert (1872), Hermann Laurent (1873), Liagre, Didion y
Karl Pearson. Augustus De Morgan y George Boole mejoraron la presentacin de la
teora. Adolphe Quetelet (1796-1874), fue otro importante fundador de la estadstica y
quien introdujo la nocin del hombre promedio (lhomme moyen) como un medio de
entender los fenmenos sociales complejos tales como tasas de criminalidad, tasas de
matrimonio o tasas de suicidios.
Estado actual
Durante el siglo XX, la creacin de instrumentos precisos para asuntos de salud pblica
(epidemiologa, bioestadstica, etc.) y propsitos econmicos y sociales (tasa de
desempleo, econometra, etc.) necesit de avances sustanciales en las prcticas
estadsticas.
Hoy el uso de la estadstica se ha extendido ms all de sus orgenes como un servicio al
Estado o al gobierno. Personas y organizaciones usan la estadstica para entender datos
y tomar decisiones en ciencias naturales y sociales, medicina, negocios y otras reas. La
estadstica es entendida generalmente no como un sub-rea de las matemticas sino
como una ciencia diferente aliada. Muchas universidades tienen departamentos
acadmicos de matemticas y estadstica separadamente. La estadstica se ensea en
departamentos tan diversos como psicologa, educacin y salud pblica.
Al aplicar la estadstica a un problema cientfico, industrial o social, se comienza con un
proceso o poblacin a ser estudiado. Esta puede ser la poblacin de un pas, de granos
cristalizados en una roca o de bienes manufacturados por una fbrica en particular
durante un periodo dado. Tambin podra ser un proceso observado en varios ascos
instantes y los datos recogidos de esta manera constituyen una serie de tiempo.
Por razones prcticas, en lugar de compilar datos de una poblacin entera, usualmente
se estudia un subconjunto seleccionado de la poblacin, llamado muestra. Datos acerca
de la muestra son recogidos de manera observacional o experimental. Los datos son
entonces analizados estadsticamente lo cual sigue dos propsitos: descripcin e
inferencia.
El concepto de correlacin es particularmente valioso. Anlisis estadsticos de un
conjunto de datos puede revelar que dos variables (esto es, dos propiedades de la
poblacin bajo consideracin) tienden a variar conjuntamente, como si hubiera una
conexin entre ellas. Por ejemplo, un estudio del ingreso anual y la edad de muerte
podra resultar en que personas pobres tienden a tener vidas ms cortas que personas de
mayor ingreso. Las dos variables se dicen que estn correlacionadas. Sin embargo, no se
puede inferir inmediatamente la existencia de una relacin de causalidad entre las dos
variables. El fenmeno correlacionado podra ser la causa de una tercera, previamente
no considerada, llamada variable confusora.
Si la muestra es representativa de la poblacin, inferencias y conclusiones hechas en la
muestra pueden ser extendidas a la poblacin completa. Un problema mayor es el de
determinar que tan representativa es la muestra extrada. La estadstica ofrece medidas
Variables cualitativas:
Son las variables que expresan distintas cualidades, caractersticas o modalidad. Cada
modalidad que se presenta se denomina atributo o categora y la medicin consiste en
una clasificacin de dichos atributos. Las variables cualitativas pueden ser ordinales y
nominales.
Las variables cualitativas pueden ser dicotmicas cuando slo pueden tomar dos valores
posibles como s y no, hombre y mujer o son politmicas cuando pueden adquirir tres o
ms valores.
Dentro de ellas podemos distinguir:
Variable cualitativa ordinal: La variable puede tomar distintos valores ordenados
siguiendo una escala establecida, aunque no es necesario que el intervalo entre
mediciones sea uniforme, por ejemplo, leve, moderado, grave
Variable cualitativa nominal: En esta variable los valores no pueden ser sometidos a un
criterio de orden como por ejemplo los colores o el lugar de residencia.
Variables cuantitativas:
Son las variables que se expresan mediante cantidades numricas. Las variables
cuantitativas adems pueden ser:
Variable discreta: Es la variable que presenta separaciones o interrupciones en la escala
de valores que puede tomar. Estas separaciones o interrupciones indican la ausencia de
valores entre los distintos valores especficos que la variable pueda asumir. Un ejemplo
es el nmero de hijos.
Variable continua: Es la variable que puede adquirir cualquier valor dentro de un
intervalo especificado de valores. Por ejemplo el peso o la altura, que solamente
limitado por la precisin del aparato medidor, en teora permiten que siempre exista un
valor entre dos cualesquiera.
Segn la influencia que asignemos a unas variables sobre otras, podrn ser:
Variables independientes: Son las que el investigador escoge para establecer
agrupaciones en el estudio, clasificando intrnsecamente a los casos del mismo. Un tipo
especial son las variables de confusin, que modifican al resto de las variables
independientes y que de no tenerse en cuenta adecuadamente pueden alterar los
resultados por medio de un sesgo.
Variables dependientes: Son las variables de respuesta que se observan en el estudio y
que podran estar influenciadas por los valores de las variables independientes.
LA ESTADISTICA DESCRIPTIVA:
+ Es la rama de la estadstica que se ocupa de la recoleccin, presentacin, descripcin,
anlisis e interpetacin de un conjunto de datos.
+ Analiza, estudia y describe las caractersticas particulares de la totalidad de los
individuos de un grupo.
+ Tiene como finalidad obtener informacin, analizarla, elaborarla y simplificarla lo
necesario para poder interpretarla rapidamente.
comprobar el efecto de las variables y el efecto de la interaccin entre ellas. Se usa para
analizar los resultados de investigaciones de tipo experimental que usan un diseo
factorial.
+ Distribucin Xi2 (Chi cuadrada). De bondad ajustada y de independencia. Es una
prueba usada para la contrastacin de hiptesis.
+ Los elementos que integran la EI son:
1.- Teoria de las muestras. Las propiedades de una muestra deben ser extrapolables a
toda la poblacin.
2.- Contraste de hiptesis. Permite juzgar si la propiedad que suponemos debe cumplir
la poblacin estadstica es compatible con lo observado en la muestra.
3.- Diseo experimental. Consiste en la serie de pasos que hay que dar para crear un
experimento cientfico para corraborar o descartar una hiptesis.
4.- Informacin baynesiana. Las observaciones y las evidencias son utilizadas para
actualizar o para inferir la probabilidad y grado de certeza de una hiptesis.
5.- Mtodos no paramtricos. Son usados para estudiar modelos estadsticos que tienen
una distribucin que no se ajusta a los criterios paramtricos conocidos. Algunos de los
metodos no paramtricos mas utilizados son la Prueba Y (cuadrada) de Pearson, la
prueba de Cochran, la prueba de Fisher, la prueba de Kendall, la prueba de la mediana.
+ La mayora de los test no paramtricos estn programados en los paquetes estadsticos
computacionales mas frecuentes.
ESCALAS DE MEDICIN
Para qu sirve la Escala de Medicin?
CONCEPTO
Escalas de medicin son una sucesin de medidas que permiten organizar datos en
orden jerrquico. Las escalas de medicin, pueden ser clasificadas de acuerdo a una
degradacin de las caractersticas de las variables. Estas escalas son: nominales,
ordinales, intervalares o racionales. Segn pasa de una escala a otra el atributo o la
cualidad aumenta. Las escalas de medicin ofrecen informacin sobre la clasificacin
de variables discretas o continuas. Toda vez que dicha clasificacin determina la
seleccin de la grfica adecuada.
Escala de Medicin.
Se entender por medicin al proceso de asignar el valor a una variable de un elemento
en observacin. Este proceso utiliza diversas escalas: nominal, ordinal, de intervalo y de
razn.
Las variables de las escalas nominal y ordinal se denominan tambin categricas, por
otra parte las variables de escala de intervalo o de razn se denominan variables
numricas. Con los valores de las variables categricas no tiene sentido o no se puede
efectuar operaciones aritmticas. Con las variables numricas s.