Unidad de Análisis Estadístico


 

Breve Historia de la Estadística

 


Desde la antigüedad, los juegos de azar han gozado de gran popularidad.

En las sociedades deterministas el azar se interpretaba como la voluntad de los dioses. El I-Ching o libro de los cambios, las distintas configuraciones de una serie de varillas lanzadas al azar, se interpretaban como la voluntad del TAO.

 

 

La primera cita si bien indirecta referida a un problema relacionado con el cálculo de probabilidades que he encontrado aparece en el Libro II de LA GUERRA DEL PELOPONESO de Tucidides. El problema planteado es el siguiente: se va a asaltar una muralla y es preciso conocer previamente su altura para fabricar una especie de torre móvil que permita a los soldados lacedemonios asaltar la muralla sin correr peligro. La muralla esta fabricada con ladrillos de dimensiones conocidas, por lo tanto el problema se reduce a determinar el numero ladrillos de la muralla, para lo cual envían a varios soldados y desde una prudencial distancia contaron los ladrillos, pero cada soldado da una cifra distinta, al final tomaron la moda de esas mediciones para realizar la estimación de la altura.

 

 

El renacimiento supone un nuevo enfoque al ir abandonando las explicaciones "teológicas" del azar. Muchos autores consideran la correspondencia entre Fermat y Pascal sobre los problemas propuestos por Chevalier de la Mere como el inicio de la teoría del cálculo de probabilidades. En 1654, el noble Francés Chevalier de Mere le pidió a Blaise Pascal, que le ayudara a estudiar las probabilidades de éxito o fracaso en ciertos juegos de azar. Pascal y el matemático Pierre Fermat, comenzaron a desarrollar la entonces novedosa teoría de la probabilidad.

El siguiente factor de empuje es la constatación empírica de las teorías de Sir Isaac Newton, tanto en cuestiones astronómicas como físicas, esta constatación dará lugar al nacimiento de la teoría de los errores.

Bernoulli demuestra la convergencia en probabilidad de la media aritmética aunque en condiciones algo particulares en su obra "El arte de conjeturar" publicada en 1700. Comenta Bernoulli que con gran diferencia de todos los resultados expuestos en dicha obra, el más difícil de demostrar fue este, que hasta el más burdo de los hombres conoce.

 

 

El Marques de Laplace introduce la primera definición de probabilidad, aunque de forma no satisfactoria pues era recursiva.

Definición de probabilidad del Marques de Laplace:

La probabilidad de un suceso A es igual a :

Siempre y cuando todos los casos sean equiprobables, pero claro en la definición aparece la palabra equiprobables, por lo tanto en la definición aparece el término que se desea definir, hasta principios del siglo XX no se formalizo de una forma satisfactoria la definición de probabilidad.

 

 


Johann Carl Friedrich Gauss posiblemente el mejor matemático de todos los tiempos, y desde luego el de mayor precocidad como lo demuestra la siguiente anécdota:

Poco después de cumplir siete años Gauss ingresó en la escuela primaria, una verdadera reliquia de la Edad Media, regida por un bárbaro, un tal Büttner, quien para enseñar a un centenar de muchachos que se hallaban a su cargo, les sumergía en un estado de estupidez aterrorizada, en la que hasta olvidaban sus nombres. En este infierno Gauss encontró su fortuna.


Nada extraordinario sucedió durante los dos primeros años. Al cumplir los 10, Gauss ingresó en la clase de Aritmética. Como se trataba de las primeras clases, ninguno de los muchachos había oído hablar de una progresión aritmética. Fácil era al heroico Büttner plantear un largo problema de sumas cuya respuesta podía encontrar en pocos segundos valiéndose de una fórmula. El problema era del siguiente tipo: 81297 + 81495 + 81693...+ 100899, donde el paso de un número a otro es siempre el mismo (198), debiendo sumarse un cierto número de términos (100).


La costumbre de la escuela era que el muchacho que primero hallaba la respuesta, colocase su pizarra sobre la mesa, el siguiente colocaba la suya sobre la primera y así sucesivamente. Büttner acababa de plantear el problema cuando Gauss colocó su pizarra sobre la mesa: "Ya está", dijo "Ligget se", en su dialecto campesino. Durante toda una hora, mientras los compañeros trabajaban afanosamente, continuó sentado con los brazos cruzados, favorecido de cuando en cuando por una sarcástica mirada de Büttner, quien se imaginaba que el muchacho era un perfecto necio. Al terminar la clase, Büttner examinó las pizarras. En la pizarra de Gauss aparecía un solo número. Cuándo era viejo, a Gauss le gustaba decir que el número que había escrito, constituía la respuesta exacta y que los demás se habían equivocado. Gauss no conocía la estratagema para realizar esos problemas rápidamente. Es muy sencillo una vez conocido el ardid; pero es extraordinario que un muchacho de 10 años, pudiera descubrirlo instantáneamente.

 


 

Gaus desarrolla la distribución normal y demuestra la optimalidad de los mínimos cuadrados.En 1823 y como consecuencia de sus estudios sobre la distribución de los errores experimentales al calcular la órbita del planeta Ceres publica Theoria combinationis observationum erroribus minimis obnoxiae, dedicado a la estadística, concretamente a la distribución normal cuya curva característica, denominada Campana de Gauss, es popular en disciplinas no matemáticas donde los datos son susceptibles de estar afectados por errores sistemáticos y casuales. Se puede decir que los fundamentos de la estadística moderna acababan de nacer.

Problemas de índole astronómico llevan a NewComb a desarrollar técnicas estadísticas de estimación robusta, esto es cuando la muestra esta contaminada por errores de cierta magnitud.

El empuje final a la ciencia estadística es producto de la Teoría de la evolución de Darwin. Galton que era primo de Darwin al estudiar como el factor altura pasa de padres a hijos llega a la conclusión que los hijos de padres muy altos son altos pero no tan altos como sus padres, y los hijos de padres bajos son bajos pero no tan bajos como sus padres, llegando a la conclusión que se produce una regresión hacia la media, desarrollando finalmente lo que hoy conocemos como la Teoría de regresión, También fue el "descubridor" de las huellas digitales.

 

 

Gosset que era empleado de la empresa cervecera Guiness, al estudiar la distribución de muestras pequeñas, termina desarrollando la distribución T de Student, pues a los trabajadores de dicha empresa no les estaba permitido hacer publicaciones, de hay el seudónimo"Student".

 

 

Los fundamentos de la estadística actual y muchos de los métodos de inferencia son debidos a R. A. Fisher. Fisher se intereso primeramente por la eugenesia, lo que le conduce, siguiendo los pasos de Galton a la investigación estadística, sus trabajos culminan con la publicación de la obra Métodos estadísticos para investigaciones. En el aparece la metodología estadística tal y como hoy la conocemos.

El siguiente impulso se produce con las dos guerras mundiales, aplicando los métodos estadísticos a áreas tan diversas como el control de calidad, la sicología y la medicina entre otros.

La búsqueda de respuestas a los interrogantes planteados por estas ciencias, impulsan el desarrollo de nuevos métodos estadísticos, por ejemplo problemas de índole agrónomo conducen a Fisher a crear la Teoría de los diseños experimentales, y un problema de antropología ( el famoso problema de los cráneos de las momias egipcias ) llevan a Fisher a desarrollar el análisis discriminante.

Los problemas de índole logístico en la II guerra mundial dan lugar al desarrollo de la Investigación Operativa, el bloqueo a la ciudad de Berlin dio nacimiento a la programación matemática, el conocido algoritmo Simplex, para resolver el problema de abastecimiento.

A partir de mediados del siglo XX comienza lo que podemos denominar la estadística moderna, uno de los factores determinantes es la aparición y popularización de los computadores. El centro de gravedad de la metodología estadística se empieza a desplazar técnicas de computación intensiva aplicadas a grandes masas de datos, y se empieza a considerar el método estadístico como un proceso iterativo de búsqueda del modelo ideal.

Las aplicaciones en este periodo de la Estadística a la Economía conducen a una disciplina con contenido propio: la Econometría. La investigación estadística en problemas militares durante la segunda guerra mundial y los nuevos métodos de programación matemática, dan lugar a la Investigación Operativa.

A partir de 1950 comienza la época moderna de la Estadística Algunos aspectos diferenciales respecto a los periodos anteriores son:

  • La aparición del computador va a revolucionar la metodología estadística y permitirá la construcción de modelos mas complejos.

  • El cambio de énfasis en la metodología estadística La influencia de Neyman y Pearson entre otros concentran la investigación teórica en la búsqueda de procedimientos óptimos de estimación y contraste de hipótesis.

  • La creciente importancia del análisis multivariable que solo puede tratarse mediante programas de computador adecuados.

  • Las técnicas emergentes de clasificación, simulación y descripción de datos que solo son posibles debido a la creciente potencia de los computadores.

 

Subir