Reseña hitorica de la estadistica y la probabilidad
1. RESEÑA HITORICA DE LA ESTADISTICA Y LA PROBABILIDAD
La presencia del hueso astrágalo de oveja o ciervo en las excavaciones
arqueológicas más antiguas, parece confirmar que los juegos de azar tienen una
antigüedad de más de 40.000 años, y la utilización del astrágalo en culturas más
recientes, ha sido ampliamente documentada. Existen en las pirámides de Egipto
pinturas que muestran juegos de azar que datan del año 3.500 a. C. y Herodoto se
refiere a la popularidad y difusión en su época de los juegos de azar,
especialmente la tirada de astrágalos y dados. Los dados más antiguos se
remontan a unos 3000 años antes de Cristo y se utilizaron en el juego como en
ceremonias religiosas.
Las civilizaciones antiguas, explicaban el azar mediante la voluntad divina. En
Grecia y Roma, utilizaban la configuración resultante de tirar cuatro dados para
predecir el futuro y revelar la voluntad favorable o desfavorable de los dioses.
Prácticas similares se han encontrado en culturas tan distintas como la tibetana, la
india o la judía. Piaget ha hecho notar que esta actitud mágica ante el azar se
manifiesta igualmente en los niños.
En el Renacimiento aparece un nuevo enfoque global de considerar al mundo,
induciendo una observación cualitativamente distinta de muchos fenómenos
naturales. El abandono progresivo de explicaciones teológicas conduce a una
reconsideración de los experimentos aleatorios; y los matemáticos italianos del
siglo16, comienzan a interpretar los resultados de experimentos aleatorios
simples. Cardano, establece la equiprobabilidad de aparición de las caras de un
dado a largo plazo. A finales del siglo 16, existía un intuitivo pero preciso análisis
empírico de los resultados aleatorios.
El desarrollo del análisis matemático de los juegos de azar se produce lentamente
durante los siglos 16 y 17, y algunos autores consideran como origen del cálculo
de probabilidades la resolución del problema de los puntos en la correspondencia
entre Pascal y Fermat en 1654. El cálculo de probabilidades se consolida como
disciplina independiente en el período que transcurre desde la segunda mitad del
siglo 17 hasta comienzos del siglo 18.
La teoría de la probabilidad fue aplicada con buenos resultados a las mesas de
juego y con el tiempo a otros problemas socioeconómicos.
Durante el siglo 18 el cálculo de probabilidades se extiende a problemas físicos y
actuariales (seguros marítimos). El factor principal impulsor es el conjunto de
problemas de astronomía y física que surgen ligados a la contrastación empírica
de la teoría de Newton. Estas investigaciones van a ser de importancia
fundamental en el desarrollo de la Estadística.
La industria de los seguros, que nació en el siglo19, requería un conocimiento
exacto del riesgo de perder pues de lo contrario no se podían calcular las pólizas.
2. Al cabo de cincuenta años, muchos centros de enseñanza, estaban estudiando la
probabilidad como un instrumento que les permitiría entender los fenómenos
sociales.
La necesidad de comparar con exactitud los datos observados con la teoría
requería un tratamiento riguroso del mismo, que va a dar lugar a la teoría de
errores.
D. Bernoulli proporciona la primera solución al problema de estimar una cantidad
desconocida a partir de un conjunto de mediciones de su valor que, por el error
experimental, presentan variabilidad. Fue pionero en la aplicación del cálculo
infinitesimal al cálculo de probabilidades.
También Abraham de Moivre, el reverendo Thomas Bayes y Joseph Lagrange
inventaron fórmulas y técnicas de probabilidad.
El impulso fundamental proviene de la obra de Pierre Simon, Marqués de Laplace,
quien indujo la primera definición explícita de probabilidad y desarrolló la ley
normal como modelo para describir la variabilidad de los errores de medida;
también formuló y estimó el primer modelo explicativo estadístico. Por su parte,
Gauss hizo su aportación en la estimación de modelos estadísticos.
Bravais, geólogo y astrónomo, es el primero en considerar la relación entre errores
de medida dependientes entre sí; Benjamín Pierce propone el primer criterio para
rechazar observaciones heterogéneas con el resto y S. Newcomb, el más famoso
astrónomo americano del siglo19, introduce los primeros métodos de estimación
cuando hay errores fuertes en algunos datos (Estimación Robusta).
Como surgió y como aplica sus habilidades ponentes de sus comunidades
Algunos aspectos básicos para poder entender el problema más denigrante de la
sociedad, es decir, la pobreza, éste mal que aqueja a millones de seres humanos
en el planeta y que azota a nuestro querido país, donde los gobernantes, pese a
todos sus intentos, en lograr reducir los niveles de pobreza en la sociedad, por
desgracia se ha incrementado, la pobreza trae consigo a la desigualdad social, la
desnutrición, el analfabetismo, la migración, es caldo de cultivo para el narcotráfico
y una precaria salud, por ello, tocar el interesante y revelador tema de la pobreza,
es aspirar a salir de ella, primeramente debemos recordar lo que viven millones de
personas, y una vez comprendidas las causas y factores que llevaron a esta
ausencia de recursos y oportunidades, podamos ofrecer algunas soluciones reales
para al menos minimizar sus efectos en la sociedad.
Dada la complejidad del problema de la pobreza, es necesario identificar por qué
algunas familias son pobres y otras no, así como los factores que les permiten
pasar de un estado a otro. En muchos casos, la sola identificación de estos
factores permite una recomendación de política de manera más o menos directa,
3. mientras que en otros se requiere un análisis más detallado, que merecería ser
estudiado.
GENERALIDADES DE LA ESTADISTICA
Estadística descriptiva: incluye al conjunto de tratamientos de los datos de una
muestra, de los que se extraen unos valores que sintetizan o resumen sus
características más importantes, y las técnicas de representación de estos valores
de forma que se facilite su análisis. Los valores que aportan gran información
sobre los datos tomados son las medidas de centralización, dispersión y forma.
Variable cuantitativa o simplemente variable: a aquella magnitud que toma
valores mensurables. Las variables se conocen como discretas si toman valores
enteros, como el número de alumnos en un aula o el número de defectos por
metro en un cable eléctrico.
Variables continuas: pueden variar de forma continua, como por ejemplo el peso
de una persona o la longitud de una varilla.
Variables cualitativas o atributos: son aquellas cualidades que no son
mensurables, por ejemplo si una determinada pieza es o no defectuosa.
Regresión: muestra la dependencia entre variables por medio de un modelo
matemático que contempla tanto la parte sistemática como la aleatoria de la
relación entre dichas variables. El modelo obtenido se contrasta por medio de
unas pruebas estadísticas con las que se comprueban las hipótesis formuladas, y
así generalizar los resultados a la población.