• TEMA DEL MES •

Año Internacional de la Estadística

Algo de historia sobre la estadística

Federico O’Reilly Togno
Algo de historia sobre la estadística
  • Uno
  • Dos
  • Tres

Introducción

En esta nota, de manera informal, se intentarán comentar algunos antecedentes históricos, diferentes en cuanto a su origen y propósito, que de manera complementaria dieron paso a las bases que ahora sustentan el pensamiento estadístico.

Existen indicios sobre la concepción de lo aleatorio desde la antigüedad, asociando este concepto a lo impredecible, lo esotérico, lo mágico, y en cierto modo, también a lo religioso.
Existen indicios sobre la concepción de lo aleatorio desde la antigüedad, asociando este concepto a lo impredecible, lo esotérico, lo mágico, y en cierto modo, también a lo religioso. Su ilustración más directa se ha hecho en los juegos de azar. Algunas de estas concepciones no han variado mucho a lo largo de los años, todavía existen, y se relacionan con lo esotérico y la adivinación, la “echada de las cartas”, para ver el futuro. Como un ejemplo de asociación del azar con un ritual religioso, F. N. David, en su libro de Games, Gods and Gambling, relata el uso de unos dados que determinarían el tipo de ritual requerido para un problema planteado por creyentes de un monasterio del Tíbet. En este relato se insinúa que los dados utilizados aparentemente están cargados y así favorecen los rituales con costo más elevado.

Dados

Juegos

Entre los aficionados a los juegos de azar se manejan ideas como “rachas” y “corazonadas”, ya no se diga la “suerte”. Sin ir más lejos, en la Lotería Nacional los billeteros anuncian “…el esperado en 8, para que se vaya al puerto Jarocho, se coma un biscocho, etc.”, esto es, rimas y hasta sobreprecios en la venta del “esperadito” por interpretaciones cercanas más a lo mítico que a lo científico. Pero, ¿desde cuándo es así?

Los juegos de azar han estado en la humanidad desde tiempos inmemoriales. En el libro de F. N. David se menciona un hueso (el astragalus, talón de un animal domesticado; perro o borrego) que tenía cuatro caras planas y era marcado con símbolos diferentes en cada una. Esos huesos marcados se han encontrado en cavernas que fueron habitadas en la prehistoria y se presumen como parte de un juego. Dicho entretenimiento estaba envuelto por el misterio de no poder anticipar con certidumbre la cara que quedaría hacia arriba después de lanzarlo. En Egipto, desde el año 3500 a. C. se empezó a usar el astragalus. En el libro de F. N. David aparece una reproducción (Plate I), de una pintura encontrada en una tumba, en la que hay un noble que está al lado de un tablero sosteniendo un astragalus en un dedo, supuestamente como un entretenimiento en el más allá.

Para el siglo XVII, entre la nobleza europea los juegos de azar eran un pasatiempo (y un vicio), y estaban tan establecidos que despertaron interés entre los estudiosos de la época. En particular sirvieron como ejemplo muy directo para iniciar una modelación de su comportamiento; esto es, el intentar obtener una explicación científica del azar. Allí se desarrolló lo que ahora conocemos como la teoría de la probabilidad, que desde esos años contaba ya con conceptos como esperanza, esperanza condicional, la noción de los llamados “momios” (odds),
Para el siglo XVII, entre la nobleza europea los juegos de azar eran un pasatiempo (y un vicio), y estaban tan establecidos que despertaron interés entre los estudiosos de la época.
y el concepto de independencia. Son famosas las cartas intercambiadas entre los científicos Pascal y Fermat sobre los problemas enfrentados en el juego (en el libro de F. N. David aparecen varias de éstas).

Un ejemplo famoso de esa época es la llamada Paradoja del Chevalier de Meré, que planteaba una aparente disparidad entre resultados obtenidos en la mesa de juegos y los cálculos matemáticos para las expectativas. Ésta en realidad no es una paradoja, sino que enmascara un cálculo que estaba equivocado, pero vale la pena comentarla. Por un lado se consideraba un juego consistente en lanzar un dado cuatro veces y apostarle a que caiga al menos un As; denotemos a este evento con la letra A, en este primer juego. Por otro lado, se consideraba un juego que consistía en hacer 24 tiradas de un par de dados en el que interesa el evento de que caiga al menos un par de Ases; denotemos a este evento, en este juego diferente, con la letra B.

Con sus elucubraciones matemáticas, el Caballero de Meré había concluido que la probabilidad de A y la de B deberían ser iguales, sin embargo, en su experiencia personal, había observado que no parecía ser el caso, y por ello le resultaba paradójico. Haciendo uso de conocimientos básicos de la teoría de la probabilidad, para calcular la probabilidad del evento A (denotada P(A)), resulta más sencillo fijarse en la negociación o evento complementario Ac cuya probabilidad es 1–P(A). El que no ocurra A equivale a que en cuatro tiradas de un dado no caiga ningún As. En una tirada la probabilidad de que no caiga un As es 5/6, así que en cuatro tiradas (independientes) la probabilidad de ningún As es (5/6)4 = 0.482253…, por lo cual P(A) = 0.517747…

Con un razonamiento similar, fijándonos en el evento complementario, Bc ocurre si y sólo si en cada lanzamiento (de 24), de un par de dados, no ocurre el par de Ases; esto es con probabilidad (35/36)24 = .508596, por lo que P(B) = 0.491404… Se observa entonces que no hay paradoja, pues lo cálculos correctos muestran que las probabilidades son diferentes; de hecho, P(A) es ligeramente mayor. Lo que sí puede uno concluir es que el Caballero de Meré pasaba muchas horas jugando para haber experimentado que había una diferencia.

El uso de una discrepancia encontrada experimentalmente entre la realidad y una teoría (el haber afirmado que P(A) = P(B)), es un ejemplo claro de cómo, con observaciones de un fenómeno aleatorio bajo estudio, se puede verificar (en un sentido restringido de la palabra), si el supuesto teórico está acorde o no está acorde con los datos experimentales. Este modo de pensar es eminentemente estadístico.

Ruleta

Riesgos

La conceptualización de lo aleatorio apareció en diferentes contextos. El más comentado, desde luego, es el de los juegos de azar, donde lo aleatorio se genera automáticamente al utilizar un mecanismo que deliberadamente lo produce: el lanzamiento del dado o la elección de una carta de un conjunto barajado de cartas, o hacer girar una rueda con casilleros y una pelotita que al término del movimiento se sitúa en uno de ellos. Pero ante eventos inciertos de otra naturaleza, como la ocurrencia de un naufragio de un navío mercante y la consecuente pérdida, se desarrolló una cultura económica para enfrentar los riesgos
Pero ante eventos inciertos de otra naturaleza, como la ocurrencia de un naufragio de un navío mercante y la consecuente pérdida, se desarrolló una cultura económica para enfrentar los riesgos inherentes a eventos inciertos, esencialmente basada en la noción de apuestas.
inherentes a eventos inciertos, esencialmente basada en la noción de apuestas. Para esto, eran determinantes las apreciaciones sobre la posibilidad de que ocurriera la catástrofe para hacer apuestas balanceadas. En Holanda e Inglaterra florecieron este tipo de consideraciones que llevaron a lo que después se convirtió en el concepto de seguro.

De manera muy simplificada, si el dueño de un navío enfrentaba la posibilidad de perder su inversión (el costo del navío y el valor de la mercancía ya en puerto), digamos que de 950 unidades; y en adición, tener que pagar indemnizaciones por las pérdidas de vidas, digamos que otras 50 unidades, eso totaliza, en caso de catástrofe, la pérdida de 1000 unidades. Pero suponiendo que había una apreciación de que la catástrofe se presentará, con momios 1:9, esto es, con una probabilidad de 1/10, entonces una apuesta justa sería aquella en la que apostar a la catástrofe pagaría 10 por cada unidad apostada y apostar a que no ocurriría la catástrofe pagaría 10/9 por cada unidad apostada. Se subraya el hecho de que exista una apreciación compartida por las partes para que exista apuesta. Si no existiera acuerdo, simplemente no habría apostadores, tanto a favor como en contra. Eso equivale, en lo general, a la existencia de un mercado financiero.

Azar

El dueño del navío referido podría apostar, digamos 100 unidades al evento catastrófico. Usando como valor de referencia las 950 unidades en que se valúan su navío y mercancías en puerto, si ocurriera la catástrofe perdería 1000 unidades monetarias asociadas a la catástrofe, pero ganaría la apuesta, con lo que se compensan así las 950 unidades originales menos las 100 unidades que pagó por apostar, esto le daría un neto de 850. Esto es, pasaría de un capital de 950 con su buque y mercancía de regreso en puerto, a un capital de sólo 850 habiendo ocurrido la catástrofe. Si la catástrofe no ocurriera, el dueño se quedaría con el valor de su navío y las mercancías en puerto, que son 950 unidades; pero habría perdido lo apostado, las 100 unidades, que en realidad corresponden al valor de la prima por haberse cubierto. Es decir, que en el caso de no haber catástrofe, terminaría también con 850 unidades monetarias. Si se repite el ejercicio apostando sólo 50 a la catástrofe, el neto al final, en el caso de catástrofe resulta en 400 y en el caso en que no haya catástrofe en 900 unidades monetarias; ambas para compararse con la cantidad ideal de 950 en que no se paga prima alguna y no ocurre la catástrofe. El qué tanto “cubrirse” ante una catástrofe es un asunto subjetivo, pero llama la atención el que este tipo de mecanismos hayan existido desde hace muchos siglos.

Existen registros de compras a futuro de granos en los mercados, que son los antecedentes de las famosas opciones financieras de compra y venta: de monedas, acciones, y cualquier cosa que aparezca cotizada en la bolsa. Hoy en día, hay sitios en Internet en los que se puede apostar casi a cualquier evento “incierto”, como lo son los ganadores en contiendas electorales, partidos deportivos, etc. En las elecciones presidenciales pasadas en México era interesante observar cómo se modificaban las ventajas (momios) sobre el que ganara uno de los candidatos al irse acercando el día de la elección, durante la jornada electoral misma y aún durante los siguientes días en caso de duda (o semanas, como fue el caso de las elecciones del 2006). Para una revisión muy completa sobre cómo se ha desarrollado el modo de enfrentar riesgos, se recomienda el libro Against the Gods: The Remarkable Story of Risk de P. L. Bernstein.

Modelación

La modelación de la ocurrencia de eventos aleatorios, utilizando el concepto de probabilidad, permitió que además de los modelos deterministas muy utilizados en la física, química y otras ciencias, ahora se pudieran utilizar modelos probabilísticos, en los que se seguirían las etapas correspondientes a un proceder ortodoxo y científico:
  1. Propuesta de modelo para representar el fenómeno bajo estudio.

  2. Diseño del experimento para recabar información experimental relevante.

  3. Contrastación entre implicaciones prácticas del modelo y datos experimentales.

  4. Decisión de modificar el modelo y regresar al primer punto. O bien, decisión de quedarse con el modelo como un modelo suficientemente bueno para representar el fenómeno de interés.

Como un comentario al margen, es costumbre decir, cuando es el caso, que se tiene un modelo que representa con determinado grado satisfactorio de aproximación el fenómeno bajo estudio, en lugar de afirmar que “se encontró la ley que describe al fenómeno bajo estudio”. La diferencia es mucho más grande que sólo el estilo de decir las cosas. La diferencia reconoce que todo modelo es, a lo mucho, una buena aproximación. Es muy conocido el hecho de que las leyes de Newton sobre gravitación son una excelente aproximación dentro de cierto rango de distancias, pero fuera de esos rangos, la teoría de Einstein modela mejor.

Genética

Desde otro ángulo muy diferente, son conocidos los experimentos que llevó a cabo Gregor Mendel para contrastar lo que su supuesto modelo genético para la herencia le pronosticaba, con resultados dados por las cruzas de plantas de chícharo. En su modelo hay dos cepas puras iniciales; la cepa verde con par de alelos (v, v) y la cepa amarilla con par (a, a). De acuerdo al modelo, al cruzar estas dos cepas puras, el hijo recibe un alelo de cada padre, así que será un híbrido (a, v) o bien (v, a), que son indistinguibles; además, la flor se verá siempre verde, pues el alelo a, de acuerdo al modelo, es recesivo (no se nota en presencia del v).

Al hacer cruzas de híbridos de primera generación (de los (a, v) o (v, a), que da igual), con ellos mismos, las posibilidades serían cuatro de acuerdo al modelo. Se tendrán los (a, a), los (a, v), los (v, a) y los (v, v), y como a es recesivo, sólo el 25% de las cruzas (en promedio), se verán con flores amarillas, ya que las tres últimas tienen un v que domina. Existe un anécdota relativa a que las frecuencias observadas salieron muy cercanas a las probabilidades teóricas, tanto, que en un comentario Sir R. A. Fisher observó que coincidencias así de cercanas o aún más cercanas tenían una probabilidad muy, muy baja de ocurrir (algo así como 1/400000), y lo anecdótico terminó atribuyendo a algún asistente de Mendel el haber editado un poco los resultados para que la teoría resultara mucho más respaldada por la evidencia.

Moby Dick
Imagen: Barry Mitchelson

Malinterpretaciones

La estadística, en ocasiones, y más de lo que uno imagina, se puede utilizar mal, en lo que podríamos llamar planteamientos seudo-científicos. Hace no mucho se le dio bastante difusión a los llamados “Códigos de la Biblia”. Inclusive se publicó en una prestigiada revista un artículo (puede el lector buscar en Internet, y se sorprenderá de la gran cantidad de sitios alusivos al tema que todavía se comenta). Afortunadamente, el artículo se desacreditó al poco tiempo. Entre los científicos que refutaron dicha teoría destaca un trabajo de un matemático australiano. Como un breve resumen de lo ocurrido, resulta que con un algoritmo de cómputo, se capturó en una gran base de datos la Biblia (algunos de los Libros del Antiguo Testamento), y se buscó concatenar letras, saltando un número predeterminado de ellas en esta gran base de datos, con algunos patrones, para ver si se generaban textos con algún significado. Tras mucho tiempo de búsqueda, se empezaron a identificar partes de textos, que para no aburrir al lector, eran “profecías”, según los autores, pues identificaban eventos que habían ocurrido cientos y miles de años después de que fuera escrita la Biblia. El razonamiento equivocado de los autores era que sólo por azar, resultaba prácticamente imposible que se hubieran originado esos textos. Ese fue su error, el haber calculado mal la probabilidad de que aparecieran textos con algún significado.

El Profesor Brendan McKay replicó el experimento, pero en lugar de utilizar la Biblia, utilizó el libro clásico Moby Dick, y esperó a que exactamente los mismos algoritmos le empezaran a dar textos, que también resultaron "proféticos". Luego lo repitió con el texto de La guerra y la paz, obteniendo también “profecías”.

La estadística, en ocasiones, y más de lo que uno imagina, se puede utilizar mal, en lo que podríamos llamar planteamientos seudo-científicos.
Existen varios ejemplos en los que con el uso de datos ya observados, se buscan asociaciones con “cosas”. Si el conjunto de cosas es muy amplio, se pueden encontrar aseveraciones faltas de todo sustento científico. En un ejemplo que se ha escuchado en círculos académicos (es posible que el ejemplo sea hipotético, pero desde luego factible de reproducirse), dada una lista de atletas que rompieron un récord olímpico, se muestra al lado de cada uno de los nombres su signo del zodiaco. Desde un punto de vista estadístico se puede observar una asociación anormalmente alta, por ejemplo, con el signo de Libra. Lo que cualquiera haría con esos datos es calcular una medida de asociación, como la famosa ji-cuadrada (X2) de Pearson. Supongamos que fue el caso y que se observó una asociación sospechosamente grande. ¿Querría esto decir que el ser Libra está asociado a un desempeño físico excelente?

La clave para entender este aparente acertijo está en la manera en la que se obtuvieron los datos. Eso no debe hacerse con una simple medida de asociación que presupone que uno no está, por así decirlo, “espulgando” en un conjunto muy grande de atributos, hasta encontrar uno que se asocia sorprendentemente bien a los datos (en nuestro caso la lista fija de atletas). Si se partió de la lista fija de atletas y se preguntó ¿cuáles son sus colores de ojos? y se llegó a que no existía ninguna asociación anómala, pero después se preguntó: ¿y sus tipos de sangre? y tampoco se encontró algo sorprendente y así se siguió buscando y buscando, entonces, después de mucho buscar hasta encontrar algo sospechoso, estaríamos viendo una asociación entre este conjunto particular de atletas, con un atributo muy especial, que sería el atributo más sorprendentemente relacionado con esos atletas.

Lo anterior subyace en muchas aseveraciones de fenómenos esotéricos o de observaciones curiosas como, por ejemplo, las medidas de un monumento arqueológico (una pirámide), que usadas de cierto modo muy especial, “indican” que sus constructores ya conocían el número π con hasta 18 decimales. Se advierte, entonces, que hay que ser escrupulosos y críticos con el uso de las asociaciones y, sobretodo, entender cómo se obtuvieron los datos.

Prejuicios

Antes de mencionar la otra fuente inspiradora para modelar lo aleatorio y el desarrollo del pensamiento estadístico, vale la pena imaginar lo que los distintos estudiosos del azar tuvieron que haber sufrido por el enorme estigma social y religioso asociado a los juegos de azar.

En la dedicatoria del libro The Doctrine of Chances, Abraham De Moivre literalmente se disculpó por utilizar los juegos de azar, enfatizando que lejos de promover el juego, los usa sólo para ilustrar una teoría. Para los interesados, la dedicatoria aparece en el libro Statistics de Freedman et al.

Estadística

Registros

Desde hace muchísimos años y desde un ángulo totalmente diferente ha habido esfuerzos, en prácticamente todas las sociedades, por tener registros tanto de su población como de sus actividades y eventos de interés (producción de alimentos o niveles de un río, por ejemplo del Nilo).

En publicaciones del propio INEGI se encuentran antecedentes de los registros de nuestro país, incluyendo desde luego la época colonial y los antecedentes prehispánicos. Para los interesados en los antecedentes estadísticos durante la colonia, les sugerimos contactar a la Dra. Leticia Mayer del IIMAS-UNAM. En cuanto a lo prehispánico no entraremos en detalles, pero mencionaremos el Códice Mendocino, en particular lo relativo a “el libro de los tributos”, en el que aparecen, por ejemplo, las pieles de jaguar que pagaba cada poblado como tributo. Tengo entendido que copias de dicho códice se pueden conseguir en tiendas del INAH.

De entre los registros hechos en sociedades, destacan los iniciados en Inglaterra en el siglo XVI, conocidos como Actas Parroquiales (Bills of Mortality). En el ya citado libro de F.N. David aparece una reproducción de una de estas actas parroquiales de 1665. La palabra “actuaría” debe a estos registros su nombre. En esas actas se anotaban los movimientos demográficos básicos (nacimientos, muertes, causa del deceso, edad al morir, etc.) proporcionando un material invaluable.

Desde hace muchísimos años y desde un ángulo totalmente diferente ha habido esfuerzos, en prácticamente todas las sociedades, por tener registros tanto de su población como de sus actividades y eventos de interés...
Para 1660, esas actas tenían mucho prestigio. Un comerciante, John Graunt, las estudió y publicó su libro Natural and Political Observations on the Bills of Mortality en que se propuso usar datos duros para ver si respaldaban o no “consejas populares” como lo era, por ejemplo, que en determinado año la peste bubónica había causado muchas más muertes que en el año previo. El uso de información para sustanciar aseveraciones se reconoció como el camino científico a seguir. A Graunt se le considera el padre de la demografía y de la epidemiología, además de la actuaría.

Desde este otro ángulo, se llegó también a las nociones de frecuencias (y sus contrapartes teóricas, las probabilidades) y a conceptos tales como la esperanza de vida y tablas de mortalidad, que si bien no permiten predecir si un individuo en particular de edad x morirá antes de cumplir la edad x+1, proporcionaban una idea aproximada de la probabilidad de que eso ocurriera. Graunt observó que por ser datos parroquiales existía un problema de sub-registro (quienes no pertenecían a las comunidades religiosas no estaban representados), y existían sesgos, ya que, por ejemplo, en ciertos casos, las causas de muerte que resultaban penosas para la familia (suicidios o padecimientos venéreos), seguramente pudieron ser cambiadas, cosa que también ocurre hoy en día.

Regresión

Sir Francis Galton, a principios de los 1900, estudiando las estaturas de los individuos como una característica hereditaria, acuñó el famoso término “regresión” al observar que de entre padres altos, si bien los hijos tendían a ser también altos, no lo eran tanto. Del mismo modo, observó que de entre los padres bajos, los hijos tendían a ser bajos pero no tan bajos. La explicación que dio fue que, de una generación a otra, la estatura tendía al promedio, siendo entonces calificada como una característica regresiva. Su estudio se basó en una muestra de estaturas, tanto del padre, denotada x, como del hijo (supóngase el mayor), denotada y. En muchos libros aparece la gráfica (scatterplot) en el plano, de las parejas (x,y), que forman una nube elipsoidal con eje mayor creciente, indicando la tendencia de la y a ser grande cuando la x lo es y algo similar cuando la x es chica. Una referencia del tema es el libro Statistics, de Freedman et al. Allí se abunda en que la explicación de Galton sobre el fenómeno de una característica que “regresa” al promedio, no es la correcta. Este mismo fenómeno se observa en el llamado test-retest, en el que, por ejemplo, en un grupo de pacientes a los que se les mide la tensión arterial en dos ocasiones, los que en la primera medición la tuvieron alta, en la segunda tenderán a tenerla alta, pero no tan alta como en la primera medición; y algo similar para los que tuvieron la tensión baja.

Conclusiones

Como en casi todas las disciplinas, en las aplicaciones hay que utilizar el sentido común. Sin embargo, en la estadística, habiendo conceptos que requieren de una interpretación muy precisa, hay que irse con mucho cuidado. Se dice en broma que un estadístico se ahogó en un río de profundidad media de sólo
Se dice en broma que un estadístico se ahogó en un río de profundidad media de sólo 0.20 m.
0.20 m. Dado que se celebra en este 2013 el Año Internacional de la Estadística, invitamos al lector a considerarla parte de nuestra cultura e intentar comprender más sus alcances. Se recomienda hacer búsquedas en Internet sobre conceptos que encuentren interesantes toda vez que abundan los sitios con explicaciones muy didácticas y amenas. A los estadísticos les ha interesado mucho divulgar principios básicos para desmitificar la disciplina como difícil y árida. fin

Bibliografía

DAVID, Florence Nightingale. Games Gods and Gambling. London: Charles Griffin Co. Ltd, 1962.

DE MOIVRE, Abraham. The Doctrine of Chances. Printed for the author, by H. Woodfall, without Temple-Bar, M.DCC.XXXVIII, London, 1718.

BERNSTEIN, Peter Lewyn. Against the Gods: The Remarkable Story of Risk. New York: John Wiley & Sons Inc, 1996.

FREEDMAN, David, PISANI, Robert and PURVES, Roger. Statistics. 4th Edition. New York: W.W. Norton & Company, 2007.

GRAUNT, John. Natural and Political Observations made upon the Bills of Mortality. (1662). Abstract in Newman, J.R.,1988.

NEWMAN, James R. The World of Mathematics: A Small Library of the Literature of Mathematics from A’h-mosé the scribe to Albert Einstein. Redmond, Washington: Tempus Books of Microsoft Press, 1988.

COMENTARIOS

SÍGUENOS
2013 Esta obra está bajo una licencia de Creative Commons
Federico O’Reilly Togno
Investigador Titular en el Departamento de Probabilidad y Estadística del IIMAS-UNAM.

Federico O’Reilly Togno Maestro en estadística matemática por el CIENES y doctor en estadística por la North Carolina State University. Es Investigador Titular en el Departamento de Probabilidad y Estadística del IIMAS-UNAM. Sus áreas de especialización son inferencia estadística, específicamente sobre inferencia fiducial y bondad de ajuste. Cuenta con cerca de 50 artículos en revistas y capítulos en libros publicados. Su actividad docente la ha realizado desde 1971, tanto en licenciatura como en posgrado, donde su participación en la formación de recursos humanos ha sido muy importante. Ha ocupado diversos cargos como: Coordinador de la Maestría en Estadística e Investigación de Operaciones, Jefe del Departamento de Probabilidad y Estadística, Secretario Académico y Director del IIMAS. Además es miembro del International Statistical Institute; de la Academia Mexicana de Ciencias; del Institute of Mathematical Statistics, Statistical Society of Canada, y de la Asociación Mexicana de Estadística. También forma parte del Sistema Nacional de Investigadores. Sus actividades en la investigación, en la formación de recursos humanos y la divulgación del conocimiento, han sido fundamentales para desarrollo de la comunidad estadística mexicana.

O’REILLY Togno, Federico "Algo de historia sobre la estadística" Revista Digital Universitaria [en línea]. 1 de noviembre de 2013, Vol. 14, No.11 [Consultada:]. Disponible en Internet: <http://www.revista.unam.mx/vol.14/num11/art43/index.html> ISSN: 1607-6079.

Algo de historia sobre la estadística

Federico O’Reilly Togno

En este artículo se reseñan algunos antecedentes históricos que dieron lugar al desarrollo de ideas detrás del pensamiento estadístico. Destacan los juegos de azar, el uso de registros demográficos y la comprensión del riesgo, que en toda actividad humana aparecen.

Palabras clave: Azar, riesgo, apuestas.