Un fuerte terremoto destruye de inmediato las
asociaciones más viejas: el mundo, el símbolo mismo de
todo lo que es sólido, se ha movido bajo nuestros pies
como una capa sobre un líquido; un segundo de tiempo le
ha transmitido a la mente una extraña idea de inseguridad,
que nunca habría surgido con horas de reflexión


Charles Darwin

Un huracán de pensamientos se libera después de cada
nuevo entendimiento. Este a su vez resulta en un
terremoto de premisas. Estos son los desastres naturales
que remodelan el espíritu


Vera Nazarian



19S

Amables lectores, debí haber escrito esta Editorial a principios de septiembre, pero la procrastinación que frecuentemente nos afecta me llevó a diferir el sentarme ante la página en blanco durante algunas semanas, hasta que el 19S nos impactó en la Ciudad de México. Ahora que escribo estas líneas es imposible no tocar el tema; si así lo hiciera, estaría faltando al respeto a los millones de personas afectadas por el terremoto, cuyos efectos continuamos procesando. En estos días he leído docenas de editoriales en los medios, que abordan el tema desde muchas perspectivas. Intentaré hacerlo con sensibilidad, sin restar énfasis en las lecciones a aprender, y situando algunos de los manuscritos que aparecen en este número de la Revista Digital Universitaria (RDU) en un panorama de utilidad y optimismo. Es fascinante cómo Charles Darwin capturó en unas líneas el brutal efecto de unos cuantos segundos en la vida de las personas, y cómo emerge esta profunda sensación de inseguridad que, como dice la cita: “nunca habría surgido con horas de reflexión”. En un breve intervalo de tiempo el contexto de muchísimas personas cambió radicalmente, y día a día nos preguntamos cómo podemos contribuir con nuestro grano de arena en el amplio horizonte de acciones posibles. Creo firmemente que las instituciones educativas y académicas, como la nuestra, están en una situación idónea para aportar ideas y acciones que promuevan el regreso a esa fluida y efímera situación que, a falta de otro descriptor, llamamos “normalidad”.

El 19 de septiembre por la mañana, tuvimos una reunión de trabajo con nuestro Rector, el Dr. Enrique Graue Wiechers, otros rectores de universidades públicas y privadas de varios estados de la República, y con académicos y representantes de dichas entidades, para dar continuidad a una iniciativa de innovación educativa. Los detalles de la constitución de este grupo interuniversitario los comentaremos en el siguiente número de la RDU. Baste decir que ese día, en el agradable escenario de la Unidad de Seminarios “Ignacio Chávez” de la UNAM, se solidificó la gestación de una iniciativa que representa un poderoso ejemplo de trabajo en equipo, con creatividad y rigor académico, para desarrollar intervenciones en beneficio de los estudiantes de educación superior. Al final de esa productiva sesión, todos los presentes nos dirigimos a nuestras instituciones para participar en el macrosimulacro programado a las 11 de la mañana, que transcurrió “sin novedad”. Las personas que no habían nacido en 1985 y aquellos que ya teníamos consciencia en esa fecha, colaboramos de manera rutinaria en el proceso de este ejercicio, algunos sin tener muy claro de qué se trata este “ritual”, al que nos hemos acostumbrado en los últimos 32 años. Después de caminar ordenadamente a nuestros puntos de reunión y de platicar trivialidades, regresamos a nuestras áreas de trabajo muy quitados de la pena.

Sobra decir que todos los que vivimos en la sufrida Ciudad de México, al sentir el movimiento telúrico a las 13:14:40 horas del 19S, vivimos unos instantes de angustia y miedo, por el riesgo de morir, propio y de nuestros seres queridos, o de perder aquellos bienes materiales que, si bien son secundarios, tanto trabajo nos ha costado adquirir. Cada uno de nosotros tiene multitud de historias que contar sobre lo que experimentó en esos aciagos momentos, que nos hicieron –y nos siguen haciendo– repensar el total de nuestras prioridades vitales y personales. Con el paso de los días, la cifra creciente de personas fallecidas y heridas, de casas y edificios dañados, el retorno a la rutinaria normalidad se ve cada vez más lejano.

¿Qué aporta este número de la RDU?

Los manuscritos que integran este número de la revista ofrecen un caleidoscopio de áreas del conocimiento con intensa vigencia, originándose en diversas perspectivas del quehacer universitario y ofreciendo potenciales soluciones a problemas que aquejan a la sociedad moderna. A continuación, comentaré brevemente algunos de ellos, con la perspectiva particular a la que nos obliga la situación actual del país:
  • ¿Qué tan derecho es el derecho a la educación en México?” ¡Qué tema tan ad hoc para empezar! Además de ser uno de los tópicos más apasionantes e importantes del discurso y acción social actuales, lo que nos llevó a agregar apartados educativos en la RDU para explorar estos temas desde diversas ópticas, es una de las esferas más directamente afectadas por el 19S. El análisis de este derecho, a la luz de los cuatro principios de los derechos humanos descritos por la autora: universalidad, indivisibilidad, interdependencia y progresividad, en el contexto de los desastres naturales, nos debe llevar a reflexionar profundamente sobre el tema y a hacer lo posible para que estos principios no sean sólo palabras vacías en nuestra Carta Magna. La pérdida de vidas en centros educativos, de estudiantes (niños, jóvenes y adultos), docentes, administrativos y trabajadores, así como los esfuerzos colectivos de la sociedad y las dependencias oficiales para rescatar con vida a los sobrevivientes, ha sido uno de los puntos más poderosos emocionalmente en este catastrófico evento. ¿Cómo borrar de nuestras mentes las imágenes y videos de las instalaciones educativas destruidas y gravemente dañadas?, ¿la expresión de angustia, miedo y dolor de los testigos de estos hechos y de los familiares de los afectados?, dicen que el tiempo sana todas las heridas, pero éstas son demasiado profundas como para no dejar cicatrices permanentes en nuestra psique individual y colectiva.

    Uno de los efectos inmediatos del desastre fue la cancelación de clases en todos los niveles educativos, que a 10 días del evento distan mucho de regresar a la normalidad, sobre todo en la educación básica. Es entendible la preocupación de autoridades, padres de familia y de los propios estudiantes por la seguridad; pero es menester reflexionar sobre los múltiples efectos que esto conlleva: al no asistir los niños a la escuela, las madres y padres que trabajan se ven en la encrucijada afectiva, logística y financiera de qué hacer con ellos mientras tanto, ¿quién los cuidará?, ¿quién les dará el apoyo psicológico necesario?, ¿quién modulará las noticias del terremoto y sus consecuencias para que las entiendan en su justa dimensión?, ¿cómo cubrir el gasto extra en caso de que haya que pagar por su cuidado?, ¿cómo compensar la pérdida de muchos días de educación formal?, ¿quién les va a dar la “escuela en casa”? Todas estas preguntas y otras requieren respuestas inmediatas, y no siempre se obtiene el apoyo necesario, efectivo y expedito de las instituciones escolares, docentes, o se carece de un andamiaje familiar y de amistades adecuado. Todas las mamás que conozco están angustiadas en el trabajo, pensando cómo resolver estos retos y actuar en consecuencia, con los potenciales efectos en su desempeño laboral. Es momento de exhibir sensibilidad y compañerismo con nuestras colegas que se encuentran en esta situación, en el espacio de trabajo y en el entorno familiar, y que hagamos un esfuerzo porque esta actitud de soporte organizacional a las personas que tienen hijos se convierta en algo permanente.

    En una exhibición de resiliencia impresionante, ciudadanos de todas las edades y todas las condiciones sociales, no sólo están saliendo adelante, sino que se están creciendo al reto. Los estudiantes adolescentes y adultos que se encuentran en los niveles de educación media y superior, nos han dado una gran lección con su actitud y sus acciones, ayudando con todas sus fuerzas, sin mirar a quién y sin esperar recompensa alguna sino la satisfacción de ayudar al prójimo. ¡Qué esta conducta permanezca y contagie a todos los estratos etarios!

    Otro aspecto educativo a considerar, es ser testigos de cómo las vivencias intensas de este tipo generan un aprendizaje profundo y extremadamente significativo. A los que nos dedicamos a la docencia, lo que hemos atestiguado durante y después del temblor debe ponernos a pensar sobre la importancia relativa de la educación formal en el interior de las paredes institucionales. ¿Cuándo se aprende más, cuando se lee algo, se realiza un ejercicio de simulación artificial, o cuando se enfrenta un problema real que requiere soluciones inmediatas de consecuencias imprevistas? Estoy seguro que los médicos jóvenes, los estudiantes de pre y posgrado de ingeniería y arquitectura, entre muchos otros, aprendieron (y se transformaron) mucho más profundamente con esta experiencia que con cualquier ejercicio, tarea o solución de problemas en papel o en computadora. Por supuesto, no quiero decir que es mejor que haya desastres para que ocurra el aprendizaje, sino que este tipo de vivencias debe obligarnos a los docentes a poner los pies en la tierra y a no sobreestimar el efecto educativo de las experiencias curriculares excesivamente planeadas y microcontroladas, como nuestras conferencias tradicionales o los programas académicos de las asignaturas que en el papel se ven muy bien. Reflexionen aquellos que tengan responsabilidades docentes, ¿qué haremos con la disminución de días de clases en nuestro calendario académico, que se ha visto irremediablemente afectado por la catástrofe? La solución simplista de “reponer horas de clase” para “cubrir todo el programa”, sin tener en cuenta el contexto profundamente transformado de nuestra sociedad, no debe ser la respuesta predominante. Se requiere creatividad, innovación, trabajo en equipo y compromiso, tanto de docentes como de estudiantes, así como de las autoridades responsables de los centros educativos.

    Una de las lecciones más importantes que nos deja el terremoto, es la importancia de la educación en la prevención, actuación debida durante y después de desastres mayores, para disminuir en lo posible los daños y las pérdidas humanas. Si uno de los factores que inciden en el aprendizaje es la repetición, la madre naturaleza se ha encargado de recordarnos, una y otra vez, lo importante que es poseer las habilidades y competencias para tener un desempeño adecuado al enfrentar desastres como un huracán o un terremoto, más allá del conocimiento teórico. Es curiosa la ausencia en el currículo formal de muchas de nuestras instituciones educativas, de la enseñanza y evaluación de las habilidades mínimas para confrontar este tipo de desastres naturales. Aunque en Internet y en la literatura científica existe una gran cantidad de recursos para aprender los conceptos básicos y avanzados sobre terremotos y otros desastres, frecuentemente no los revisamos hasta después del evento. Salimos debiéndole, en los hechos, a la cultura de prevención de la que tanto hablamos. En las pláticas de café en estos días (en las que es inevitable hablar del tema), todos nos hemos convertido en “expertos” en la escala de Richter, epicentros, diferencias entre oscilatorio y trepidatorio, Gales, la placa de Cocos, etcétera, ojalá este caudal de conocimientos permanezca y nos motive a profundizar en lo que realmente podemos hacer para tener respuestas más efectivas ante las catástrofes.

    El cruel recordatorio de la naturaleza, que coincidió de manera inexplicable con el día 19 de septiembre, nos hizo rememorar vívidamente la experiencia que tuvimos en nuestra ciudad con el terremoto de 1985. Recordamos que también en esa época nos convertimos en “terremotólogos” de la noche a la mañana. A pesar de que muchas cosas se han hecho mejor en los últimos 32 años, aún nos falta muchísimo por realizar en el terreno educativo, creo que debemos “hacer de la necesidad virtud”. Incorporemos en nuestros currículos formales, vividos y ocultos los conceptos más relevantes para sobrevivir a los desastres y desaparezcámoslos del currículo nulo (concepto que se refiere a temas de estudio no enseñados, o que siendo parte del currículo no tienen aplicabilidad ni utilidad aparente, considerándose como contenido superfluo). Invito a los lectores a que tengamos en nuestras listas de “favoritos” recursos educativos confiables sobre estos temas, de los que existen muchos en la red (OMS, OPS, National Geographic, NEHRP, UNESCO). Existen también aplicaciones para dispositivos móviles que, utilizando videojuegos, pueden enseñar a tener conciencia sobre la importancia de estar preparado para situaciones de emergencia, un ejemplo es Tanah: contra los terremotos y tsunamis desarrollado por la UNESCO. Una de las fuentes de recursos más interesante sobre el tema es el International Network for Education in Emergencies (INEE), una red internacional de más de 13 000 miembros individuales y 130 organizaciones en 190 países. Los miembros de esta organización son personas interesadas en el tema (docentes, estudiantes, investigadores), organizaciones no gubernamentales, ministerios de educación y agencias de las Naciones Unidas que, de manera voluntaria, han unido esfuerzos para trabajar apoyando la educación durante emergencias (Shroder). Creo que vale la pena integrarse a este tipo de iniciativas, para que se sigan desarrollando e incrementen su capacidad de acción.

    En conclusión, como han afirmado los expertos en el tema: “la educación ha sido clave para disminuir la mortalidad en los terremotos” (Knopoff).

  • Científico de datos: codificando el valor oculto e intangible de los datos”. Uno de los cambios paradigmáticos más importantes del siglo XXI ha sido el advenimiento del concepto de Big data (volúmenes masivos de datos), y los sofisticados métodos analíticos utilizados para entender con precisión complejos fenómenos biológicos, físicos y sociales que antes eran imposibles de explorar. El artículo describe este fascinante campo y la nueva casta de científicos pionera en el área, los data scientists (científicos de datos), una combinación fascinante de pericia en diferentes disciplinas que rápidamente se está convirtiendo en una de las profesiones más solicitadas.

    Sobre el tema que nos ocupa, el uso de Big data podría convertirse en uno de los “cambiadores de juego” en el escenario de predicción de los desastres. Estos días hemos oído en todos los noticieros y entrevistas a expertos, que es imposible predecir los terremotos y, en consecuencia, que tenemos que aprender a vivir en la incertidumbre (sabiendo que la Ciudad de México se encuentra en un área sísmica, y que tarde o temprano volveremos a repetir la experiencia vivida recientemente). Estas afirmaciones generalmente no tranquilizan mucho a la sociedad, aunque desde el punto de vista técnico parece ser que este tipo de fenómenos son inherentemente impredecibles (Marr, 2015). El uso de “terremoto” y “predicción” en la misma oración inmediatamente genera escepticismo, principalmente en la comunidad científica. El pronóstico de los terremotos es el “Santo Grial” de la sismología, y por muchas décadas ha sido buscado por los investigadores del área, sin éxito contundente (Marr, 2015 y 2016). Sin embargo, con el uso de la “magia” de la analítica de Big data, algunas organizaciones (http://www.terraseismic.com y otras) están utilizando los volúmenes masivos de datos generados de diversas fuentes (como los producidos por la red de satélites que circunda el planeta) para intentar predecir, con cierto grado de precisión, terremotos importantes que tengan potencial de causar daño (Singh y Haraksingh, 2016; Kannan, 2014; Sneed, 2017). Es importante señalar que aún no se ha resuelto el problema, que los académicos expertos en este tema recomiendan ser muy prudentes en la interpretación de la literatura (científica y de divulgación) que reporta estos interesantes hallazgos, y que no echemos las campanas al vuelo por artículos aislados o trabajos de empresas que tienen un conflicto de interés intrínseco al publicitar la efectividad de sus métodos e instrumentos. Sin embargo, el uso de métodos cada vez más sofisticados de inteligencia artificial y machine learning (aprendizaje de máquinas), podría ofrecer nuevos caminos para llegar a resolver este “acertijo imposible”.

    Independientemente de lo lejos que estemos de tener un sistema de predicción de terremotos confiable, rápido y disponible para todos los países, creo que estos últimos eventos catastróficos deben ser una ruidosa alarma, un semáforo rojo, una llamada de atención impostergable a nuestros gobernantes, para que dediquen los recursos humanos y financieros que sean necesarios al desarrollo de la investigación científica. Ésta será la mejor manera de seguir avanzando en la prevención y detección temprana de los desastres naturales, en lugar del actual sentimiento de inevitabilidad y vulnerabilidad que prevalece. Por lo pronto, utilicemos los recursos globales que se han desarrollado, como los mapas de áreas afectadas por el terremoto proporcionadas por la NASA a las autoridades nacionales y a la comunidad en general, para ayudar a identificar las zonas dañadas en la Ciudad de México (disponibles en: https://www.jpl.nasa.gov/spaceimages/details.php?id=pia21963). El vaso de la tecnología no está totalmente lleno, pero tenemos la obligación moral de tener consciencia de estos recursos, ya que no utilizarlos se convierte en un desastre en sí mismo.

  • Programa Adopte un Talento: un vínculo entre la comunidad científica y los niños”. Este artículo es extraordinariamente inspirador. No hay tarea más importante en la especie humana que la educación, ya que de ella se desprende todo lo positivo que podemos realizar en nuestro transitorio paso por el planeta. El programa PAUTA es una iniciativa innovadora, que pretende promover la inquietud científica en nuestro más preciado tesoro, la niñez mexicana. La metodología utilizada en el programa ha tenido resultados fascinantes, por lo que esperamos que en un futuro cercano haya iniciativas similares en otras instituciones. Debemos crear ese catalizador tan necesario en nuestro país: una comunidad científica competente, creativa, crítica, proactiva y propositiva, que contribuya a resolver los problemas ingentes de nuestra sociedad. Necesitamos más geólogos, sismólogos, paleosismólogos, divulgadores de la ciencia que expliquen con claridad estos fenómenos, y una sociedad dotada con las habilidades de pensamiento crítico suficientes para interpretar, cuestionar y aplicar los conocimientos generados por el gremio científico. La Universidad Nacional Autónoma de México, a través del Servicio Sismológico Nacional del Instituto de Geofísica, es el referente nacional en los temas de sismos, temblores y terremotos, es un hecho que debemos continuar impulsando su desarrollo e incrementando la red de instituciones nacionales e internacionales que son capaces de analizar y explicar estos fenómenos.

  • ¿Procrastinar?, ¡no!

    En este número de la revista aparecen también manuscritos de instituciones educativas, estudiantes y docentes, sobre los temas de la aplicación de las ciencias “ómicas”, las partículas subatómicas y las supercomputadoras, la experiencia digital de un educando y su impacto en la necesidad formativa, y la importancia de la formación tecnológica en la cultura científica. Invitamos a los lectores asiduos (¡y a los nuevos!) de nuestra publicación a explorar estos interesantes temas, no solo para incrementar su acervo cultural, sino para poner manos a la obra en la dura tarea de la recuperación de nuestro país. Con dolorosa frecuencia escuchamos que los mexicanos tenemos nuestra propia versión de “no dejes para mañana lo que puedas hacer hoy”, transformándolo en: “no hagas hoy lo que puedas hacer mañana”. Procrastinar es uno de los verbos que debemos intentar erradicar de nuestro léxico cotidiano nacional, para enfrentar con eficacia nuestras duras realidades.


    Editor en Jefe
    Melchor Sánchez Mendiola
    Facultad de Medicina, UNAM



    Referencias

    INEE (International Network for Education in Emergencies). <http://www.ineesite.org/en/> (Accesado el 29 de septiembre de 2017).

    Kannan, S. (2014) Improving Innovative Mathematical Model for Earthquake Prediction. J Geol Geosci, 3:168. doi:10.4172/2329-6755.1000168 <https://www.omicsonline.org/open-access/improving-innovative-mathematical-model-for-earthquake-prediction-2329-6755.1000168.php?aid=28150>.

    Knopoff, L. (1996). Earthquake prediction: the scientific challenge. Proceedings of the National Academy of Sciences of the United States of America, 93(9), 3719–3720. <https://www.ncbi.nlm.nih.gov/pmc/articles/PMC39427/>.

    Marr, B. (2015). Big Data: Saving 13,000 Lives A Year By Predicting Earthquakes? Forbes. <https://www.forbes.com/sites/bernardmarr/2015/04/21/big-data-saving-13000-lives-a-year-by-predicting-earthquakes/#2a91cdb5d8da> (Accesado el 29 de septiembre de 2017).

    Marr, B. (ed) (2016) Terra Seismic: Using Big Data to Predict Earthquakes, in Big Data in Practice: How 45 Successful Companies Used Big Data Analytics to Deliver Extraordinary Results, John Wiley & Sons, Ltd, Chichester, UK. doi:10.1002/9781119278825.ch39 <http://onlinelibrary.wiley.com/book/10.1002/9781119278825>

    National Geographic. Education. Teaching resources. Eartquakes 101. <https://www.nationalgeographic.org/media/earthquakes-101-wbt/> (Accesado el 29 de septiembre de 2017).

    National Earthquake Hazards Reduction Program. <http://www.nehrp.gov/> (Accesado el 29 de septiembre de 2017).

    Organización Mundial de la Salud. Acción Sanitaria en las Crisis Humanitarias. Terremotos. <http://www.who.int/hac/techguidance/ems/earthquakes/es/> (Accesado el 29 de septiembre de 2017).

    Organización Panamericana de la Salud. Departamento de Emergencias en Salud. <http://www.paho.org/disasters/?lang=es> (Accesado el 29 de septiembre de 2017).

    Shroder, J. (2014). In Chile’s earthquake, education was key to low mortality. Understanding how to cope with megaquakes is essential for survival. Elsevier Connect. <https://www.elsevier.com/connect/in-chiles-earthquake-education-was-key-to-low-mortality> (Accesado el 29 de septiembre de 2017).

    Singh, D., Haraksingh, I. (2016) Earthquakes can be Predicted. J Geol Geophys, 5:255. doi:10.4172/2381-8719.1000255 <https://www.omicsonline.org/peer-reviewed/earthquakes-can-be-predicted-79790.html>.

    Sneed, A. (2017). Can Artificial Intelligence Predict Earthquakes? Scientific American <https://www.scientificamerican.com/article/can-artificial-intelligence-predict-earthquakes/> (Accesado el 29 de septiembre de 2017).

    UNESCO. Educación en Contextos Emergencia. <http://www.unesco.org/new/es/quito/education/educacion-en-emergencia/guias-para-docentes/> (Accesado el 29 de septiembre de 2017).

    UNESCO. Tanah. Aplicación contra terremotos y tsunamis. <http://www.unesco.org/new/es/quito/education/educacion-en-emergencia/tanah-contra-los-terremotos-y-tsunamis/> (Accesado el 29 de septiembre de 2017).

    COMENTARIOS

    Melchor Sánchez Mendiola
    Editor en jefe de la Revista Digital Universitaria


    Doctor en Ciencias, Educación en Ciencias de la Salud por la UNAM; maestro en Educación en Profesiones de la Salud por la Universidad de Illinois en Chicago, EUA. Médico Pediatra por la Universidad del Ejército y Fuerza Aérea Mexicanos (UDEFA). Profesor de Carrera Titular C de Tiempo Completo Definitivo en la División de Estudios de Posgrado de la Facultad de Medicina, UNAM.

    Actualizado hasta septiembre, 2017.

    Sánchez Mendiola, Melchor (2017). “México 19S: ¿Punto de quiebre o de partida?”, en Revista Digital Universitaria (RDU), vol. 18, núm. 7, septiembre-octubre. DOI: <http://doi.org/10.22201/codeic.16076079e.2017.v18n7.a0>.

    Introducción

    Mucho nos preguntamos si el sismo, de magnitud 7.1, fue más fuerte en la Ciudad de México que el terremoto de magnitud 8.0 de 1985. Sólo por la enorme diferencia en magnitud de los dos eventos, uno podría suponer que no. Esto tiene sentido, ya que el sismo de 1985 liberó 32 veces más energía sísmica que el del 19 de septiembre de 2017. Sin embargo, en 1985, el epicentro fue muy lejano y bajo las costas del estado de Michoacán, a más de 400 km de la capital, mientras que el 7.1 ocurrió apenas 120 km al sur de la ciudad. Al propagarse, las ondas sísmicas se atenúan rápidamente. Por ello, a pesar de que la ruptura que generó las ondas sísmicas el martes pasado es mucho menor que la de 1985, las sacudidas en la Ciudad de México fueron tan violentas. A continuación, veremos porqué.

    ¿Dónde y por qué ocurrió el sismo?

    La ruptura del sismo del 19 de septiembre de 2017 ocurrió dentro de la placa oceánica de Cocos (i.e. sismo intraplaca), por debajo del continente, a una profundidad de 57 km (Figura 1). Si bien este tipo de sismo no es el más común en México, de ninguna manera es extraordinario. En la Figura 1 se muestran los epicentros y profundidades de algunos sismos similares, incluyendo el del pasado martes. Estas rupturas se producen a profundidades mayores que los típicos sismos de subducción como el de 1985, que tiene lugar bajo las costas del Pacífico mexicano sobre la interfaz de contacto entre las placas tectónicas de Cocos y de Norteamérica (línea roja, Figura 1). Los sismos intraplaca, de profundidad intermedia, se producen por esfuerzos extensivos a lo largo de la placa de Cocos. Las fallas geológicas asociadas a estos sismos se conoces con el nombre de “fallas normales”. Es preciso mencionar que estudios realizados para sismos intraplaca en México muestran que, por año, la probabilidad de que la intensidad de las sacudidas en la Ciudad de México debidas a este tipo de terremotos sea grande es muy similar a la de los sismos típicos de subducción, como el de 1985, entre otros. Esto implica que el peligro sísmico en la capital, asociado a los sismos intraplaca (como los del 7 y 19 de septiembre de 2017), es tan grande como el de los sismos más comunes que ocurren bajo las costas del Pacífico mexicano.


    Figura 1. Localizaciones del sismo de magnitud 7.1 del 19 de septiembre de 2017 (color rojo) y algunos otros del mismo tipo en la región. Las “pelotas de playa” ilustran la orientación de las fallas y la dirección en que deslizaron. Todas estas son fallas de tipo normal.

    ¿Por qué tantos daños?

    Gracias a la vasta red de acelerógrafos y sismómetros que registraron ambos terremotos en la Ciudad de México, y a los esfuerzos de muchos sismólogos e ingenieros mexicanos, hoy hemos entendido mejor qué ocurrió. Uno de los ingredientes que usan los ingenieros civiles para calcular las estructuras de los edificios de la CDMX es la aceleración máxima (Amax) del suelo producida por las ondas sísmicas. En 1985, la Amax en Ciudad Universitaria (CU), que está en suelo firme (Figura 2), fue de 30 gal (1 gal = 1 cm/s2), mientras que la Amax del 19 de septiembre de 2017 fue de 57 gal. Es decir que el suelo en la zona cercana a CU experimentó una sacudida dos veces mayor que en 1985.

    Sin embargo, todos sabemos que gran parte de la Ciudad de México está edificada sobre sedimentos blandos de los antiguos lagos que existieron en el valle. Estos sedimentos provocan una enorme amplificación de las ondas sísmicas en la Ciudad de México que, probablemente, sea la más grande reportada en el mundo.


    Figura 2. Espesor de la cuenca sedimentaria donde se encuentra gran parte de la Ciudad de México. Nótese la localización del terremoto del 19 de septiembre en el cuadro de la parte superior izquierda. Los puntos azules indican los sitios de dos estaciones sísmicas que registraron los terremotos de 1985 y 2017. La región entre los contornos azul y rojo representa la zona de transición entre el suelo firme y el suelo blando.

    Para dar una idea tangible, la amplitud de las ondas sísmicas con períodos cercanos de 2 segundos en zona de lago (o zona blanda) (e.g. colonias Roma, Condesa, Centro y Doctores) puede llegar a ser 50 veces mayor que en un sitio de suelo firme de la Ciudad de México. Sin embargo, como las ondas también se amplifican en el suelo firme de la periferia, con respecto a lugares lejanos de la Ciudad de México, la amplitud en zona de lago puede ser de 300 a 500 veces mayor. En algunos sitios de la zona del lago, las aceleraciones máximas del suelo producidas por el sismo de magnitud 7.1 fueron menores a las registradas en 1985. Por ejemplo, en la Secretaría de Comunicaciones y Transportes (SCT, Figura 2), que se encuentra en dicha zona, Amax en 1985 fue de 160 gal, mientras que el pasado 19 de septiembre fue de 91 gal. En otros sitios de la zona de lago, las aceleraciones del suelo durante el sismo reciente fueron, muy probablemente, mayores que la registradas en 1985. Se trata de un patrón de movimiento complejo y muy variable en el espacio.



    Figura 3. Localización de daños graves y colapsos durante el sismo del 19 de septiembre de 2017 (puntos rojos). El mapa contiene de fondo la información del periodo natural del suelo (degradado de colores), que es una característica que determina el potencial de amplificación del suelo blando de la ciudad. La zona en tonos grises representa los periodos de 0.5 a 1.0 segundos, también conocida como la zona de transición. (Fuente: ERN Ingenieros Consultores, ERNTérate, “Nota de interés al respecto del sismo del 19 de septiembre de 2017”, publicada el 23 de septiembre de 2017).

    Un análisis detallado del movimiento del suelo producido por ambos sismos en la Ciudad de México revela cosas interesantes. De la misma manera que sucede con el sonido emitido por una cuerda de guitarra, los sismos están formados por ondas con diferentes períodos de oscilación. Los sismogramas registrados muestran que la amplitud de las ondas sísmicas con períodos de oscilación menores a 2 segundos fue mucho más grande en 2017 que en 1985 (en promedio unas 5 veces), grosso modo, en toda la ciudad. Sorprendentemente, sucede lo contrario para ondas con períodos mayores de 2 segundos, cuya amplitud fue mucho mayor en 1985 (hasta 10 veces mayor). Como veremos abajo, esto tiene fuertes implicaciones en el tipo de daños observados durante ambos terremotos.

    En resumen, los movimientos del suelo debidos al sismo de magnitud 7.1 fueron muy violentos y, de cierto modo, comparables a los de 1985 a pesar de haber sido provocados por una ruptura (falla geológica) mucho más pequeña que, sin embargo, ocurrió mucho más cerca de la Ciudad.

    Y los edificios, ¿qué sintieron?

    Para los edificios, la situación no es tan sencilla. La aceleración máxima del suelo (Amax) no es necesariamente lo que pone en riesgo su estabilidad. Por el contrario, al ser estructuras de dimensiones (alturas) diferentes, su vulnerabilidad es muy variada. Ondas con mayor período de oscilación amenazan estructuras más altas. Contrariamente, ondas con períodos más cortos, amenazan estructuras más bajas. Para identificar qué estructuras pudieron verse afectadas por el sismo de 2017, los ingenieros y sismólogos calculan lo que llaman las “aceleraciones espectrales” a partir de los sismogramas registrados. Dichos valores nos dan una idea de las aceleraciones que pudieron experimentar, en sus azoteas, edificios con diferentes alturas. Las aceleraciones espectrales en CU (suelo firme) indican que, los edificios de 1 a 12 pisos cercanos a la estación sísmica experimentaron una aceleración promedio de 119 gal, que es aproximadamente 2 veces mayor que la observada en 1985 (Figura 4a). En contraste, las estimaciones en SCT (suelo blando) muestran que edificios pequeños de este tipo, cercanos a la estación, experimentaron una aceleración promedio de 188 gal, muy similares a las de 1985 (Figura 4b).

    Por otro lado, edificios más altos, de entre 12 y 20 pisos, experimentaron una aceleración promedio en CU de 60 gal, que es 30% menor a la de 1985, que fue de 85 gal (Figura 4a). La diferencia más clara entre los dos terremotos ocurrió en suelo blando para edificios con más de 15 pisos. La Figura 4b muestra claramente cómo, en 1985, los edificios de este tipo cercanos a SCT experimentaron aceleraciones de 1.5 a 4.9 veces más grandes que las observadas el 19 de septiembre de 2017. En 1985, algunas de estas grandes estructuras experimentaron aceleraciones de hasta 760 gal. Como referencia, la aceleración de la gravedad terrestre (i.e. la de un cuerpo en caída libre) es de 981 gal.

    Como veremos a continuación, la estación SCT no se encuentra en la zona con los mayores daños, que se encuentra más al oeste (hacia las colonias Roma y Condesa), principalmente en la zona de transición de la cuenca sedimentaria. Un análisis similar al de la Figura 4 a partir de registros en dichas colonias permitirá estimar qué tipos de edificios fueron los más amenazados. En esa zona, esperamos aceleraciones mayores que las de SCT para edificios de 4 a 10 pisos.


    Figura 4. Aceleraciones experimentadas en las azoteas de edificios con diferentes alturas en los sitios CU (a, suelo firme) y SCT (b, suelo blando) (ver Figura 2) para los sismos del 19 de septiembre de 1985 (rojo) y 2017 (azul). 1 gal = 1 cm/s2. Las aceleraciones reportadas corresponden al promedio geométrico de ambas componentes horizontales del movimiento.

    Los ingenieros y sismólogos de la UNAM, gracias a múltiples investigaciones basadas en miles de registros sísmicos en la Ciudad de México y el desarrollo de herramientas sofisticadas han podido cartografiar, en toda la mancha urbana, valores de aceleración experimentados el pasado 19 de septiembre para diferentes tipos de estructuras. Dichas herramientas fueron desarrolladas en el Instituto de Ingeniería de la UNAM y operan automáticamente en tiempo real. Con ellas, se generan mapas de intensidad en toda la ciudad pocos minutos después del sismo, mismos que son útiles para identificar, rápidamente, las zonas potencialmente dañas. La Figura 5 ilustra claramente esto para el sismo del 19 de septiembre de 2017. Ahí se puede apreciar que existe una clara correlación entre los daños ocurridos (i.e. los edificios colapsados o fuertemente dañados) y las zonas donde se produjeron las mayores aceleraciones espectrales. Consistentemente con lo explicado en el párrafo anterior, el sismo de magnitud 7.1 dañó, en su mayor parte, estructuras relativamente pequeñas, de entre 4 y 7 pisos, a lo largo de una franja con orientación norte-sur dentro de la zona de transición (entre las zonas de suelo firme y blando) al poniente de la zona de lago (Figuras 3 y 4). En contraste, las estructuras dañadas en 1985 fueron en su mayoría más grandes, con alturas de entre 7 y 14 pisos.



    Figura 5. Mapa de aceleraciones espectrales para periodos de 1 segundo, correspondientes a la respuesta de estructuras de 7 a 10 pisos. Los triángulos negros muestran las localizaciones de los edificios colapsados o fuertemente dañados.

    ¿Por qué los daños se concentraron en ciertas zonas de la ciudad?

    La violencia del movimiento del suelo en la Ciudad de México depende principalmente del tipo de suelo donde nos encontremos. Como ya se dijo, gran parte de la ciudad está asentada en suelo blando, sobre sedimentos lacustres (contorno rojo en de Figura 1). La Figura 5 muestra la aceleración estimada en las azoteas de edificios de 7 a 10 pisos (i.e. con períodos de resonancia cercanos a 1 segundo) provocada por el sismo del 19 de septiembre de 2017. Cabe precisar que este mapa fue generado en forma automática, casi en tiempo real, por el Instituto de Ingeniería de la UNAM, por lo que se hizo público unos minutos después del sismo. Como ya se dijo, existe una clara correlación entre la franja roja de máxima aceleración al poniente de la cuenca y la localización de los edificios colapsados o fuertemente dañados. También es sorprendente la correlación que hay entre los valores grandes de aceleración (franja roja) y la geometría (espesor) de los sedimentos lacustres (Figuras 2 y 3). La mayoría de los daños se encuentran al oeste de la cuenca sedimentaria, sobre la zona de transición y parte del suelo blando, muy cerca de su límite poniente. Ahí, los sedimentos tienen un espesor de 10 a 30 m. La interacción y amplificación de las ondas sísmicas con esta región de la cuenca sedimentaria provocaron los daños.

    Además de la amplificación de las ondas, la duración del movimiento del suelo es también mucho mayor dentro de los sedimentos blandos. Estudios recientes muestran que las duraciones más grandes esperadas para períodos de oscilación menores a 2 segundos coinciden con la zona de mayor destrucción para el sismo de magnitud 7.1 del 19 de septiembre de 2017. Por ejemplo, la duración de la fase intensa del movimiento en CU fue de 36 segundos, mientras que en SCT, fue de 1 minuto. Por esta razón, tanto la violencia de las sacudidas como su duración en la zona de transición y de lago son las causantes de la destrucción.

    ¿Los daños se debieron a deficiencias en el reglamento de construcción?

    No tenemos hasta el momento indicios de que las fuerzas de diseño (i.e. los criterios de resistencia estructural) actualmente vigentes en el reglamento de construcción de la Ciudad de México se hayan excedido durante el sismo del 19 de septiembre de 2017. Por lo tanto, los edificios construidos en los últimos años no deberían haber sufrido daños. Sin embargo, en el caso de estructuras comunes, el Reglamento de Construcciones de la ciudad no exige que las edificaciones antiguas sean reforzadas para resistir las fuerzas especificadas en las normas emitidas después de su fecha de construcción. Es posible, entonces, que en el caso de edificaciones antiguas sí se hayan excedido las fuerzas de diseño con las que fueron proyectadas.

    Independientemente de lo anterior, se sabe que existe un grave problema por falta de cumplimiento de las normas especificadas en el reglamento vigente de construcción, documentado en proyectos de investigación realizados en la UNAM. En consecuencia, los daños observados se explican mejor con la falta de observancia de las normas, más que por posibles deficiencias en el Reglamento de Construcción actual.

    ¿Esperamos un sismo de mayor intensidad en la Ciudad de México?

    Es muy probable. Bajo las costas del estado de Guerrero, por ejemplo, existe una brecha sísmica (i.e. segmento donde no ha ocurrido un terremoto significativo en más de 60 años) de 250 km de longitud en dónde podría ocurrir un sismo de magnitud superior a 8. Este segmento se encuentra a unos 300 km de la Ciudad de México. Es decir, aproximadamente 150 km más cerca que la zona epicentral del terremoto de 1985. Estimaciones hechas por sismólogos de la UNAM sugieren que, si este sismo ocurriera en un futuro, las aceleraciones del suelo blando en la Ciudad de México podrían ser, bajo ciertas condiciones, mayores que las del sismo reciente de magnitud 7.1, y de 2 a 3 veces mayores que las de 1985 en particular para edificios de más de 10 pisos. La duración del movimiento del suelo sería mayor que las experimentadas en 2017 (alrededor de 3 minutos en su fase intensa).

    23 de septiembre de 2017

    La información utilizada para elaborar esta nota resulta del esfuerzo
    de investigadores y técnicos académicos de los institutos de Geofísica e Ingeniería de la UNAM.


    Bibliografía

    Meet the Dolls. Camry (2017). Naturally Perfect Dolls. Recuperado de <https://www.naturallyperfectdolls.com/pages/camryn>.

    COMENTARIOS

    Dr. Víctor Manuel Cruz Atienza
    Departamento de Sismología, Instituto de Geofísica, Universidad Nacional Autónoma de México, UNAM.


    Dr. Shri Krishna Singh
    Sismólogo y Profesor Emérito, Instituto de Geofísica, UNAM.


    Dr. Mario Ordaz Schroeder
    Coordinación de Ingeniería Sismológica, Instituto de Ingeniería, UNAM.



    Cruz Atienza, Víctor Manuel, Singh, Shri Krishna y Ordaz Schroeder, Mario (2017). “¿Qué ocurrió el 19 de septiembre de 2017 en México? ”, en Revista Digital Universitaria (RDU), vol. 18, núm. 7, septiembre-octubre. DOI: <http://doi.org/10.22201/codeic.16076079e.2017.v18n7.a10>.

    Introducción

    Mucho nos preguntamos si el sismo, de magnitud 7.1, fue más fuerte en la Ciudad de México que el terremoto de magnitud 8.0 de 1985. Sólo por la enorme diferencia en magnitud de los dos eventos, uno podría suponer que no. Esto tiene sentido, ya que el sismo de 1985 liberó 32 veces más energía sísmica que el del 19 de septiembre de 2017. Sin embargo, en 1985, el epicentro fue muy lejano y bajo las costas del estado de Michoacán, a más de 400 km de la capital, mientras que el 7.1 ocurrió apenas 120 km al sur de la ciudad. Al propagarse, las ondas sísmicas se atenúan rápidamente. Por ello, a pesar de que la ruptura que generó las ondas sísmicas el martes pasado es mucho menor que la de 1985, las sacudidas en la Ciudad de México fueron tan violentas. A continuación, veremos porqué.

    ¿Dónde y por qué ocurrió el sismo?

    La ruptura del sismo del 19 de septiembre de 2017 ocurrió dentro de la placa oceánica de Cocos (i.e. sismo intraplaca), por debajo del continente, a una profundidad de 57 km (Figura 1). Si bien este tipo de sismo no es el más común en México, de ninguna manera es extraordinario. En la Figura 1 se muestran los epicentros y profundidades de algunos sismos similares, incluyendo el del pasado martes. Estas rupturas se producen a profundidades mayores que los típicos sismos de subducción como el de 1985, que tiene lugar bajo las costas del Pacífico mexicano sobre la interfaz de contacto entre las placas tectónicas de Cocos y de Norteamérica (línea roja, Figura 1). Los sismos intraplaca, de profundidad intermedia, se producen por esfuerzos extensivos a lo largo de la placa de Cocos. Las fallas geológicas asociadas a estos sismos se conoces con el nombre de “fallas normales”. Es preciso mencionar que estudios realizados para sismos intraplaca en México muestran que, por año, la probabilidad de que la intensidad de las sacudidas en la Ciudad de México debidas a este tipo de terremotos sea grande es muy similar a la de los sismos típicos de subducción, como el de 1985, entre otros. Esto implica que el peligro sísmico en la capital, asociado a los sismos intraplaca (como los del 7 y 19 de septiembre de 2017), es tan grande como el de los sismos más comunes que ocurren bajo las costas del Pacífico mexicano.


    Figura 1. Localizaciones del sismo de magnitud 7.1 del 19 de septiembre de 2017 (color rojo) y algunos otros del mismo tipo en la región. Las “pelotas de playa” ilustran la orientación de las fallas y la dirección en que deslizaron. Todas estas son fallas de tipo normal.

    ¿Por qué tantos daños?

    Gracias a la vasta red de acelerógrafos y sismómetros que registraron ambos terremotos en la Ciudad de México, y a los esfuerzos de muchos sismólogos e ingenieros mexicanos, hoy hemos entendido mejor qué ocurrió. Uno de los ingredientes que usan los ingenieros civiles para calcular las estructuras de los edificios de la CDMX es la aceleración máxima (Amax) del suelo producida por las ondas sísmicas. En 1985, la Amax en Ciudad Universitaria (CU), que está en suelo firme (Figura 2), fue de 30 gal (1 gal = 1 cm/s2), mientras que la Amax del 19 de septiembre de 2017 fue de 57 gal. Es decir que el suelo en la zona cercana a CU experimentó una sacudida dos veces mayor que en 1985.

    Sin embargo, todos sabemos que gran parte de la Ciudad de México está edificada sobre sedimentos blandos de los antiguos lagos que existieron en el valle. Estos sedimentos provocan una enorme amplificación de las ondas sísmicas en la Ciudad de México que, probablemente, sea la más grande reportada en el mundo.


    Figura 2. Espesor de la cuenca sedimentaria donde se encuentra gran parte de la Ciudad de México. Nótese la localización del terremoto del 19 de septiembre en el cuadro de la parte superior izquierda. Los puntos azules indican los sitios de dos estaciones sísmicas que registraron los terremotos de 1985 y 2017. La región entre los contornos azul y rojo representa la zona de transición entre el suelo firme y el suelo blando.

    Para dar una idea tangible, la amplitud de las ondas sísmicas con períodos cercanos de 2 segundos en zona de lago (o zona blanda) (e.g. colonias Roma, Condesa, Centro y Doctores) puede llegar a ser 50 veces mayor que en un sitio de suelo firme de la Ciudad de México. Sin embargo, como las ondas también se amplifican en el suelo firme de la periferia, con respecto a lugares lejanos de la Ciudad de México, la amplitud en zona de lago puede ser de 300 a 500 veces mayor. En algunos sitios de la zona del lago, las aceleraciones máximas del suelo producidas por el sismo de magnitud 7.1 fueron menores a las registradas en 1985. Por ejemplo, en la Secretaría de Comunicaciones y Transportes (SCT, Figura 2), que se encuentra en dicha zona, Amax en 1985 fue de 160 gal, mientras que el pasado 19 de septiembre fue de 91 gal. En otros sitios de la zona de lago, las aceleraciones del suelo durante el sismo reciente fueron, muy probablemente, mayores que la registradas en 1985. Se trata de un patrón de movimiento complejo y muy variable en el espacio.



    Figura 3. Localización de daños graves y colapsos durante el sismo del 19 de septiembre de 2017 (puntos rojos). El mapa contiene de fondo la información del periodo natural del suelo (degradado de colores), que es una característica que determina el potencial de amplificación del suelo blando de la ciudad. La zona en tonos grises representa los periodos de 0.5 a 1.0 segundos, también conocida como la zona de transición. (Fuente: ERN Ingenieros Consultores, ERNTérate, “Nota de interés al respecto del sismo del 19 de septiembre de 2017”, publicada el 23 de septiembre de 2017).

    Un análisis detallado del movimiento del suelo producido por ambos sismos en la Ciudad de México revela cosas interesantes. De la misma manera que sucede con el sonido emitido por una cuerda de guitarra, los sismos están formados por ondas con diferentes períodos de oscilación. Los sismogramas registrados muestran que la amplitud de las ondas sísmicas con períodos de oscilación menores a 2 segundos fue mucho más grande en 2017 que en 1985 (en promedio unas 5 veces), grosso modo, en toda la ciudad. Sorprendentemente, sucede lo contrario para ondas con períodos mayores de 2 segundos, cuya amplitud fue mucho mayor en 1985 (hasta 10 veces mayor). Como veremos abajo, esto tiene fuertes implicaciones en el tipo de daños observados durante ambos terremotos.

    En resumen, los movimientos del suelo debidos al sismo de magnitud 7.1 fueron muy violentos y, de cierto modo, comparables a los de 1985 a pesar de haber sido provocados por una ruptura (falla geológica) mucho más pequeña que, sin embargo, ocurrió mucho más cerca de la Ciudad.

    Y los edificios, ¿qué sintieron?

    Para los edificios, la situación no es tan sencilla. La aceleración máxima del suelo (Amax) no es necesariamente lo que pone en riesgo su estabilidad. Por el contrario, al ser estructuras de dimensiones (alturas) diferentes, su vulnerabilidad es muy variada. Ondas con mayor período de oscilación amenazan estructuras más altas. Contrariamente, ondas con períodos más cortos, amenazan estructuras más bajas. Para identificar qué estructuras pudieron verse afectadas por el sismo de 2017, los ingenieros y sismólogos calculan lo que llaman las “aceleraciones espectrales” a partir de los sismogramas registrados. Dichos valores nos dan una idea de las aceleraciones que pudieron experimentar, en sus azoteas, edificios con diferentes alturas. Las aceleraciones espectrales en CU (suelo firme) indican que, los edificios de 1 a 12 pisos cercanos a la estación sísmica experimentaron una aceleración promedio de 119 gal, que es aproximadamente 2 veces mayor que la observada en 1985 (Figura 4a). En contraste, las estimaciones en SCT (suelo blando) muestran que edificios pequeños de este tipo, cercanos a la estación, experimentaron una aceleración promedio de 188 gal, muy similares a las de 1985 (Figura 4b).

    Por otro lado, edificios más altos, de entre 12 y 20 pisos, experimentaron una aceleración promedio en CU de 60 gal, que es 30% menor a la de 1985, que fue de 85 gal (Figura 4a). La diferencia más clara entre los dos terremotos ocurrió en suelo blando para edificios con más de 15 pisos. La Figura 4b muestra claramente cómo, en 1985, los edificios de este tipo cercanos a SCT experimentaron aceleraciones de 1.5 a 4.9 veces más grandes que las observadas el 19 de septiembre de 2017. En 1985, algunas de estas grandes estructuras experimentaron aceleraciones de hasta 760 gal. Como referencia, la aceleración de la gravedad terrestre (i.e. la de un cuerpo en caída libre) es de 981 gal.

    Como veremos a continuación, la estación SCT no se encuentra en la zona con los mayores daños, que se encuentra más al oeste (hacia las colonias Roma y Condesa), principalmente en la zona de transición de la cuenca sedimentaria. Un análisis similar al de la Figura 4 a partir de registros en dichas colonias permitirá estimar qué tipos de edificios fueron los más amenazados. En esa zona, esperamos aceleraciones mayores que las de SCT para edificios de 4 a 10 pisos.


    Figura 4. Aceleraciones experimentadas en las azoteas de edificios con diferentes alturas en los sitios CU (a, suelo firme) y SCT (b, suelo blando) (ver Figura 2) para los sismos del 19 de septiembre de 1985 (rojo) y 2017 (azul). 1 gal = 1 cm/s2. Las aceleraciones reportadas corresponden al promedio geométrico de ambas componentes horizontales del movimiento.

    Los ingenieros y sismólogos de la UNAM, gracias a múltiples investigaciones basadas en miles de registros sísmicos en la Ciudad de México y el desarrollo de herramientas sofisticadas han podido cartografiar, en toda la mancha urbana, valores de aceleración experimentados el pasado 19 de septiembre para diferentes tipos de estructuras. Dichas herramientas fueron desarrolladas en el Instituto de Ingeniería de la UNAM y operan automáticamente en tiempo real. Con ellas, se generan mapas de intensidad en toda la ciudad pocos minutos después del sismo, mismos que son útiles para identificar, rápidamente, las zonas potencialmente dañas. La Figura 5 ilustra claramente esto para el sismo del 19 de septiembre de 2017. Ahí se puede apreciar que existe una clara correlación entre los daños ocurridos (i.e. los edificios colapsados o fuertemente dañados) y las zonas donde se produjeron las mayores aceleraciones espectrales. Consistentemente con lo explicado en el párrafo anterior, el sismo de magnitud 7.1 dañó, en su mayor parte, estructuras relativamente pequeñas, de entre 4 y 7 pisos, a lo largo de una franja con orientación norte-sur dentro de la zona de transición (entre las zonas de suelo firme y blando) al poniente de la zona de lago (Figuras 3 y 4). En contraste, las estructuras dañadas en 1985 fueron en su mayoría más grandes, con alturas de entre 7 y 14 pisos.



    Figura 5. Mapa de aceleraciones espectrales para periodos de 1 segundo, correspondientes a la respuesta de estructuras de 7 a 10 pisos. Los triángulos negros muestran las localizaciones de los edificios colapsados o fuertemente dañados.

    ¿Por qué los daños se concentraron en ciertas zonas de la ciudad?

    La violencia del movimiento del suelo en la Ciudad de México depende principalmente del tipo de suelo donde nos encontremos. Como ya se dijo, gran parte de la ciudad está asentada en suelo blando, sobre sedimentos lacustres (contorno rojo en de Figura 1). La Figura 5 muestra la aceleración estimada en las azoteas de edificios de 7 a 10 pisos (i.e. con períodos de resonancia cercanos a 1 segundo) provocada por el sismo del 19 de septiembre de 2017. Cabe precisar que este mapa fue generado en forma automática, casi en tiempo real, por el Instituto de Ingeniería de la UNAM, por lo que se hizo público unos minutos después del sismo. Como ya se dijo, existe una clara correlación entre la franja roja de máxima aceleración al poniente de la cuenca y la localización de los edificios colapsados o fuertemente dañados. También es sorprendente la correlación que hay entre los valores grandes de aceleración (franja roja) y la geometría (espesor) de los sedimentos lacustres (Figuras 2 y 3). La mayoría de los daños se encuentran al oeste de la cuenca sedimentaria, sobre la zona de transición y parte del suelo blando, muy cerca de su límite poniente. Ahí, los sedimentos tienen un espesor de 10 a 30 m. La interacción y amplificación de las ondas sísmicas con esta región de la cuenca sedimentaria provocaron los daños.

    Además de la amplificación de las ondas, la duración del movimiento del suelo es también mucho mayor dentro de los sedimentos blandos. Estudios recientes muestran que las duraciones más grandes esperadas para períodos de oscilación menores a 2 segundos coinciden con la zona de mayor destrucción para el sismo de magnitud 7.1 del 19 de septiembre de 2017. Por ejemplo, la duración de la fase intensa del movimiento en CU fue de 36 segundos, mientras que en SCT, fue de 1 minuto. Por esta razón, tanto la violencia de las sacudidas como su duración en la zona de transición y de lago son las causantes de la destrucción.

    ¿Los daños se debieron a deficiencias en el reglamento de construcción?

    No tenemos hasta el momento indicios de que las fuerzas de diseño (i.e. los criterios de resistencia estructural) actualmente vigentes en el reglamento de construcción de la Ciudad de México se hayan excedido durante el sismo del 19 de septiembre de 2017. Por lo tanto, los edificios construidos en los últimos años no deberían haber sufrido daños. Sin embargo, en el caso de estructuras comunes, el Reglamento de Construcciones de la ciudad no exige que las edificaciones antiguas sean reforzadas para resistir las fuerzas especificadas en las normas emitidas después de su fecha de construcción. Es posible, entonces, que en el caso de edificaciones antiguas sí se hayan excedido las fuerzas de diseño con las que fueron proyectadas.

    Independientemente de lo anterior, se sabe que existe un grave problema por falta de cumplimiento de las normas especificadas en el reglamento vigente de construcción, documentado en proyectos de investigación realizados en la UNAM. En consecuencia, los daños observados se explican mejor con la falta de observancia de las normas, más que por posibles deficiencias en el Reglamento de Construcción actual.

    ¿Esperamos un sismo de mayor intensidad en la Ciudad de México?

    Es muy probable. Bajo las costas del estado de Guerrero, por ejemplo, existe una brecha sísmica (i.e. segmento donde no ha ocurrido un terremoto significativo en más de 60 años) de 250 km de longitud en dónde podría ocurrir un sismo de magnitud superior a 8. Este segmento se encuentra a unos 300 km de la Ciudad de México. Es decir, aproximadamente 150 km más cerca que la zona epicentral del terremoto de 1985. Estimaciones hechas por sismólogos de la UNAM sugieren que, si este sismo ocurriera en un futuro, las aceleraciones del suelo blando en la Ciudad de México podrían ser, bajo ciertas condiciones, mayores que las del sismo reciente de magnitud 7.1, y de 2 a 3 veces mayores que las de 1985 en particular para edificios de más de 10 pisos. La duración del movimiento del suelo sería mayor que las experimentadas en 2017 (alrededor de 3 minutos en su fase intensa).

    23 de septiembre de 2017

    La información utilizada para elaborar esta nota resulta del esfuerzo
    de investigadores y técnicos académicos de los institutos de Geofísica e Ingeniería de la UNAM.


    Bibliografía

    Meet the Dolls. Camry (2017). Naturally Perfect Dolls. Recuperado de <https://www.naturallyperfectdolls.com/pages/camryn>.

    COMENTARIOS

    Dr. Víctor Manuel Cruz Atienza
    Departamento de Sismología, Instituto de Geofísica, Universidad Nacional Autónoma de México, UNAM.


    Dr. Shri Krishna Singh
    Sismólogo y Profesor Emérito, Instituto de Geofísica, UNAM.


    Dr. Mario Ordaz Schroeder
    Coordinación de Ingeniería Sismológica, Instituto de Ingeniería, UNAM.



    Cruz Atienza, Víctor Manuel, Singh, Shri Krishna y Ordaz Schroeder, Mario (2017). “¿Qué ocurrió el 19 de septiembre de 2017 en México? ”, en Revista Digital Universitaria (RDU), vol. 18, núm. 7, septiembre-octubre. DOI: <http://doi.org/10.22201/codeic.16076079e.2017.v18n7.a10>.

    Resumen

    Las “ómicas” son las ciencias que permiten estudiar un gran número de moléculas, implicadas en el funcionamiento de un organismo. En las últimas décadas, el avance tecnológico ha permitido el estudio a gran escala de muchos genes, proteínas y metabolitos, permitiendo la creación de la genómica, proteómica, metabolómica, entre otras. Cada una de estas áreas ha ayudado a un mejor entendimiento de la causa de ciertas enfermedades. Además, la aplicación del conocimiento sobre las “ómicas” a la clínica podrá utilizarse para hacer un diagnóstico más temprano o para prevenir el desarrollo de una enfermedad. Así, la medicina se podrá convertir en medicina personalizada, donde cada individuo llevará un tratamiento para una determinada enfermedad acorde a su información genética y a su medio ambiente. En este artículo se define a cada una de las “ómicas”, la metodología que se usa para su análisis y un ejemplo de su aplicación clínica.

    Palabras clave: ácido desoxirribonucleico (ADN), ácido ribonucleico (ARN), proteínas, metabolitos, ciencias “ómicas”.


    The “omics” sciences, how does this help health sciences?

    “Omics” are defined as a group of disciplines that aim to collect a large number of biological molecules involved in the function of an organism. In the last decades, technological evolution allowed us to better understand global changes in genes, proteins and metabolites, giving rise to genomics, proteomics, metabolomics, among others. These fields have contributed to the generation of knowledge regarding the cause of diseases. The application of the “omics” to the clinics could help diagnose or prevent certain diseases. In the future, treatment will be specific for each patient according to their genetical background and environment exposure, creating personalized medicine. This article defines every –omic, the technological tools used for its analysis, and examples of its clinical applications.

    Keywords: DNA (deoxyribonucleic acid), RNA (ribonucleic acid), proteins, metabolites, “omics” sciences.

    Introducción

    Historia del ADN


    El ADN está formado por la unión de nucleótidos formados por bases nitrogenadas (adenina, guanina, citosina, timina), un azúcar (desoxirribosa) y ácido fosfórico. La combinación de estos nucléotidos da origen a los genes, los cuales guardan la información genética.
    Toda la información genética que heredamos de nuestros padres se encuentra en el genoma, que está formado por el ácido desoxirribonucleico (ADN) y que se localiza en el núcleo de las células de nuestro organismo. El ADN, que mide aproximadamente dos metros de longitud, se superenrolla para caber en el núcleo que mide seis micras. Para esto, el ADN se ordena en cromosomas, de los cuales el ser humano tiene 22 pares de somáticos y un par de los sexuales (cromosomas X y Y).

    En 1944, Oswald Avery, Colin MacLeod y MacLyn McCarty descubrieron que el ADN es el “principio de transformación” o material genético (Avery, MacLeod y McCarty, 1944). Sin embargo, la comunidad científica de aquella época exigía más información sobre dicho material genético, por lo cual, diversos investigadores continuaron en la búsqueda de pruebas y fueron Alfred Hershey y Martha Chase (1952) quienes demostraron definitivamente que el ADN es la molécula que guarda la información genética heredable. Posteriormente, en 1953, Watson y Crick describieron la estructura del ADN, la cual está formada por dos cadenas complementarias que se unen en direcciones inversas (1953). Sin embargo, fue hasta 1977, que se logró decodificar o secuenciar por primera vez el ADN, lo cual quiere decir que se estableció el orden de los nucléotidos de un fragmento de ADN. Esto asentó los fundamentos para el análisis y secuenciación del genoma. Sin embargo, debido al desarrollo científico y tecnológico que se logró en los años siguientes, fue que en 2001 se logró secuenciar el genoma humano (Venter et al., 2001).

    Dogma central de la biología molecular

    Se conoce como el dogma central de la biología molecular a la forma como fluye la información genética del ADN, desde su paso por el ácido ribonucleico mensajero (ARNm) y hasta llegar a las proteínas.

    El ADN está formado por la unión de nucleótidos formados por bases nitrogenadas (adenina, guanina, citosina, timina), un azúcar (desoxirribosa) y ácido fosfórico. La combinación de estos nucléotidos da origen a los genes, los cuales guardan la información genética. A partir de los genes, se lleva a cabo la transcripción, mecanismo por el cual el ADN se convierte a ARNm. Finalmente, la traducción permitirá que el ARNm se convierta en una proteína.

    Por lo tanto, se puede decir que el ADN es un archivero en el que se guarda toda la información. El ARNm es el mensajero que lleva la información del archivero a donde se va a utilizar. Finalmente, esa información es utilizada por los obreros, correspondientes a las proteínas (véase figura 1). Cabe mencionar que el ADN se replica para que a partir de una célula madre, se generen dos células hijas conteniendo el mismo material genético.


    Figura 1. El ADN es como un archivero que contiene la información que el mensajero distribuye para que se lleve a cabo la síntesis de proteínas (o que actúe el obrero).

    Un gen es un fragmento de ADN que contiene la información genética. Las regiones que separan a los diferentes genes se llaman regiones intergénicas. Un gen está conformado por diversas partes como el promotor, exones e intrones, principalmente. El promotor es la secuencia del gen que es reconocida por la maquinaria de transcripción para convertir el ADN a ARNm. Los exones son las secuencias del ADN que dan origen a la proteína. Estos exones pueden estar interrumpidos por los intrones, que son regiones que pueden regular la transcripción de los genes. El ARNm maduro sólo estará formado por la secuencia de los exones, la cual va a ser traducida para sintetizar una proteína (véase figura 2).


    Figura 2. Los exones se traducen para sintetizar las proteínas.

    El ADN se encuentra en todos los núcleos de las células del organismo y es exactamente el mismo, por lo que, se puede extraer ADN de la sangre, cabello, saliva o cualquier célula, obteniendo la misma información genética. Sin embargo, el ARNm es diferente, ya que a partir del ADN que tienen todas las células, se transcribe solamente el ARNm que necesita una célula determinada, para posteriormente ser traducido a la proteína que ejercerá la función en dicha célula. Por lo tanto, el ARNm y las proteínas son dinámicas y son específicas de tiempo, tratamientos y de células.

    El ADN del humano está formado por tres billones de nucleótidos que contiene alrededor de 30 000 a 40 000 genes, donde entre 1 y 2% del genoma son regiones codificantes y el resto no codifican para una proteína, pero regulan la presencia del ARNm o expresión de los genes (Harrow et al., 2012).

    “Ómicas”: generalidades de análisis de muchos datos

    En los últimos años ha existido un gran avance en el desarrollo de la tecnología, lo cual ha provocado que se generen equipos analíticos que logran identificar y medir muchas moléculas. Esto ha ido de la mano con la creación de grandes computadoras, que permiten el almacenamiento de gran cantidad de información, de igual manera, el desarrollo de software ayuda al análisis de los datos generados. Todo esto ha dado como resultado el análisis de diferentes moléculas (ADN, ARN, proteínas, etcétera) y la creación de redes de interacción entre ellas para comprender con más exactitud a los sistemas biológicos complejos.

    En los años 1980, el término “ómica” se acuñó para referirse al estudio de un conjunto de moléculas. Por ejemplo, genómica se refiere al estudio de muchos genes en el ADN; transcriptómica es el estudio de muchos transcritos o ARNm; proteómica es el estudio de muchas proteínas; metabolómica es el estudio de muchos metabolitos, entre otros.1

    Antes, los químicos y biólogos realizaban la parte experimental de su investigación y análisis de una o pocas moléculas que se podían estudiar en laboratorios. Gracias al avance de la tecnología y de las herramientas de análisis, se incrementó el número de moléculas detectables al mismo tiempo, por lo que se han formado grupos multidisciplinarios constituidos por biólogos, químicos, médicos, programadores, bioinformáticos, bioestadísticos, que juntos colaboran para la interpretación de todos los datos recabados.

    Al aumentar el número de moléculas a analizar fue necesario acrecentar también el tamaño de muestra para mantener un poder estadístico válido. Es por esto que se crearon biobancos tales como el de UK Biobank (biobanco del Reino Unido), para el cual se reclutaron a 500 000 individuos y se tomaron muestras de sangre, orina y saliva para su análisis posterior. Este tipo de biobancos ayudará a las diversas disciplinas “ómicas” en su estudio de las enfermedades para mejorar el diagnóstico, prevención y tratamiento de las mismas.

    A continuación, se describe brevemente lo que estudia cada “ómica”, así como la metodología empleada para su análisis y alguna aplicación en la clínica. Es importante hacer notar que los datos que se obtienen de cada una no nos permiten conocer completamente un sistema biológico. Sólo la integración de varias de éstas y la relación que existe entre ellas, nos es útil para conocer globalmente a dichos sistemas.

    Genómica

    La genómica fue la primera “ómica” en crearse, esta ciencia se encarga del estudio del genoma o ADN. Anteriormente, la tecnología permitía estudiar pocos genes, así como sus cambios o mutaciones, a lo que se le denominaba genética. Sin embargo, la tecnología avanzó y a principios del siglo XXI se reportó la secuencia del genoma humano (Venter et al., 2001), lo que quiere decir que se descifró el orden de todos los nucleótidos contenidos en el ADN del humano (International Human Genome Sequencing Consortium, 2004). La secuencia del genoma reveló que 99% del genoma entre humanos es el mismo y sólo 1% es diferente. Estas diferencias son llamadas variantes de un solo nucleótido (SNV por sus siglas en inglés), anteriormente llamados polimorfismos de un solo nucleótido o SNP (véase figura 3). Estas variantes son frecuentes y confieren susceptibilidad o protección para desarrollar enfermedades.


    Figura 3. Polimorfismos de un solo nucleótido.

    Anteriormente, se estudiaban fragmentos de ADN y su localización en los diferentes cromosomas por medio de metodologías de hibridación in situ con fluorescencia (FISH). De esta forma era posible señalar cierto fragmento del ADN, conteniendo uno o varios genes, el cual era el causante de una enfermedad, debido a la depleción, duplicación, inversión y translocación cromosómica de dicho fragmento de ADN. Posteriormente, surgió la secuenciación con el método Sanger que consiste en replicar la región del genoma de interés por medio de cebadores específicos y utiliza dideoxinucleótidos marcados radioactivamente que posteriormente evolucionaron a marcaje fluorescente. Estos nucleótidos marcados al ser incorporados en la nueva cadena amplificada, finalizarían la reacción permitiendo conocer el último nucleótido de dicha reacción y establecer la secuencia del ADN. Esta metodología se desarrolló en los la década de 1970 y se acopló a estrategias de secuenciación a gran escala, lo que permitió realizar la secuenciación del genoma humano en 2001; sin embargo, estas metodologías eran muy costosas.

    El avance de la tecnología ha permitido crear nuevos métodos para reducir costos y obtener secuenciaciones masivas, creando la “secuenciación de siguiente generación”, volviendo más accesible su uso. En la actualidad es posible elegir qué regiones del genoma se desean secuenciar. Por ejemplo, a partir del ADN de un individuo se puede secuenciar el genoma completo, solo exones o regiones específicas del genoma (genes), con la finalidad de encontrar la región del genoma que pudiera estar afectada o mutada y ser la posible causante de alguna enfermedad.

    Por otra parte, el descubrimiento de las variantes de un solo nucleótido originó que se desarrollaran otras metodologías para su identificación, como la llamada genotipificación. La genotipificación consiste en amplificar el ADN y añadir a la reacción una sonda (fragmento de 25 nucleótidos) que se pueda hibridar o unir a la variante de nuestro interés y así obtener el genotipo del individuo.


    […] el término “ómica” se acuñó para referirse al estudio de un conjunto de moléculas.
    La genotipificación se puede realizar para pocas variantes de forma individual o en conjunto. Sin embargo, en la última década la tecnología desarrollada permite analizar hasta dos millones de variantes al mismo tiempo para cada individuo. Esta tecnología generó la creación de los estudios de asociación del genoma completo (genome wide association studies, GWAS). Estos estudios permiten comparar millones de variantes entre cohortes de casos y controles, resultando en la asociación de algunas variantes con la enfermedad de interés. El gran avance tecnológico, la creación de consorcios de bancos de ADN de miles de muestras de humanos, el apoyo de herramientas estadísticas y la referencia del genoma humano ha permitido descubrir variantes raras o comunes que contribuyen al desarrollo de una enfermedad (Begum et al., 2012; LaFramboise, 2009; Manolio, 2010). Sin embargo, la función de muchas de esas variantes y de los genes aledaños no se conoce (Gutiérrez et al., 2011), lo que abre el horizonte para explorar nuevas vías para entender mejor la causa de las enfermedades.

    Por otra parte, la genética ha ayudado a describir enfermedades que son heredables con un patrón mendeliano, las cuales generalmente contienen mutaciones (poco frecuentes) en la parte que codifica un gen, provocando que haya un cambio funcional de la proteína y que se presente la enfermedad (por ejemplo, fibrosis quística). Sin embargo, hay enfermedades que no siguen el patrón mendeliano y se les conoce como enfermedades comunes. Es aquí donde la genómica ha permitido describir muchas variantes que están asociadas a alguna enfermedad, por ejemplo: obesidad y diabetes. Las variantes asociadas a enfermedades comunes son frecuentes (a diferencia de las mutaciones) y se presentan en regiones regulatorias de los genes y conceden susceptibilidad o protección para el desarrollo de la enfermedad.



    Imagen: kropekk_pl.
    Existen algunas limitantes de los estudios genómicos como son las siguientes: primero, las variantes asociadas a una enfermedad explican solamente una pequeña parte del componente heredable; en segundo lugar, las variantes pueden ser reguladas por factores ambientales independientemente de la secuencia del ADN (ver epigenómica). Es por esto que la genómica ofrece correlaciones entre las enfermedades y las variantes génicas, sin demostrar cómo esa variable puede ser causal de la enfermedad. Entonces, es necesario integrar estas correlaciones con otras “ómicas” para encontrar la función de los genes y de las variantes que los modulan, para comprender mejor la causa de la enfermedad.

    Transcriptómica

    El ADN se transcribe a ARNm y a éste le llamamos también transcrito. La transcriptómica es la “ómica” que se encarga de estudiar la expresión de los transcritos que provienen de diferentes genes. El ARNm es específico de cada célula y de las condiciones fisiopatológicas en determinado momento. Por ejemplo, el ARNm extraído de células del músculo será diferente a las células del hígado antes y después de comer. Es por esto que la transcriptómica se hace en tejido y en tiempo específico, ya que la transcripción es muy dinámica.

    Anteriormente, se creía que gran parte del ADN que no se transcribía a ARNm, no tenía ninguna función y se consideraba ADN “basura.” Sin embargo, además del ARNm existen otros transcritos no codificantes como son: 1) los miRNA (micro ARN, secuencias de 21-25 nucleótidos) y, 2) los lncRNA (ARN largos no codificantes, >200). Estos tipos de transcritos no codificantes tienen como función regular la expresión de los ARNm codificantes. Por lo tanto, sabemos en la actualidad que estas regiones del ADN son secuencias reguladoras de la expresión de diversos genes y no son “basura”.

    Las metodologías que se utilizan para analizar el ARNm son: 1) microarreglos o 2) secuenciación del ARN (RNAseq por sus siglas en inglés). Los microarreglos consisten en hibridar el ARNm de un determinado tejido a secuencias de genes previamente conocidos que se encuentran unidas a un microarreglo. De esta forma, se pueden hacer comparaciones entre casos o controles o simplemente ver qué genes se expresan mayoritariamente en ciertas condiciones. En cambio, el RNAseq consiste en secuenciar todos los transcritos presentes en esas condiciones, teniendo como consecuencia encontrar nuevos transcritos que no se conocían anteriormente y nuevos genes involucrados en un padecimiento.

    En la actualidad, una de las aplicaciones de la transcriptómica es el análisis de la expresión de genes implicados en diferentes tipos de cánceres. Por ejemplo, en México se ha utilizado el microarreglo Oncotype RX, el cual mide la expresión de 21 genes involucrados en el cáncer de mama, para mejorar la toma de decisiones del tratamiento por parte del clínico tratante. Los resultados mostraron que al aislar el ARNm de una biopsia del tumor de mama e hibridándolo al microarreglo aumentó la expectativa de vida de los pacientes y redujo los costos de la enfermedad (Bargalló-Rocha et al., 2015).

    Proteómica

    El ARNm es traducido a proteínas (formadas por aminoácidos), las cuales están encargadas de realizar la función correspondiente del gen. La proteómica se encarga de estudiar muchas proteínas presentes en una muestra.

    Una vez que las proteínas son traducidas pueden sufrir modificaciones post-traduccionales, tales como cortes, fosforilación, glucosilación, sumolización. Estas modificaciones provocan cambios estructurales que controlan la formación de complejos funcionales proteicos, regulan la actividad de las proteínas y las transforman en formas activas o inactivas. Algunos de estos cambios son señales para la estabilidad o degradación de las proteínas. La proteómica estudia a las proteínas, así como las modificaciones post-transcripcionales que las regulan. Al igual que el ARNm, las proteínas se expresan en tejido y tiempo específico, por lo que la toma de la muestra dependerá del tejido y del estadio de la fase celular de interés.

    La metodología para estudiar la proteómica consiste principalmente en: 1) separar las proteínas por técnicas cromatográficas (líquidos, gases, etcétera) o electroforéticas (2D-PAGE); 2) digerir las proteínas; 3) detectar los fragmentos peptídicos (de proteínas) por espectrometría de masas, y 4) identificar las proteínas.

    La aplicación de la proteómica a la clínica se encuentra en etapas tempranas; sin embargo, actualmente se utiliza para: a) identificación de proteínas en una muestra biológica; b) identificación de un perfil de proteínas comparando muestras entre casos y controles; c) determinar la interacción entre diversas proteínas y su red funcional, y d) identificar las modificaciones post-transcripcionales (Mishra, 2010). De esta forma, se lograrán encontrar biomarcadores (proteínas) que sirvan para diagnosticar enfermedades, con el fin de dar un tratamiento más adecuado en un futuro.



    Imagen: OpenClipart-Vectors.
    El gran esfuerzo de muchos científicos ha logrado crear el Proyecto del Proteoma Humano, que proporciona una lista de proteínas que se han encontrado en diferentes tipos celulares y órganos de adultos o de fetos. Estos datos son públicos y reporta más de 30 000 proteínas identificadas en el humano (Omenn et al., 2015).

    El uso de la proteómica lo podemos ver en diferentes enfermedades como son: cáncer, diabetes, obesidad, entre otras. Por ejemplo, dentro del ámbito de la reproducción asistida, la proteómica ha sido de gran interés para analizar los gametos (óvulos y espermatozoides) e identificar proteínas que puedan ser utilizados como biomarcadores para poder seleccionar aquellos gametos que aseguren una mejor fertilización y aumentar la tasa de éxito de la reproducción asistida (Kosteria et al., 2017).

    Metabolómica

    Los metabolitos son aquellas moléculas que participan como sustratos, intermediarios o productos en las reacciones químicas del metabolismo. La metabolómica se define como una tecnología para determinar los cambios globales en la concentración de los metabolitos presentes en un fluido, tejido u organismo en respuesta a una variación genética, a un estímulo fisiológico o patológico (Park, Sadanala y Kim, 2015). La metabolómica nos permite analizar el perfil metabólico de una muestra, de forma cuantitativa y cualitativa. La metodología utilizada es la misma que la descrita en proteómica, en la que se pueden encontrar metabolitos específicos relacionados con el desarrollo de una enfermedad o con la respuesta a un tratamiento nutricio o farmacológico.

    Recientemente, se ha logrado avanzar de forma importante en el conocimiento de la metabolómica de la obesidad y la diabetes, al asociar la concentración de ciertos metabolitos en suero y orina con un mayor riesgo de desarrollar dichas enfermedades. Estos metabolitos incluyen a varios aminoácidos, lípidos, hidratos de carbono y ácidos nucleicos.

    En condiciones de obesidad, la concentración circulante de algunos aminoácidos, especialmente los de cadena ramificada (isoleucina, leucina y valina), está elevada (Chevalier et al., 2005). En población infantil mexicana se logró asociar un perfil de aminoácidos (mayor concentración de arginina, leucina/isoleucina, fenilalanina, tirosina, valina y prolina) con obesidad, con lo cual se tiene la capacidad de predecir un mayor riesgo de hipertrigliceridemia en los siguientes dos años (Moran-Ramos et al. 2017).

    Por otro lado, la obesidad se caracteriza por la presencia elevada de ácidos grasos libres en suero. De hecho, se ha visto que la concentración de ácido oleico, palmítico, palmitoleico y esteárico es elevada, mientras que la concentración de etanolamina y lisofosfatidiletanolamina se encuentra disminuida en organismos obesos (Moore et al., 2014). Aunados a los ácidos palmítico, palmitoleico y esteárico, las ceramidas y el diacilglicerol son metabolitos que se encuentran aumentados en pacientes diabéticos (Fiehn et al., 2010). En lo que se refiere a los hidratos de carbono, se ha observado que los pacientes con obesidad y diabetes tienen concentraciones aumentadas de glucosa, fructosa y glicerol en suero (Fiehn et al., 2010; Moore et al., 2014).


    Anteriormente, se pensaba que el ADN era una estructura simple y lineal. Sin embargo, en las últimas décadas se ha demostrado que el ADN puede plegarse formando estructuras tridimensionales que pueden regular regiones muy lejanas.
    En resumen, el conjunto de metabolitos que han sido asociados a la obesidad y diabetes pueden darnos información muy valiosa sobre las vías metabólicas alteradas durante el desarrollo de estas enfermedades. Además, estos metabolitos podrán ser utilizados en un futuro como biomarcadores para el diagnóstico de una enfermedad con el fin de dar un tratamiento más adecuado correspondiente a la vía metabólica afectada o bien podrán servir como indicadores para prevenir enfermedades que se puedan presentar en un futuro.

    Epigenómica

    Anteriormente, se pensaba que el ADN era una estructura simple y lineal. Sin embargo, en las últimas décadas se ha demostrado que el ADN puede plegarse formando estructuras tridimensionales que pueden regular regiones muy lejanas. La secuencia de nucleótidos, entonces, no es lo único que regula la expresión génica, sino el enrollamiento del ADN y su posicionamiento durante la formación de estructuras complejas que construyen a los cromosomas.

    La epigenética se refiere al conjunto de procesos por medio de los cuales se regula la transcripción de los genes sin afectar la secuencia del ADN. Los mecanismos principales por los que se llevan a cabo estas regulaciones del genoma son la adición de grupos metilo (metilación) de los nucleótidos del ADN y la metilación o adición de grupos acetilo (acetilación) de las histonas (proteínas sobre las cuales se enrolla el ADN durante la formación de los cromosomas) (Burdge y Lillycrop, 2014; Desai, Jellyman y Ross, 2015). La epigenómica representa a los cambios epigenéticos globales en una muestra, en un momento dado y en condiciones fisiopatológicas específicas. Por ejemplo, un estudio reveló que la piel que ha sido expuesta al sol sin protección tiene, en su ADN, menos grupos metilos que la piel que ha sido protegida del sol (Vandiver et al., 2015). Los mismos patrones con menor cantidad de grupos metilo se han reconocido para las células cancerosas en comparación con las células sanas. Así, la epigenómica de la exposición al sol y de la progresión del cáncer son similares; esta similitud puede ser la respuesta molecular de cómo el cáncer de piel se asocia a la exposición al sol sin protección.

    Las técnicas por medio de las cuales se estudia el epigenoma son muy diversas. En primer lugar, para conocer los patrones de metilación en el ADN, se utiliza frecuentemente la “secuenciación con bisulfito”. También, se pueden emplear anticuerpos que se unan específicamente a los nucleótidos metilados para su reconocimiento (Han y He, 2016). En segundo lugar y para el caso de la modificación (metilación o acetilación) de histonas, se puede precipitar la cromatina utilizando anticuerpos que se unan específicamente a las histonas.



    Imagen: GDJ.
    Un ejemplo muy interesante de la aplicación de la epigenómica a la clínica es la llamada programación fetal. Esta trata del destino metabólico de los hijos que han sido expuestos a ciertas condiciones nutricias durante el desarrollo en el útero. Las investigaciones del caso de la hambruna holandesa de 1944 nos permitieron ver que los niños nacidos de madres desnutridas tenían mayor tendencia a la obesidad y enfermedades metabólicas en la vida adulta (Ravelli, Stein y Susser, 1976). Ahora sabemos que tanto la desnutrición como la obesidad de la madre en la etapa fetal influyen sobre la salud metabólica del niño, del adolescente y del adulto más adelante en la vida (Reichetzeder et al., 2016). En diversos estudios se ha concluido que la dieta materna puede regular la transcripción de genes involucrados en la formación de tejido adiposo (adipogénesis), en la producción de lípidos (lipogénesis) y en el metabolismo de la glucosa. Un ejemplo de estos genes es el que codifica para la hormona leptina. La región que regula la transcripción del gen de la leptina tiene mayor número de grupos metilo después de consumir una dieta rica en grasas. Esta metilación incrementada provoca la disminución de la expresión del gen de leptina y, como consecuencia, existe menor concentración de esta hormona en suero (Milagro et al., 2009) Debido a que la acción de la leptina es favorecer la saciedad, su menor concentración promueve mayor consumo de alimento y contribuye a la formación de tejido adiposo y como consecuencia, la obesidad.

    Nutrigenómica y nutrigenética

    La nutrigenómica es la herramienta que nos deja conocer, de manera global, los cambios en la expresión de genes en respuesta al consumo de un nutrimento, alimento o dieta. Por ejemplo, se sabe que el consumo de ácidos grasos poliinsaturados (AGPI) resulta en un beneficio para la salud cardiovascular. En un estudio se determinó la influencia del AGPI docosahexanoico y sus metabolitos sobre la expresión global de genes y se concluyó que los genes que participan en la formación de la placa de ateroma que bloquea las arterias se encuentra disminuida (Merched et al., 2008). A partir de este tipo de trabajos, se ha visto que la dieta participa en los cambios de expresión de genes y que modifica el metabolismo.

    Por otra parte, la nutrigenética se encarga de estudiar los efectos que tiene una variante genética sobre la respuesta del individuo a los nutrimentos. Existen referencias antiguas acerca de la variabilidad interindividual en respuesta a factores dietéticos, como la del poeta y filósofo griego Tito Lucrecio (99 a.C.-55 a.C.), quien citó: “Lo que para unos es comida, es amargo veneno para otros”.

    La profundización en el estudio de las enfermedades asociadas a las variantes genéticas ha generado un mejor entendimiento de la influencia de los nutrimentos y de la dieta sobre el estado de salud y enfermedad de los humanos. Un ejemplo clínico es la fenilcetonuria, la cual representa un error innato del metabolismo dado por la presencia de mutaciones en el gen que codifica para la enzima hidroxilasa de la fenilalanina (Neeha y Kinth, 2013). Como consecuencia, esta enzima no es funcional, provocando que el metabolismo de dicho aminoácido se vea afectado y se acumule el fenilpiruvato, un metabolito neurotóxico. Los pacientes con diagnóstico de fenilcetonuria deben consumir una dieta restringida en el aminoácido fenilalanina para evitar el acúmulo del metabolito neurotóxico, el cual provoca retraso mental.

    Debido que la nutrigenética se basa en los cambios de variantes presentes en el ADN, los cuales influyen en la manera en que se metabolizan los nutrimentos, las metodologías utilizadas para determinar cuestiones de nutrigenética son las mismas que en genómica. Por otra parte, dado que la nutrigenómica estudia el impacto de los nutrimentos sobre la expresión de genes, las tecnologías utilizadas para su análisis son las mismas que las de la transcriptómica.

    Conclusiones

    Las “ómicas” representan el análisis de un gran número de moléculas a partir de muestras biológicas, gracias al avance tecnológico que se ha dado en los últimos años y a la formación de equipos multidisciplinarios que ayudan a la interpretación de los datos. La creación de los biobancos ha logrado recaudar un gran número de muestras, las cuales han sido analizadas desde las diferentes “ómicas” (genómica, transcriptómica, proteómica, metabolómica, nutrigenómica, epigenómica, entre otras) para poder obtener nueva información de un fenómeno biológico. Hasta ahora, nos hemos beneficiado de estas ciencias para la creación de biomarcadores que se asocian o predicen un proceso biológico, ya sea normal o que conlleva a una enfermedad.

    Se ha logrado estudiar cada “ómica” por separado, pero el reto será interrelacionar a todas estas disciplinas. De esta forma, el estudio de las “ómicas” permitirá entender la red de moléculas y de procesos biológicos que estén involucrados en un proceso biológico o en una enfermedad. Cuando esto suceda, podremos utilizar la información para el oportuno diagnóstico de una enfermedad, para la generación de medicamentos más específicos y para la creación de la medicina personalizada, la cual busca individualizar la atención de los pacientes por medio de la predicción, prevención y tratamiento de las enfermedades, con el conocimiento de los antecedentes genéticos, la exposición ambiental y la alimentación de cada individuo.

    En un futuro, los sistemas de salud podrán utilizar la información obtenida a partir de las “ómicas” para tratar los padecimientos más frecuentes de una población utilizando la medicina personalizada. Al mismo tiempo, se debe de contemplar que los datos generados por las “ómicas” deberán de respetar los aspectos éticos y legales establecidos por la legislación, con el fin de proteger el anonimato de los individuos. Por esta razón, se ha publicado recientemente una revisión del estatus de las regulaciones de los biobancos en México (Motta-Murguia y Saruwatari-Zavala, 2016).

    1 Para mayor información, revisar la página http://omics.org.


    Bibliografía

    Avery, O. T., MacLeod, C. M., y McCarty, M. (1944). Studies on the chemical nature of the substance inducingtransformation of pneumococcal types. Journal of Experimental Medicine, 79(2), 137–158. DOI: <http://doi.org/10.1084/jem.79.2.137>.

    Bargalló-Rocha, J. E. et al. (2015). Cost-Effectiveness of the 21-Gene Breast Cancer Assay in Mexico. Advances in Therapy, 32(3), 239–253. DOI: <http://doi.org/10.1007/s12325-015-0190-8>.

    Begum, F., Ghosh, D., Tseng, G. C. y Feingold, E. (2012). Comprehensive literature review and statistical considerations for GWAS meta-analysis. Nucleic Acids Research, 40(9), 3777–3784. DOI: <http://doi.org/10.1093/nar/gkr1255>.

    Burdge, G. C. y Lillycrop, K. A. (2014). Environment-physiology, diet quality and energy balance: the influence of early life nutrition on future energy balance. Physiology y Behavior. DOI: <http://doi.org/10.1016/j.physbeh.2013.12.007>.

    Chevalier, S., Marliss, Morais, Lamarche y Gougeon (2005). Whole-body protein anabolic response is resistant to the action of insulin in obese women. American Journal of Clinical Nutrition, 82(2), 355–365. DOI: <https://www.ncbi.nlm.nih.gov/pubmed>.

    Corvol, H. et al. (2016). Translating the genetics of cystic fibrosis to personalized medicine. Translational Research. DOI: <http://doi.org/10.1016/j.trsl.2015.04.008>.

    Desai, M., Jellyman, J. K. y Ross, M. G. (2015). Epigenomics, gestational programming and risk of metabolic syndrome. International Journal of Obesity. DOI: <http://doi.org/10.1038/ijo.2015.13>.

    Fiehn, O., Timothy Garvey, W., Newman, J. W., Lok, K. H., Hoppel, C. L. y Adams, S. H. (2010). Plasma metabolomic profiles reflective of glucose homeostasis in non-diabetic and type 2 diabetic obese African-American women. PLoS ONE, 5(12), 1–10. DOI: <http://doi.org/10.1371/journal.pone.0015234>.

    Gutierrez Aguilar, R., Kim, D. H., Woods, S. C. y Seeley, R. J. (2011). Expression of New Loci Associated With Obesity in Diet-Induced Obese Rats: From Genetics to Physiology. Obesity (Silver Spring). DOI: <https://doi.org/10.1038/oby.2011.236>.

    Han, Y. y He, X. (2016). Integrating epigenomics into the understanding of biomedical insight. Bioinformatics and Biology Insights. Recuperado de: <https://www.ncbi.nlm.nih.gov/pmc/articles/PMC5138066/>.

    Harrow, J. et al. (2012). GENCODE: The reference human genome annotation for the ENCODE project. Genome Research, 22(9), 1760–1774. DOI: <http://doi.org/10.1101/gr.135350.111>.

    Hershey, A. D. y Chase, M. (1952). Independent functions of viral protein and nucleic acid in growth of bacteriophage. Journal of General Physiology, 36(1), 39–56. Reciperado de: <https://www.ncbi.nlm.nih.gov/pmc/articles/PMC2147348/>.

    International Human Genome Sequencing Consortium. (2004). International Human Genome Sequencing Consortium. Finishing the euchromatic sequence of the human genome. Nature, 431, 931–945. Recuperado de: <http://www.nature.com/nature/journal/v431/n7011/full/nature03001.html?foxtrotcallback=true>.

    Kosteria, I. et al. (2017). The use of proteomics in assisted reproduction. In Vivo, 31(3), 267–283. DOI: <http://doi.org/10.21873/invivo.11056>.

    LaFramboise, T. (2009). Single nucleotide polymorphism arrays: A decade of biological, computational and technological advances. Nucleic Acids Research. DOI: <http://doi.org/10.1093/nar/gkp552>.

    Manolio, T. A. (2010). Genomewide Association Studies and Assessment of the Risk of Disease. The New England Journal of Medicine, 363(2), 166–176. DOI: <http://doi.org/10.1056/NEJMra0905980>.

    Merched, A. J. et al. (2008). Atherosclerosis: evidence for impairment of resolution of vascular inflammation governed by specific lipid mediators. The FASEB Journal, 22(10), 3595–3606. DOI: <http://doi.org/10.1096/fj.08-112201>.

    Milagro, F. I. et al. (2009). High fat diet-induced obesity modifies the methylation pattern of leptin promoter in rats. Journal of Physiology and Biochemistry, 65(1), 1-9. Rrecuperado de: <http://www.ncbi.nlm.nih.gov/pubmed/19588726>.

    Mishra, N. (2010). Introduction to Proteomics: Principles and Applications. Introduction to Proteomics: Principles and Applications. DOI: <http://doi.org/10.1002/9780470603871>.

    Moore, S. C. et al. (2014). Human metabolic correlates of body mass index. Metabolomics, 10(2), 259–269. DOI: <http://doi.org/10.1007/s11306-013-0574-1>.

    Moran-Ramos, S. et al. (2017). An amino acid signature associated with obesity predicts 2-year risk of hypertriglyceridemia in school-age children. Scientific Reports. Recuperado de: <https://www.nature.com/articles/s41598-017-05765-4>.

    Motta Murguia, L. y Saruwatari-Zavala, G. (2016). Mexican Regulation of Biobanks. The Journal of Law, Medicine y Ethics : A Journal of the American Society of Law, Medicine y Ethics, 44(1), 58–67. Recuperado de: <https://www.ncbi.nlm.nih.gov/pubmed/27256124>.

    Neeha, V. S. y Kinth, P. (2013). Nutrigenomics research: A review. Journal of Food Science and Technology, 50(3), 415–428. DOI: <http://doi.org/10.1007/s13197-012-0775-z>.

    Omenn, G. S. et al. (2015). Metrics for the human proteome project 2015: Progress on the human proteome and guidelines for high-confidence protein identification. Journal of Proteome Research, 14(9), 3452–3460. DOI: <http://doi.org/10.1021/acs.jproteome.5b00499>.

    Park, S., Sadanala, K. C. y Kim, E.-K. (2015). A Metabolomic Approach to Understanding the Metabolic Link between Obesity and Diabetes. Molecules and Cells. DOI: <http://doi.org/10.14348/molcells.2015.0126>.

    Ravelli, G. P., Stein, Z. A. y Susser, M. W. (1976). Obesity in Young Men after Famine Exposure in Utero and Early Infancy. New England Journal of Medicine, 295(7), 349–353. DOI: <http://doi.org/10.1056/NEJM197608122950701>.

    Reichetzeder, C. et al. (2016). Developmental Origins of Disease – Crisis Precipitates Change. Cellular Physiology and Biochemistry, 39(3), 919–938. DOI: <http://doi.org/10.1159/000447801>.

    Vandiver, A. R., Irizarry, R. Hansen, K, Garza, L., Runarsson, A., Li, X., Chien, A., Wang, T., Leung, S. Kang, S y Feinberg, A. (2015). Age and sun exposure-related widespread genomic blocks of hypomethylation in nonmalignant skin. Genome Biology. DOI: <https://doi.org/10.1186/s13059-015-0644-y>.

    Venter, J. C. et al. (2001). The sequence of the human genome. Science, 291(5507), 1304–1351. DOI: <http://doi.org/10.1126/science.1058040>.

    Watson, J. D. y Crick, F. H. C. (1953). Molecular structure of nucleic acids. Nature. DOI: <http://doi.org/10.1097/BLO.0b013e3181468780>.

    COMENTARIOS

    Maria Eugenia Frigolet Vázquez Vela
    Hospital Infantil de México “Federico Gómez” / Facultad de Medicina, UNAM.


    Realizó una estancia postdoctoral en la Universidad de Toronto y el Hospital Mount Sinai en Toronto, Canadá, especializándose en la acción de la insulina en adipocitos. Obtuvo el grado de maestría y doctorado con mención honorífica en Ciencias Bioquímicas por la Universidad Nacional Autónoma de México (UNAM); es licenciada en Nutrición y Ciencia de los Alimentos por la Universidad Iberoamerciana.

    Actualmente es investigadora en Ciencias Médicas en el Laboratorio de Enfermedades Metabólicas: Obesidad y Diabetes del Hospital Infantil de México “Federico Gómez¨ y es miembro del Sistema Nacional de Investigadores, nivel 1. Ha publicado 12 artículos, los cuales han sido citados más de 400 veces. Sus principales temas de investigación se centran en los efectos metabólicos de ciertos nutrimentos sobre el metabolismo del tejido adiposo y en la influencia de la cirugía bariátrica sobre el metabolismo humano.


    Ruth Gutierrez-Aguilar
    Hospital Infantil de México “Federico Gómez” / Facultad de Medicina, UNAM.


    Realizó una estancia postdoctoral en el Instituto de Enfermedades Metabólicas de la Universidad de Cincinnati, Estados Unidos. Es doctora en Genética Humana en Obesidad y Diabetes tipo 2 en la Universidad de Lille 2 en Francia. Estudió la maestría de Ciencias Bioquímicas en la Facultad de Química de la UNAM, obteniendo la Medalla Alfonso Caso, donde también estudió la licenciatura de Química en Alimentos.

    Es parte de la Unidad Periférica de la Facultad de Medicina de la UNAM ubicada en el Hospital Infantil de México “Federico Gómez” y es responsable del Laboratorio de Enfermedades Metabólicas: Obesidad y Diabetes. Forma parte del Sistema Nacional de Investigadores, nivel 1 y ha publicado 22 artículos con más de 700 citas. Sus líneas de investigación incluyen la descripción de la función de nuevos genes asociados a la obesidad, la metabolómica de la obesidad y la influencia de ciertos nutrimentos/medicamentos sobre la fisiología y metabolismo animal.

    Actualizado hasta septiembre, 2017.


    Frigolet, Maria E. y Gutiérrez-Aguilar, Ruth (2017). “Ciencias “ómicas”, ¿cómo ayudan a las ciencias de la salud?”, en Revista Digital Universitaria (RDU), vol. 18, núm. 7, septiembre-octubre. DOI: <http://doi.org/10.22201/codeic.16076079e.2017.v18n7.a3>.
    Facelet Title

    Resumen

      La ciencia de datos es una disciplina emergente y de gran pertinencia para todas las organizaciones que deseen codificar el valor oculto e intangible de sus datos. Hoy más que nunca estamos más conectados con personas y dispositivos, tenemos acceso a más redes y servicios, y sin duda consumimos y producimos mayores cantidades de datos e información. Por lo que requerimos contar con las habilidades, conocimientos, experiencias y técnicas de los científicos de datos para procesar, analizar y visualizar de formas más inteligentes los datos en información, promoviendo así, más y mejores conocimientos de nuestra realidad en sus contextos. En este artículo se explican las principales áreas en las que desarrolla un científico de datos (Big Data, minería y visualización de datos) y las intersecciones entre éstas; se incluyen ejemplos de proyectos desarrollados por científicos de datos y del gran valor que han sabido codificar. Además, se presenta una interpretación de los elementos que constituyen al científico de datos. Palabras clave: científico de datos + ciencia de datos + Big Data + minería de datos + visualización de datos.  

    Data scientist: encoding the hidden and intangible value of the data

    Data science is an emerging discipline of great relevance to all companies that wishing to encode the hidden and intangible value of data. Today more than ever we are connected to more people and devices, we have access to more networks and services, and not there are doubt that we consume and produce greater amounts of data and information. So we require the skills, knowledge, experiences and techniques of data scientists to process, analyze and visualize the data toward information in smarter ways, promoting more and better knowledge of their reality in their contexts. This article explains the main areas in which a data scientist develops (Big data, data mining and data visualization) and the intersections between these, including examples of projects developed by data scientists and the great value that they have known how to code it. In addition, to present an interpretation of the elements that constitute the scientific data. Keywords: data scientist + data science + Big Data + data mining + data visualization.
     

    Introducción

     
    Las organizaciones deben saber aprovechar al máximo la información y explorar de manera inteligente cómo pueden beneficiarse del análisis de los datos que generan sus usuarios, operaciones, productos o servicios.
    Actualmente todos los que navegamos en Internet somos, en cierta medida y de acuerdo a las proporciones, consumidores y/o productores de datos e información. En éste mismo esquema podemos concebir a las compañías que tienen presencia en Internet en dos grandes grupos, están las que apostaron por la democratización de sus servicios a través de Internet y posibilitaron que los usuarios pasaran de ser sólo consumidores a también ser productores de información y contenidos, entre las más representativas están Google, YouTube, Facebook, Twitter, Instagram, Waze, Airbnb, entre otras tantas. También están las que ofrecen principalmente el servicio de consumo de información y contenidos, como es el caso de Netflix, Amazon, Spotify y YouTube por mencionar algunas. Sin importar de qué compañía se trate, se dieron cuenta que estaban almacenando grandes cúmulos de datos y lejos de verlo como un problema de escalabilidad1 –por sí mismo significa un reto e inversiones millonarias–, identificaron un problema todavía mayor: cómo dotar de significado a los datos que registran los usuarios en sus sistemas, ya sea de manera consciente o inconsciente, y no sólo eso, sino cómo obtener un conjunto procesado y estructurado de datos que posibilitan una mejor comprensión teórica o práctica de la realidad en menor tiempo. Con el registro de la huella digital2 de los usuarios se pueden identificar sus preferencias e intereses, deseos de compra, tendencias y frecuencia de consumo, horarios de interacción, redes sociales, ubicación de conexión, dispositivos utilizados, entre otros tantos identificadores. Las organizaciones deben saber aprovechar al máximo la información y explorar de manera inteligente cómo pueden beneficiarse del análisis de los datos que generan sus usuarios, operaciones, productos o servicios. No hay que olvidar que ahora, más que nunca, el recurso intangible más valioso en nuestros tiempos es el poder de la información y del conocimiento que obtengamos de éste.
     

    Un mundo más conectado

      Estamos en tiempos donde la conexión a múltiples sistemas de información es innegable, cada vez nos conectamos a más servicios y somos más dependientes de éstos. El paradigma ha cambiado en pocos años, tal como lo advierten Hilbert y Lopez (2011), hemos pasado de ser analógicos a ser digitales, lo que ha propiciado que estemos conectados desde diferentes dispositivos, a toda hora y desde cualquier lugar. Como resultado vivimos en un mundo cada vez más conectado, donde la inmediatez de la información se ha convertido en una necesidad de primer orden para hacer negocios, establecer relaciones sociales, consumir contenidos multimedia e incluso, estudiar en modalidades no tradicionales. La siguiente infografía hace un recuento del crecimiento que han tenido algunas de las principales aplicaciones y servicios en Internet en los tres últimos años. Nos ayuda a tener un referente de la magnitud de datos que llegan a manejar estas grandes compañías, por ejemplo: en 2016, YouTube reporta que en su plataforma cargan 500 horas de vídeo cada 60 segundos, por lo que al término del año suman 262.8 millones de horas de vídeo, es decir, para poder ver todo el contenido cargado en un año en YouTube se requerirían 30 000 años. Y los datos siguen creciendo año tras año.3
    ¿Qué sucede en línea cada 60 segundos? Fuente: Smart Insigts. Recuperado de: https://goo.gl/jiaDX2.
      El ingeniero de datos en Facebook, Paul Butler (2010) interpretó muy bien el refrán “una imagen vale más que mil palabras”, ya que a finales del 2010 desarrolló el ejemplo más claro que tenemos hasta el momento sobre la visualización de un mundo más conectado. Butler tomó una muestra de 10 millones de pares de amigos en Facebook y los combinó con sus datos de ubicación (latitud y longitud), generando así la siguiente visualización de datos:
    Interconexión de Facebook en el mundo. Fuente: http://fbmap.bitaesthetics.com/.
      En el artículo “40 maps that explain the internet” de Timothy B. Lee (2014), publicado en el sitio Vox, podrán consultar diferentes mapas e información sobre la evolución y conexión que ha tenido Internet desde sus inicios.
     

    El valor subestimado de los datos

      Las compañías como Google, Facebook y Twitter gastan increíbles cantidades de dinero para mantener sus sistemas, sin embargo, los usuarios finales no son quienes pagan directamente esos gastos, en lugar de ello proveen contenido a la vez que son objeto de ambiciosas campañas publicitarias, lo que significa que otras compañías están pagando los costos de infraestructura a cambio de obtener datos de los usuarios (Van der Aalst, 2014). Para Twitter existen aplicaciones web donde se calcula el valor que tiene una cuenta, lo cual es un estimado con base al número de seguidores que tengas, la cantidad de personas que te siguen, los tweets que escribes y la velocidad con la que ganas seguidores. Por ejemplo, al hacer la prueba en los sitios twalue.com y tweetvalue.com reportaron que mi cuenta en Twitter (@jgmorenos) está valuada en $18.47 y $44 dólares, respectivamente. Recientemente el analista Cakmak (2017), analizó el valor que tiene para Twitter la cuenta de Donald Trump (37.4 millones de seguidores con más de 35 mil Tweets) y la calculó en 2 mil millones de dólares. Hay que considerar que estos valores son estimaciones y habrá que tomarlos con reserva, pero al menos son una invitación para reflexionar y no subestimar el valor que tienen los datos. Son varios los casos de éxito en donde las compañías se han beneficiado por codificar el valor oculto que tienen sus datos, para así mejorar sus productos y servicios, principalmente. Por ejemplo, Netflix ha sabido utilizar bien sus datos, pues tiene como objetivo principal: “ayudar a sus suscriptores a encontrar el contenido que realmente disfrutan, maximizando así su satisfacción y retención” (Elahi, 2015, p. 4). Desde sus inicios en 1997, con el servicio de renta y envío de DVD por correo postal, le dio una gran importancia a los datos de sus usuarios y en 2000 comenzó a desarrollar lo que sería su primer algoritmo (Cinematch) para crear un sistema que permitiera recomendar contenido de alto interés para cada uno de sus suscriptores. En el 2006, Netflix abrió su algoritmo a la comunidad científica y ofreció una recompensa de 1 millón de dólares para quién(es) lograran mejorar en un 10% su capacidad predictora, tuvieron que pasar tres años para que el grupo BellKor’s Pragmatic Chaos logrará resolverlo. En 2007 comenzó con su servicio de descarga y reproducción (streaming) de películas y series, y después de seis años lograron recopilar suficientes datos para predecir con seguridad el éxito de su primera producción original “House of Cards”. Éste es un claro ejemplo de cómo ser exitosos codificando datos y lograr que una serie obtenga alto interés de parte de los usuarios. El sitio statista.com reportó que en el segundo cuatrimestre de 2017 Netflix tiene 103.9 millones de suscriptores a nivel mundial, de los cuales procesa en promedio 695 mil millones de eventos por día, es decir, una base de datos de 1.8 Petabytes diarios.4 Algunos de los eventos registrados por Netflix son:
    • ¿Desde dónde se conectan?
    • ¿A través de qué dispositivo?
    • ¿En qué horarios se conectan?
    • ¿El tipo de contenido (película, serie) varia con el dispositivo?
    • ¿Ven los créditos?
    • ¿Cuánto tardan en ver el contenido?
    • ¿Cuáles son sus actores y directores favoritos?
    • ¿Qué y cómo califican?
    • ¿Qué buscan?
    • Etcétera.
    Sin una gran cantidad de datos, no hubiera sido posible que Netflix siguiera entrenando sus sistemas de recomendación. Se necesita contar con una gran serie de datos históricos para poder analizar todas las posibles combinaciones, y así identificar patrones y tendencias que permitan tener algoritmos más robustos al momento de hacer las recomendaciones a sus suscriptores. Y tal como la misma compañía advierte “alrededor del 75% de la visualización en Netflix es impulsada por el algoritmo de recomendación” (Vanderbilt, 2013).
     

    Científico de datos

      Imagen: OpenClipart-Vectors. El considerado padre del “management”, Peter Drucker (2004), reconoció que la sociedad postcapitalista es una sociedad basada en el conocimiento, donde el centro de la producción de la riqueza es el saber y no el capital. Los protagonistas claves en esta economía del conocimiento serán los “trabajadores del conocimiento”, es decir, los que posean las capacidades, las habilidades, el pensamiento creativo y la tecnología para procesar, analizar y visualizar las grandes bases de datos. Los “trabajadores del conocimiento” que menciona Drucker, son los que ahora ya tienen un perfil más claro y se les conoce como científicos de datos, en ellos recae la responsabilidad de entender en su máxima expresión los datos y sus relaciones, con el objetivo de tomar decisiones más informadas a la vez que mejoran los productos y servicios de las organizaciones. Davenport y Patil en su artículo “Data Scientist: The sexiest job of the 21st century” (2012), definieron por primera vez el concepto de científico de datos y con ello generaron una gran revolución. De acuerdo con las estadísticas obtenidas de scholar.google.com, el artículo ha sido citado 568 veces y se han producido 15 versiones diferentes. Además de definir quién es un científico de datos, presentan un decálogo para encontrar el científico de datos correcto, explican cuáles son los intereses del profesional y de los cuidados que deberán tener las empresas para conservarlos. En términos generales, el científico de datos combina estadística, matemáticas, programación y solución de problemas, con la captura datos de forma ingeniosa y la capacidad de mirar las cosas de manera diferente (encontrar patrones), además de hacer las actividades propias de limpieza, preparación e integración de datos (Monnapa, 2017). De acuerdo con la encuesta que realizó la compañía Crowd Flower (2017) a 179 científicos de datos seleccionados en todo el mundo, identificó la distribución de las actividades que les toma mayor tiempo en su quehacer, las cuales se distribuyen de la siguiente manera:
    • 51% colectar, etiquetar, limpiar y organizar los datos.
    • 19% construir y modelar los datos.
    • 10% el modelado de datos para patrones.
    • 9% refinar algoritmos.
    • 8% otras actividades.
    Entre las actividades que más disfrutan, están: construir y modelar los datos, aplicar minería de datos para encontrar patrones y el refinar algoritmos. Entre las que menos gustan, están: limpiar y organizar datos, etiquetarlos y colectarlos. El 51% de los encuestados reportó que trabajan con datos no estructurados. Los datos con los que trabajan provienen principalmente de los sistemas internos de las compañías en las que trabajan, seguido de los que colectan de forma manual y, por último, de los conjuntos de datos disponibles públicamente. Son tres las áreas en las que se desarrollan principalmente los científicos de datos:
    • Big Data para procesar datos,
    • Minería de datos para analizar e identificar relaciones ocultas, patrones y tendencias,
    • Visualización de datos para explicar y socializar mejor la información obtenida.
    También existe una amplia gama de técnicas y software especializado que el científico de datos utiliza para desarrollarse en cada una de las áreas, de las cuáles se pueden clasificar por herramientas de extracción, almacenamiento, limpieza, minería, visualización, programación, análisis e integración de datos. En la siguiente figura se presentan las habilidades, los conocimientos y la experiencia que debe poseer el científico de datos, así como una muestra del software especializado y técnicas que existe por sus áreas de desarrollo.
    El científico de datos y su entorno. Fuente: elaboración propia.
      A continuación, se hace una breve descripción de cada una de las áreas e intersecciones que se muestran en la figura, a la vez que se mencionan algunos ejemplos de proyectos que realizan los científicos de datos.

    Big Data

    Los investigadores Cox y Ellsworth (1997) de la Administración Nacional de la Aeronáutica y del Espacio (NASA por sus siglas en inglés), fueron los primeros en utilizar el término Big Data en un artículo científico, en el que señalaron el problema al que se enfrentaban al visualizar y el procesar grandes cantidades datos, así como las limitantes técnicas de las computadoras (gráficos, memorias y almacenamiento) que tenían en esos tiempos. Ha sido un término que, al igual que su nombre, ha tenido una gran aceptación en todas las industrias y son muchas las definiciones que existen al respecto,5 en particular me gusta definir el concepto de Big Data como: el gran cúmulo de datos compuesto por diferentes tipos, estructuras y relaciones de datos, que a su vez tienen veloces tasas de generación y dispersión, y el procesarlos con tecnologías convencionales para su posterior análisis es parte del problema (Big Problem). De acuerdo con Van der Aalst (2014), utiliza el término Internet of Events (IoE) para referir a todos los datos disponibles en Internet. Y los clasifica de la siguiente manera:
    • Internet of the Content (IoC). Es toda la información creada por los seres humanos para aumentar el conocimiento sobre temas particulares. Incluye páginas web tradicionales, artículos, enciclopedias como Wikipedia, YouTube, libros electrónicos, noticias, etcétera.
    • Internet of the People (IoP). Son todos los datos relacionados con la interacción social. Es decir, correo electrónico, Facebook, Twitter, foros, LinkedIn, etcétera.
    • Internet of the Things (IoT). Son todos los objetos físicos conectados a la red. Son todas las cosas que tienen una identificación única y una presencia en una estructura similar a Internet. Las cosas pueden tener una conexión a Internet o estar etiquetados usando identificación por radio frecuencia (RFID por sus siglas en inglés), proximidad a campos de comunicación (NFC por sus siglas en inglés), etcétera.
    • Internet of the Locations (IoL). Refiere a todos los datos que tienen una dimensión espacial. Con la adopción de dispositivos móviles (por ejemplo, teléfonos inteligentes) cada vez más eventos tienen atributos geoespaciales.
    Es importante contar con este marco de referencia, ya que es una buena forma para clasificar la generación del Big Data por tipos de eventos.

    Minería de datos

    En términos sumamente prácticos la minería de datos la podemos definir como a la extracción de conocimientos de grandes cantidades de datos. Han y Kamber (2006), hacen una interesante crítica al concepto de minería de datos: “la extracción de oro de las rocas o la arena se conoce como minería de oro en lugar de minería de roca o arena. Por lo tanto, la minería de datos debería haber sido más apropiadamente llamada minería del conocimiento a partir de datos. Sin embargo, la minería es un término vívido que caracteriza al proceso de encontrar un pequeño conjunto de preciosas pepitas en una gran cantidad de materia prima” (p. 5).
    En términos sumamente prácticos la minería de datos la podemos definir como a la extracción de conocimientos de grandes cantidades de datos.
    La minería de datos tiene dos referentes principales. Al primero se le conoce como el proceso de descubrimiento de conocimiento en bases de datos (mejor conocido por sus siglas en inglés, KDD), que fue promovido en 1989 por iniciativa de Shapiro y Smyth (1996) y está definido por cinco etapas (selección, pre-procesamiento, transformación, minería de datos e interpretación/evaluación). El segundo es el proceso estándar de la industria para la minería de datos (mejor conocido por sus siglas en inglés, CRISP-DM), el cual fue concebido en 1996 y define seis fases en su proceso (comprensión del negocio, comprensión de datos, preparación de datos, modelado, evaluación e implementación) (Wirth y Hipp, 2000). La minería de datos en principio trabaja sobre todo tipo de datos. Los estructurados se refieren a las bases de datos relacionales (filas y columnas claramente identificadas); los semiestructurados son los que tienen un tipo de estructura implícita, pero no como para ser automatizada como la estructurada (datos espaciales, temporales y textuales); los no estructurados son los que principalmente provienen de sitios en Internet y son del tipo multimedia (imágenes, audio y videos). Los dos últimos se identifican con la minería de textos y la minería web, respectivamente. Entre las principales técnicas que se utilizan en la minería de datos, están: regresión lineal, estimación de densidad, reconocimiento de patrones, series de tiempo, árboles de decisión, estadística Bayesiana, redes neuronales, aprendizaje supervisado y no supervisado, k vecinos más próximos (K-NN), sistemas de recomendación, modelos predictivos, teoría de juegos, aprendizaje profundo, entre otros más. Para mayor información de cada una de las técnicas, se sugiere revisar a Granville (2016).

    Visualización de datos

    La visualización de datos es considerada por algunos como una ciencia y hay quienes la clasifican como un arte, cuando en realidad es una combinación de ambas. Sus principales precursores justo provienen de las ciencias exactas, que han tenido la necesidad de recurrir al campo de la creatividad y del arte, con el propósito de representar con fines estéticos algún aspecto de la realidad. Imagen: mcmurryjulie. La visualización de datos sólo tendrá éxito en la medida que nuestros ojos codifiquen la información para poder discernirla y nuestros cerebros la pueden entender. El objetivo es traducir de maneras fáciles, eficientes, precisas y decodificadas la información abstracta en representaciones visuales significativas (Few, 2013). La visualización de datos ayuda al usuario a examinar una gran cantidad de datos e identificar patrones o tendencias con la ayuda de gráficas o representaciones. Una sola gráfica puede codificar mucha más información que la que se puede presentar en varias hojas de texto (Pujari, 2001, p. 48). La visualización de datos que ahora conocemos ha sido desarrollada a lo largo de la humanidad, siempre ha existido la necesidad de abstraer y comunicar información. Desde siglo II d. C. se han organizado los datos en tablas (columnas y filas), pero la idea de representar gráficamente la información cuantitativa surgió hasta el siglo XVII, cuando el filósofo y matemático francés René Descartes desarrolló un sistema de coordenadas bidimensional para mostrar valores. A finales del siglo XVIII, el ingeniero y economista William Playfair encontró el potencial de los gráficos para la comunicación de datos cuantitativos, definió muchos de los gráficos que se utilizan actualmente (barras y líneas en función del tiempo), incluso inventó el gráfico circular (pastel). Cabe señalar que este tipo de gráfico ha sido objeto de muchas críticas por parte de los especialistas en el área de visualización de datos y percepción. Por ejemplo, Few (2013) ha demostrado que es ineficaz, ya que codifica los valores como atributos visuales (áreas y ángulos), lo que impide percibir y comparar fácilmente. El trabajo del cartógrafo Jacques Bertin fue fundamental, pues descubrió que la percepción visual opera según reglas que se pueden seguir para expresar visualmente la información de manera intuitiva, clara, precisa y eficiente. El profesor de estadística en Princeton, John W. Tukey,6 dio forma a un nuevo enfoque estadístico llamado análisis exploratorio de datos, y fue quien realmente introdujo el poder de la visualización de datos como un medio para explorar y dar sentido a los datos cuantitativos. El estadístico y artista Edward R. Tufte publicó en 1983 el libro The Visual Display of Quantitative Information, mismo que revolucionó las formas eficaces de mostrar los datos visualmente. El matemático William S. Cleveland con la publicación de sus libros The Elements of Graphing Data y Visualizing Data hizo grandes aportaciones en cuanto a las técnicas que utilizan los estadísticos para la visualización de datos. En 1999, los investigadores Stuart Card, Jock Mackinlay y Ben Shneiderman acuñaron una nueva especialidad “visualización de la información” y publicaron el libro Information Visualization, Using Vision to Think, en el que recopilan mucho del trabajo académico que se había realizado hasta ese momento, y a nuestros días es uno de los principales referentes de la visualización de datos e información (Few, 2013). Actualmente el término visualización de datos es el más aceptado entre la comunidad científica de datos,7 pero en lo particular prefiero el término visualización de la información, ya que las actuales visualizaciones se hacen en al menos dos dimensiones con múltiples atributos y relaciones, por lo que no podemos estar hablando de visualización de datos, ya que de ser así se limitaría a mostrar numerosos elementos en una sola dimensión.

    Relación 1. Big Data y minería de datos

    Debe existir una estrecha relación entre ambas áreas, ya que los algoritmos y modelos de entrenamiento y prueba desarrollados por el área de minería da datos deberán ser implementados en los grandes cúmulos de datos (Big Data), sobre todo cuando se tiene una amplia serie de datos históricos. Un ejemplo de lo anterior, es el artículo: “Applying Data Mining Techniques to Identify Success Factors in Students Enrolled in Distance Learning: A Case Study” (Moreno y Stephens, 2015). El artículo analiza, con técnicas de minería de datos, los perfiles de ingreso, antecedentes académicos y matrícula de los alumnos del Sistema Universidad Abierta y Educación a Distancia (SUAyED), de la Universidad Nacional Autónoma de México (UNAM), con el propósito de determinar los factores clave que impulsan el éxito y el fracaso de los alumnos, así como la creación de su respectivo modelo predictivo usando el algoritmo de clasificación Naive Bayes.
    Imagen: geralt.

    Relación 2. Big Data y visualización de datos

    La relación entre el área de Big Data y la visualización de datos es la que busca definir la mejor interpretación y visualización de grandes cúmulos de datos y sus relaciones, de forma que al usuario le resulte más fácil entenderlos. En la mayoría de los casos se queda en la descripción de los datos en diferentes dimensiones y en algunos, incluyen interactividad a sus relaciones. A continuación, se presenta una muestra de ejemplos:
    • Referencias cruzadas de la biblia (Harrison, 2007). Es un proyecto en el que se analiza, en la parte inferior de la visualización, todos los capítulos de la biblia en un gráfico de barras, los cuales alternan entre los colores blanco y gris claro. La longitud de cada barra denota el número de versos en el capítulo. Cada una de las 63 779 referencias encontradas en la biblia está representada por un solo arco y el color corresponde a la distancia entre los dos capítulos, creando un efecto similar al arco iris.
    • Temperaturas del clima (Carli, 2013). Al superponer datos meteorológicos históricos, ésta visualización muestra cómo la temperatura evoluciona durante el año en diferentes ciudades. Al establecer una banda de zona de confort, es posible ver cuando la temperatura está por encima, dentro o debajo de la zona; tanto a lo largo del año como a través de los días de cada temporada. Es un claro ejemplo de una visualización interactiva.
    • Población mundial (Carli, 2014). Es un proyecto de visualización interactiva realizado para el Banco Mundial donde cada usuario al digitar su fecha de nacimiento puede compararse con los datos de la población mundial (7.2 mil millones de personas al 2014), y saber cuántas personas nacieron el mismo día y a la misma hora. Al final presenta de manera ordenada la posición por la edad que tenga el usuario y la compara con la población mundial.

    Relación 3. Minería de datos y visualización de datos

    La minería y la visualización de datos también pueden trabajar en una dimensión donde no necesariamente se procesen un gran cúmulo de datos (Big Data), se pueden implementar proyectos para una cantidad mesurada de datos, donde se apliquen algoritmos y con éstos obtengamos un producto. A continuación, se muestran algunos ejemplos:
    • FLEET: Distribución e Inventario de Unidades (Moreno, 2017a). Es un proyecto realizado para una empresa especializada al arrendamiento de vehículos, en el que se analiza el número de unidades que ha comprado por estado, municipio y concesionaria (agencia). Además, la visualización permite seleccionar los modelos de los vehículos, por segmento y rango de precios. Cabe señalar que todos los datos están relacionados y permiten la interacción.
    • Gasolid: Identificador de Gasolineras en México (Moreno, 2017b). Es un proyecto que permite medir el nivel de confianza en las gasolineras mexicanas. Para lograrlo, se relacionaron bases de datos de la Procuraduría Federal del Consumidor (PROFECO) y Petróleos Mexicanos (PEMEX), además de correr procesos de geolocalización para identificar las direcciones de las estaciones de servicio. De acuerdo a la selección aplicada (estado, municipio y código de la estación de servicio), es posible ubicar a las gasolineras e identificar en nivel de confianza en éstas, así como el historial que ha tenido en los últimos cuatro años sobre el número de mangueras verificadas e inmovilizadas.

    Relación 1, 2 y 3. Big Data, minería y visualización de datos

    El científico de datos puede interactuar en cualquiera de las tres áreas (Big Data, minería y visualización de datos) y en sus respectivas intersecciones (1, 2 y 3), siempre y cuando posea las habilidades, conocimientos, técnicas y experiencia para lograr dar respuesta a las necesidades de las organizaciones en términos de codificar mejor sus datos. Drinking Data (Ratti, 2014). Es un proyecto que integra todas las áreas de la ciencia de datos y sus intersecciones, fue desarrollado por investigadores del Instituto Tecnológico de Massachusetts (MIT por sus siglas en inglés). La pregunta que detonó el desarrollo del proyecto fue: ¿podemos encontrar algún valor en la enorme cantidad de información registrada por las máquinas dispensadoras de refrescos enlatados? Considerando que en los Estados Unidos existen 15 000 máquinas dispensadoras y que cada una puede despachar 150 latas únicas. En cada transacción se registra una cadena de datos: hora, ubicación y preferencias del usuario (Big Data). Con éstos datos se visualizaron patrones de consumo total y se encontraron altos consumos de bebidas los fines de semana y lo contrario, durante los días entre semana (Visualización de datos). Con toda la explotación de los datos pudieron entender mejor lo que sucede: el analizar los dispensadores individualmente mostró características inesperadas (Minería de datos).
     

    Conclusiones

      El inicio de la era Web 2.0 fue un momento crucial para las organizaciones que supieron beneficiarse de los datos que dejaban registrados los usuarios en sus plataformas (huella digital), por lo que hubo un incremento en la oferta de aplicaciones web –y sus respectivas versiones para teléfonos inteligentes–, ya que reconocieron el valor oculto e intangible que podían codificar de los datos de sus usuarios, tan sólo hay que recordar: “si no pagas por el producto, tú eres el producto” (Van der Aalst, 2014, p. 19). Imagen: JuralMin. El sitio statista.com8 reportó, a marzo del 2017, que Google Play y Apple Store, administran 2.8 y 2.2 millones de aplicaciones, respectivamente. Por lo anterior, es que los científicos de datos se han convertido en especialistas de gran importancia para cualquier industria, ya que ofrecen servicios y productos hechos a la medida para cada uno de sus usuarios. La advertencia es: las compañías que no utilicen sus datos inteligentemente no serán competitivas y en el peor de los casos, no sobrevivirán. Los científicos de datos se pueden especializar en cualquiera de las tres principales áreas (Big Data, minería de datos y visualización de datos), lo que ha propiciado que todas las industrias tengan una alta demanda por especialistas en estas áreas. IBM (2017) recientemente reportó que para el 2020 el número de empleos para todos los profesionales de datos en EUA aumentará en 364 mil, alcanzando un total de 2.7 millones de empleos. El científico de datos viene a dar solución a las preguntas, ¿cómo almacenar los datos?, ¿cómo analizar y obtener valor de los datos? y ¿cómo visualizar y comunicar lo que nos quieren decir los datos? Todo lo anterior en términos de eficacia, eficiencia y veracidad. Por otro lado, Van der Aalst (2014), sugiere que el científico de datos responderá a las preguntas ¿qué paso?, ¿por qué paso?, ¿qué sucederá?, ¿qué es lo mejor que puede pasar?, las cuales, en mi opinión, sólo corresponden a el área de la minería de datos. El Big Data ayuda a dar solución al gran problema que existe respecto al volumen, la variabilidad y la velocidad de los datos. El propósito de la minería de datos es pasar del volumen de datos hacia la información, para después el conocimiento y, por último, llegar al valor de la decisión. Concluyo que debemos tener mucho cuidado con las diferentes visualizaciones de datos que ofrecen los diferentes softwares especializados, ya que existe el riesgo de hacer representaciones ineficaces de la información e incluso, nos podemos dejar llevar por gráficos muy elaborados presentados en diferentes dimensiones y que a simple vista parecen ser muy atractivos, cuando en la realidad dejan de lado la exploración y comunicación útil de la información y sólo presentan una estética superficial. La visualización no tiene límites, se puede representar cualquier tipo de dato con sus atributos, elementos y relaciones, todo dependerá de la creatividad para abstraer dicha información y presentarla de formas más inteligentes.
     
    1 Para mayor información sobre la propiedad de escalabilidad de los sistemas, revisar: https://es.wikipedia.org/wiki/Escalabilidad.
    2 Para mayor información sobre el concepto de huella digital, revisar: https://www.internetsociety.org/es/tu-huella-digital.
    3 Para mayor información sobre lo que actualmente está sucediendo en Internet, se recomienda visitar el sitio: http://www.internetlivestats.com/.
    4 Cálculos realizado con base a lo publicado en: https://goo.gl/eFhQQa.
    5 La escuela de información de Berkeley, reunió 40 definiciones provenientes de los líderes en las diferentes industrias, ver en: https://goo.gl/P69x3v.
    6 Considerado como uno de los investigadores más importantes de la estadística moderna.
    7 Comparativo entre “data visualization” e “information visualization”, en Google Trends: https://goo.gl/1xoNHi.
    8 Número de aplicaciones para teléfonos inteligentes, ver en: https://goo.gl/tCnPXW.
     

    Bibliografía

     
    Butler, P. (2010). Visualizing Friendships. Facebook: Facebook Enginering. Recuperado de <https://goo.gl/AaHLN>. Cakmak, J. (2017). What Is Trump Worth to Twitter? One Analyst Estimates $2 Billion. Fortune.com. Recuperado de <https://goo.gl/AdjDQz>. Carli, L. (2013). Weather Temperatures. Vis.design. Recuperado de <https://goo.gl/sgDNsS>. Carli, L. (2014). The World Population Project. Vis.design. Recuperado de <https://goo.gl/jSgpEx>. Cox, M. y Ellswort, D. (1997). Managing Big Data for Scientific Visualization. ResearchGate.net. Recuperado de <https://goo.gl/DLj8sd>. Crowd Flower (2017). Data Scientist Report 2017. Crowdflower.com. Recuperado de <https://goo.gl/4XsUKD>. Davenport, T. H. y Patil, D. J. (2012). Data Scientist: The Sexiest Job of the 21st Century. Harvard Business Review, 90 (10). Recuperado de <https://goo.gl/65IMw1>. Drucker, P. F. (2004). La sociedad postcapitalista. Medellín, Colombia: Norma Elahi, E. (2015). Spark and GraphX in the Netflix Recommender System. SlideShare. Recuperado de <https://goo.gl/LUQqx4>. Few, S. (2013). Data Visualization for Human Perception. En M. Soegaard (2nd Ed.), The Encyclopedia of Human-Computer Interaction. Aarhus, Denmark: The Interaction Design Foundation. Recuperado de: <https://goo.gl/7uYrrp>. Granville, V. (2016). 40 Techniques Used by Data Scientists. datasciencecentral.com. Recuperado de <https://goo.gl/UmCb9M>. Han, J. y Kamber, M. (2006). Data Mining Concepts and Techniques. Recuperado de <https://goo.gl/jmXNua>. Harrison, C. (2007). Bible Cross-References. Chrisharrison.net. Recuperado de <https://goo.gl/21DsY>. Hilbert, M. y Lopez, P. (2011). The world’s technological capacity to store, communicate, and compute information. Science, 332(6025), 60–65. IBM (2017). The Cuant Crunch: How the Demand for Data Science Skills is Disrupting the Job Market. Ibm.com. Recuperado de <https://goo.gl/yJ6GtL>. Monnappa, A. (2017). Data Science vs. Big Data vs. Data Analytics. Simplilearn.com. Recuperado de <https://goo.gl/EAYQRc>. Moreno, G. S., Stephens, C. R. (2015). Applying Data Mining Techniques to Identify Success Factors in Students Enrolled in Distance Learning: A Case Study. Advances in Artificial Intelligence and Its Applications: Springer. Recuperado de <https://goo.gl/zFLHtJ>. Moreno, G. S. (2017a). FLEET: Distribución e Inventario de Unidades. Publictableau.com. Recuperado de <https://goo.gl/Db5eXr>. Moreno, G. S. (2017b). Gasolid: Identificador de Gasolineras en México. Publictableau.com. Recuperado de <https://goo.gl/26iX9C>. Pujari, A. K. (2001). Data Mining Techniques. Hyderabad, India: Universities Press. Ratti, C. (2014). Drinking Data. senseable.mit.edu: MIT Senseable City Lab. Recuperado de <https://goo.gl/QkJ4iw>. Shapiro, G. P., Smyth P. (1996). The KDD Process for Extracting Useful Knowledge from Volumes of Data. Communications of the ACM. Volumen (39, 11), 27-34. Recuperado de <https://goo.gl/L67PYa>. Van der Aalst, W. M. P. (2014). Data Scientist: The Engineer of the Future. Enterprise Interoperability, volume 7, 13-28. Springer. Recuperado de <https://goo.gl/yiaE9F>. Vanderbilt, T. (2013). The Science Behind the Netflix Algorithms That Decide What You’ll Watch Next. Wired. Recuperado de <https://goo.gl/aqJqA7>. Wirth, R., Hipp, J. (2000). CRISP-DM: Towards a Standard Process Model for Data Mining. ResearchGate.com. Recuperado de <https://goo.gl/XevGEB>.

    COMENTARIOS

    José Gerardo Moreno Salinas
    Maestro en Ingeniería de Sistemas por la Universidad Nacional Autónoma de México (UNAM) e Ingeniero en Sistemas Computacionales por el Instituto Tecnológico de Ciudad Guzmán (ITCG). Cabe señalar que mientras estudió la maestría fue seleccionado para representar a nivel nacional a los alumnos del posgrado de Ingeniería en la quinta edición de la Cumbre de Negocios; su proyecto de tesis de licenciatura recibió el reconocimiento de servicio a la comunidad por la Universidad del Norte de Texas. Ha cursado diplomados sobre tecnologías de la información en la UNAM y cursos de actualización relacionados con la ciencia de datos. Se certificó en el manejo del software Tableau en Philadelphia. Es experto en el manejo de técnicas cuantitativas para la toma de decisiones, matemáticas, estadística y ciencia de datos; el diseño de instrumentos de evaluación y la puesta en línea de bases de datos interactivas. Al respecto, ha publicado en revistas de difusión y divulgación de la ciencia, así como en revistas especializadas y capítulos de libros. Ver más…

    Actualizado hasta septiembre, 2017.

     
    Moreno Salinas, José Gerardo (2017). “Científico de datos: codificando el valor oculto e intangible de los datos ”, en Revista Digital Universitaria (RDU), vol. 18, núm. 7, septiembre-octubre. DOI: <http://doi.org/10.22201/codeic.16076079e.2017.v18n7.a2>.  
    Show Buttons
    Hide Buttons

    Revista Digital Universitaria Publicación bimestral Vol. 18, Núm. 6julio-agosto 2017 ISSN: 1607 - 6079