Revista Digital Universitaria
ISSN: 1607 - 6079 Publicación mensual
 
1 de marzo de 2010 Vol.11, No.3
EJEMPLARES DIRECTORIO QUIÉNES SOMOS COLABORA VÍNCULOS MAPA DE SITIO
 
Perspectivas del supercómputo en México
José Luis Gordillo Ruiz
CITA PDF
Introducción Evolución... Las supercomputadoras en los ... Especificidad ... Infraestructura complementaria Conclusiones

Infraestructura complementaria

Los usuarios necesitan una infraestructura complementaria, adecuada a las capacidades de una supercomputadora. En primer término, dispositivos de almacenamiento de largo plazo, en donde puedan almacenarse las decenas de terabytes de datos que puede llegar a producir una sola simulación, así como el equipo necesario para el postprocesamiento y/o visualización de estos datos. Este tipo de equipos debe existir en ambos extremos, tanto cercanos a la supercomputadora como cercanos al usuario, y debe existir una red con la capacidad suficiente. También de extremo a extremo, que permita la trasmisión de datos en tiempos razonables.

Por ejemplo, una de las motivaciones del proyecto de la Delta Metropolitana de Cómputo de Alto Rendimiento es crear una red con la anchura de banda suficiente para permitir el intercambio de datos entre supercomputadoras, y que después evolucione para cubrir otros servicios que involucren el intercambio masivo de datos entre los miembros de las comunidades participantes.

Comunidades

Una vez que se tienen supercomputadoras e infraestructura adecuadas, es imperativo fomentar la adquisición de los conocimientos y las habilidades pertinentes para su aprovechamiento entre las comunidades que van a utilizar la infraestructura, así como crear y consolidar grupos que, en conjunción con los usuarios, generen software, herramientas e interfaces.

Una muestra de lo importante y urgente que es desarrollar el conocimiento necesario para el aprovechamiento de las supercomputadoras futuras, es el esfuerzo Great Lakes Consortium for Petascale Computation (GLCPC), que está asociado al proyecto de supercómputo Blue Waters. El GLCPC tiene como objetivo desarrollar estos conocimientos desde el nivel de preparatoria hasta el posgrado, con el fin de preparar a las nuevas generaciones de investigadores para realizar ciencia e ingeniería con supercómputo de gran escala. Algunos tópicos a los que se les debe prestar particular atención son: arquitecturas de supercomputadoras; compiladores y bibliotecas numéricas y de comunicación; técnicas de escalabilidad; herramientas de depuración, optimización y validación.

El número de usuarios y áreas de aplicación del supercómputo es grande. Por ejemplo, con el equipo KanBalam se han proporcionado recursos de supercómputo a cerca de 300 proyectos en 3 años. Estos proyectos se han clasificado en las áreas de astrofísica, física de altas energías, bioinformática, bioquímica, clima, computación, fluidos, fármacos, física estadística, física nuclear, geociencias, sismología, ciencias de materiales, nanociencias y química cuántica. También se han venido incorporando proyectos multidisciplinarios, enfocados al estudio de fenómenos económicos y epidemiológicos. Si bien en muchas áreas existen comunidades que desarrollan software eficiente para diferentes equipos de supercómputo, el cambio tecnológico que se avecina, con los diferentes niveles de paralelismo, requerirá de la adecuación de este software, o quizá su reelaboración. Además, en estas mismas áreas es común que no exista el software adecuado para todos los tipos de estudios, y existen áreas enteras en donde es necesario desarrollar software, por ejemplo, en los estudios emergentes que en humanidades y ciencias sociales se están llevando a cabo con recursos de supercómputo.

Además del software, debe considerarse que la cantidad de procesos y datos que se generan con el uso de supercomputadoras es sumamente difícil de manejar con las herramientas tradicionales. Esto puede ser un obstáculo para el efectivo apoyo que representa el supercómputo para la generación de conocimiento. Debe proporcionarse herramientas que faciliten el manejo de miles de procesos y sus datos de entrada y salida; postprocesamiento, clasificación y visualización de datos; así como la automatización de la transferencia de datos, la generación de procesos y la conexión de salidas de un proceso a entradas de otros.

Lo anterior es un indicio de la magnitud del esfuerzo que debe hacerse tanto para diseminar el conocimiento sobre las nuevas tecnologías entre estas comunidades, como para crear los grupos de especialistas que los apoyen en el desarrollo de su investigación.



anterior

subir

siguiente

 

D.R. © Dirección General de Servicios de Cómputo Académico-UNAM / Ciudad Universitaria, México D.F.
Se autoriza la reproducción total o parcial de los artículos aquí presentados, siempre y cuando se cite la fuente completa y su dirección electrónica
 
 
Open Journal Systems
E d i t o r i a l

Perspectivas del Supercómputo en México
José Luis Gordillo Ruiz

El impacto del Supercómputo en la química cuántica
Jorge Garza Olguín

El poder del Supercómputo en la Astrofísica Teórica
Alfredo Santillán González y Liliana Hernández-Cervantes

Supercómputo en la física de la materia condensada:dos ejemplos
Luis Antonio Pérez López

Materiales por diseño ¿ficción o realidad?
Chumin Wang, Carlos Ramírez y Vicenta Sánchez

El Supercómputo en 2010
René Luna, Luis Villa y Marco Ramírez

El Mundo de los átomos y las moléculas.
Entrevista con la Dra. María Guadalupe Moreno Armenta

Adrián Estrada Corona

INNOVACIÓN EN TICS
DIVULMEDIA
PRESENCIA UNIVERSITARIA
 
e-journal
Mati
Colecciones Mexicanas