En México se carece de una estrategia para estar en un nivel competitivo en los próximos 10 años en supercomputo. “Estamos ante una circunstancia realmente angustiosa, porque nos estamos rezagando en la capacidad”, a pesar de ser una de las primeras economías de Latinoamérica, puntualizó Mario Miguel Ojeda Ramírez, Director General de la Unidad de Estudios de Posgrado de la Universidad Veracruzana (UV), al impartir la conferencia a conferencia “La estadística y el supercómputo: el futuro que nos espera”.
Sobre la supercomputadora, explicó que es aquella que conecta a muchos procesadores y los hace trabajar conjuntamente, capacidad que le permite hacer millones de operaciones en segundos. Estos centros de supercómputo tiene una semejanza con sus predecesores de antaño: el tamaño descomunal.
En la actualidad, mencionó, hay una lucha en el mundo por tener la supercomputadora más “poderosa y veloz”. De acuerdo con el reciente TOP500 (ranking de las 500 supercomputadoras más poderosas del mundo), China es el país líder con la Tianhe-2, resultado de su vasta inversión en ciencia y tecnología de los últimos años.
Dados los altos costos de mantenimiento (como el su consumo de energía eléctrica), explicó que en el mundo se están generando espacios de supercómputo para que cualquier grupo de investigación lo pueda utilizar, y ahí procesar información de muy diversa índole (genoma humano, clima mundial, Vía Láctea, procesos electorales, entre muchos otros más).
Precisamente, dijo el académico, el Premio Nobel de Química 2013 fue para Martin Karplus, Michael Levitt y Arieh Warshel por el desarrollo de modelos multiescala para sistemas químicos complejos, para lo cual utilizaron una supercomputadora.
“Todos los grandes volúmenes de datos requieren gran potencial de cálculo y esto nos lleva directamente a la supercomputadora”, destacó.
En México hay tres clusters (agrupamiento) de cómputo de alto desempeño: en la Universidad Nacional Autónoma de México; en la Autónoma Metropolitana y en el Instituto Politécnico Nacional. Aunque están bien posicionados a nivel Latinoamérica, no se utilizan de manera colaborativa.
De ahí la importancia de que en el país se implementen políticas de desarrollo del supercómputo, dijo Ojeda Ramírez.
“La captación, almacenamiento y procesamiento de grandes volúmenes de datos se ha convertido en una tarea fundamental para muchas profesiones y disciplinas científicas”, de ahí que los estadistas tienen que estar relacionados con estos temas.
El académico insistió en que se necesitan nuevas competencias para hacer estadística en estos ámbitos tecnológicos, e instó a la comunidad estudiantil presente a pensar que “el supercómputo ya está aquí”.
Ojeda Ramírez participó en el marco del evento académico “Metodología estadista aplicada a la investigación educativa”, durante el cual realizó un recorrido histórico por las computadoras y su paso de lo analógico a lo digital, así como de las redes de comunicación (como la Red Nacional de Impulso a la Banda Ancha de la Corporación Universitaria para el Desarrollo de Internet, que tiene fines de educación, investigación, salud y colaboración académica).