En un mundo dominado por dispositivos cada vez más pequeños y portátiles, existe una clase de máquinas que desafía la lógica de lo compacto: los ... supercomputadores. Estas bestias tecnológicas, capaces de realizar billones de cálculos por segundo, son los caballos de batalla detrás de avances científicos que van desde la predicción del clima hasta el diseño de medicamentos.
Publicidad
La forma más sencilla de hacerse una idea de lo que es un supercomputador es imaginar miles de ordenadores domésticos, despojados de todo lo que no es imprescindible, con la excepción de la unidad de procesamiento central (CPU), la de gráficos (GPU) y la memoria (RAM), trabajando al unísono para resolver problemas que requieren una potencia de cálculo colosal, como las simulaciones del clima, el universo o la formación de proteínas. En los últimos años, son una pieza fundamental de la explosión de los sistemas de inteligencia artificial más avanzados. Por ellos pasará la redefinición de los límites del conocimiento humano.
En términos generales, un supercomputador está compuesto de cuatro elementos fundamentales. El primero de ellos es el sistema de nodos de cálculo, que son grupos de CPUs y GPUs que realizan trabajos de forma paralela y distribuida. El segundo, las redes ultrarrápidas que permiten la conexión entre los diferentes nodos. El tercero, el sistema de enfriamiento, imprescindible para evitar sobrecalentar las piezas, y que no solo funciona con corrientes de aire, sino también, por ejemplo, con líquidos refrigerantes. Finalmente, el almacenamiento, que suele ser de muchos petabytes de datos; un petabyte equivale a un millón de gigabytes.
En los últimos años, y con el ascenso de los grandes modelos de lenguaje (LLM) que alimentan a empresas como OpenAI o Anthropic, la generación de energía para estos gigantescos centros de datos se ha vuelto un problema significativo. Tanto que hay empresas que ya planean construir pequeñas centrales nucleares en miniatura para alimentarlos. Un supercomputador de alto rendimiento contemporáneo puede consumir en un año lo mismo que un municipio de unos 20.000 habitantes; si se quisiera generar esa energía de manera renovable, por ejemplo, harían falta hasta cuatro hectáreas de paneles solares. Solo los sistemas de enfriamiento requieren tanta alimentación como un gran hospital. También preocupan las emisiones de dióxido de carbono a la atmósfera, equivalentes a las de decenas de miles de vehículos cada año. Según algunas estimaciones basadas en cifras promediadas, el consumo conjunto de los 500 superordenadores más potentes del mundo es muy similar al de países pequeños como Chipre o Luxemburgo.
Publicidad
Como la de internet, la historia de los supercomputadores es indivisible de la de la guerra. En 1964, el primero de ellos, llamado CDC 6600, fue dedicado a la resolución de ecuaciones nucleares y el modelo de sistemas militares. No sería hasta mucho más tarde que estas infraestructuras se dedicarían a la resolución de problemas civiles, como la secuenciación del genoma o la exploración del espacio exterior.
En la actualidad, algunos de los usos más comunes de la también llamada computación de alto rendimiento (HPC, por sus siglas en inglés) tienen que ver, por ejemplo, con la creación y testeo de modelos que predicen el impacto del calentamiento global y el cambio climático con décadas de antelación; algo que ha permitido, por ejemplo, poner al mundo en alerta sobre la posibilidad de la desaparición del sistema de circulación del Atlántico Norte (AMOC). También tienen significativos usos médicos a través, por ejemplo, de la simulación de proteínas necesarias para desarrollar fármacos para luchar contra enfermedades como el covid o el Alzheimer, y son fundamentales para el diseño de los reactores de fusión nuclear, que podrían ser el próximo gran avance de la humanidad. Finalmente, el entrenamiento de modelos recientes como GPT-4o o DeepSeek sería imposible sin la computación de alto rendimiento.
Publicidad
La historia de la computación de alto rendimiento en la provincia es indisoluble de la de la Universidad de Granada (UGR) y se remonta hasta 1989, cuando la institución adquirió el primer ordenador dedicado exclusivamente a actividades de cálculo intensivo y científicas. Este, llamado Nevada, permitió además que existieran por primera vez los correos electrónicos de la UGR.
Entre mediados de los noventa y principios de siglo, la institución continuó ampliando la capacidad de procesamiento de los equipos y adquirió un nuevo computador, llamado Mulhacén, que fue de nuevo mejorado en 2004 hasta alcanzar los 74 gigaflops, o 74.000 millones de operaciones de punto flotante por segundo.
Publicidad
Poco después, en el año 2007, la universidad daba un alto de calidad y potencia con la adquisición de UGRGrid, que alcanzaba los 4,2 teraflops, o 4,2 billones de operaciones por segundo. Es la primera vez que la UGR estuvo en la lista de los 500 supercomputadores más potentes del mundo; en concreto, ocupó el lugar 467.
Desde entonces, se han continuado las mejoras en los sistemas existentes. En 2013, se adquirió a Fujitsu el sistema Alhambra, los primeros con nodos de procesamiento con tarjetas gráficas, lo que elevó la capacidad de rendimiento hasta los 31,6 teraflops. La cifra se elevó hasta los 40 en 2021 con la implantación del sistema Albaicín.
Suscríbete durante los 3 primeros meses por 1 €
¿Ya eres suscriptor? Inicia sesión
Te puede interesar
La sede del Reina Sofía estará lista a finales del próximo año
El Diario Montañés
Publicidad
Te puede interesar
La sede del Reina Sofía estará lista a finales del próximo año
El Diario Montañés
Utilizamos “cookies” propias y de terceros para elaborar información estadística y mostrarle publicidad, contenidos y servicios personalizados a través del análisis de su navegación.
Si continúa navegando acepta su uso. ¿Permites el uso de tus datos privados de navegación en este sitio web?. Más información y cambio de configuración.