La supercomputación es una forma de computación de alto rendimiento que resuelve o calcula utilizando una computadora potente, una supercomputadora, lo que reduce el tiempo total de resolución.
La tecnología de la supercomputación comprende supercomputadoras, las computadoras más rápidas del mundo. Las supercomputadoras están formadas por interconexiones, sistemas de E/S, memoria y núcleos de procesador.
A diferencia de las computadoras tradicionales, las supercomputadoras utilizan más de una unidad central de procesamiento (CPU). Estas CPU se agrupan en nodos de cálculo, que comprenden un procesador o un grupo de procesadores (multiprocesamiento simétrico (SMP)) y un bloque de memoria. A escala, una supercomputadora puede contener decenas de miles de nodos. Con funcionalidades de comunicación de interconexión, estos nodos pueden colaborar para resolver un problema específico. Los nodos también utilizan interconexiones para comunicarse con sistemas de E/S, como el almacenamiento de datos y las redes.
Un asunto a tener en cuenta es que debido al consumo de energía de las supercomputadoras modernas, los centros de datos requieren sistemas de refrigeración e instalaciones adecuadas para albergarlo todo.
El aprendizaje profundo podría ayudar a los científicos a identificar materiales para fabricar mejores baterías, materiales de construcción más resilientes y semiconductores más eficientes.
Mediante una combinación de técnicas de inteligencia artificial (IA), los investigadores identificarán patrones en la función, cooperación y evolución de las proteínas humanas y los sistemas celulares.
Debido a que las supercomputadoras se utilizan a menudo para ejecutar programas deinteligencia artificial , la supercomputación se ha convertido en sinónimo de IA. Este uso regular se debe a que los programas de IA requieren la informática de alto rendimiento que ofrecen las supercomputadoras. En otras palabras, las supercomputadoras pueden manejar los tipos de cargas de trabajo que normalmente se necesitan para las aplicaciones de IA.
Por ejemplo, IBM construyó las supercomputadoras Summit y Sierra teniendo en cuenta las cargas de trabajo de big data e inteligencia artificial. Estas supercomputadoras nos ayudarán a modelar supernovas, a innovar con nuevos materiales y a explorar el cáncer, la genética y el medio ambiente, utilizando tecnologías que están disponibles para todas las empresas.
La supercomputación se mide en operaciones de punto flotante por segundo (FLOPS). Los petaflops son una medida de la velocidad de procesamiento de una computadora equivalente a mil billones de flops. Y un sistema informático de 1 petaflop puede realizar mil billones (1015) de flops. Desde una perspectiva diferente, las supercomputadoras pueden tener un millón de veces más potencia de procesamiento que la computadora portátil más rápida.
De acuerdo con la lista TOP500 (el enlace se encuentra fuera de ibm.com), la supercomputadora más rápida del mundo es la japonesa Fugaku, que alcanzó una velocidad de 442 petaflops en junio de 2021. Las supercomputadoras de IBM, Summit y Sierra, se ubican en el segundo y tercer lugar, registrando 148,8 y 94,6 petaflops, respectivamente. Summit se encuentra en el Oak Ridge National Laboratory, una instalación del Departamento de Energía de EE. UU. en Tennessee. Sierra se encuentra en el Laboratorio Nacional Lawrence Livermore en California.
Para poner en perspectiva las velocidades actuales, cuando Cray-1 se instaló en el Laboratorio Nacional de Los Alamos en 1976, logró una velocidad de unos 160 megaflops. Un megaflop puede ejecutar un millón (106) de flops.
El término supercomputación se utiliza a veces como sinónimo de otros tipos de informática. Pero otras veces, los sinónimos pueden resultar confusos. Para aclarar algunas similitudes y diferencias entre los tipos de computación, lo que sigue son algunas comparaciones comunes.
Si bien la supercomputación generalmente se refiere al proceso de cálculos complejos y grandes utilizados por las supercomputadoras, la computación de alto rendimiento (HPC) es el uso de múltiples supercomputadoras para procesar cálculos complejos y grandes. Ambos términos se usan a menudo indistintamente.
Las supercomputadoras a veces se denominan computadoras paralelas porque la supercomputación pueden utilizar el procesamiento paralelo. El procesamiento paralelo se da cuando varias CPU trabajan para resolver un solo cálculo en un momento dado. Sin embargo, los escenarios de HPC también utilizan el paralelismo, sin utilizar necesariamente una supercomputadora.
Otra excepción es que las supercomputadoras podrían utilizar otros sistemas de procesadores, como procesadores vectoriales, procesadores escalares o procesadores multihilo.
La computación cuántica es un modelo de computación que aprovecha las leyes de la mecánica cuántica para procesar datos, realizando cálculos basados en probabilidades. Su objetivo es resolver problemas complejos que las supercomputadoras más potentes del mundo no pueden ni podrán resolver nunca.
La supercomputación evolucionó durante muchos años desde que la máquina Colossus se puso en funcionamiento en Bletchley Park en la década de 1940. El Colossus fue la primera computadora digital, electrónica y funcional diseñada por Tommy Flowers, un ingeniero de investigación en telefonía de la Oficina General de Correos (GPO).
El término supercomputadora se empezó a utilizar a principios de la década de 1960, cuando IBM lanzó el IBM 7030 Stretch, y Sperry Rand presentó el UNIVAC LARC, las dos primeras supercomputadoras diseñadas con el objetivo de ser más potentes que las máquinas comerciales más rápidas que existían en ese momento. Los eventos que influyeron en el progreso de la supercomputación comenzaron a fines de la década de 1950, cuando el gobierno de EE. UU. comenzó a financiar regularmente el desarrollo de tecnología informática de vanguardia y alto rendimiento para aplicaciones militares.
Aunque las supercomputadoras se produjeron inicialmente en cantidades limitadas para el gobierno, la tecnología desarrollada llegaría al gran público industrial y comercial. Por ejemplo, dos empresas estadounidenses, Control Data Corporation (CDC) y Cray Research, lideraron la industria de las supercomputadoras comerciales desde mediados de la década de 1960 hasta finales de la década de 1970. El CDC 6600, diseñado por Seymour Cray, se considera la primera supercomputadora comercial exitosa. IBM se convertiría más tarde en un líder de la industria comercial desde la década de 1990 hasta la actualidad.
Las soluciones HPC ayudan a superar los mayores desafíos del mundo combatiendo el cáncer e identificando materiales de última generación.
Para hacer frente a los desafíos actuales y prepararse para el futuro, necesita soluciones de IA que se integren con su infraestructura y su estrategia de datos.
Ofrezca el futuro de la nube híbrida con el chip del procesador Power10, diseñado para mejorar la eficiencia, la capacidad y el rendimiento energético.
Elimine los cuellos de botella de E/S y comparta la memoria entre GPU y CPU, lo que genera información más rápida y modelos más precisos.
Optimice su infraestructura de TI, on-premises y en la nube, con la flexibilidad y el control que le ofrece el desarrollo de código abierto
Aprenda qué es un mainframe y cómo funciona.
Descubra qué significa código abierto, cómo se compara con el software de código cerrado y cómo ha evolucionado.
Obtenga más información sobre la computación de alto rendimiento, por qué es importante y cómo funciona.
Aprenda qué es la inteligencia artificial, cuáles son sus tipos, cuál es la diferencia entre el aprendizaje profundo y el aprendizaje automático, y cómo se aplica la IA.
La computación cuántica es un modelo de computación que aprovecha las leyes de la mecánica cuántica para procesar datos, realizando cálculos basados en probabilidades. Su objetivo es resolver problemas complejos que las supercomputadoras más potentes del mundo no pueden ni podrán resolver nunca.
1 Getting up to Speed: The Future of Supercomputing, The National Academies Press (el enlace se encuentra fuera de ibm.com)