La HPC es una tecnología que utiliza clústeres de potentes procesadores que funcionan en paralelo para procesar conjuntos de datos masivos y multidimensionales y resolver problemas complejos a velocidades extremadamente altas.
La HPC resuelve algunos de los problemas informáticos más complejos de la actualidad en tiempo real. Los sistemas HPC suelen funcionar a velocidades más de un millón de veces más rápidas que los sistemas más rápidos de escritorio, portátiles o servidores.
Las supercomputadoras, computadoras especialmente diseñadas que incorporan millones de procesadores o núcleos de procesador, han sido vitales en la computación de alto rendimiento durante décadas. A diferencia de los mainframes, las supercomputadoras son mucho más rápidas y pueden ejecutar miles de millones de operaciones de punto flotante en un segundo.
Las supercomputadoras todavía están con nosotros; la supercomputadora más rápida es la estadounidense Frontier, con una velocidad de procesamiento de 1.206 exaflops o quintillones de operaciones de punto flotante por segundo (flops).1 Pero hoy en día, cada vez más organizaciones ejecutan servicios de HPC en clústeres de servidores informáticos de alta velocidad, alojados on premises o en la nube.
Las cargas de trabajo de HPC descubren nuevos insights que hacen avanzar el conocimiento humano y crean ventajas competitivas significativas. Por ejemplo, HPC secuencia el ADN y automatiza el comercio de acciones. Ejecuta algoritmos y simulaciones de inteligencia artificial (IA), como las que permiten a los automóviles autónomos, que analizan terabytes de transmisión de datos desde sensores IoT, radares y sistemas GPS en tiempo real para tomar decisiones en una fracción de segundo.
Boletín de la industria
Manténgase al día sobre las tendencias más importantes e intrigantes de la industria sobre IA, automatización, datos y más con el boletín Think. Consulte la Declaración de privacidad de IBM.
Su suscripción se entregará en inglés. En cada boletín, encontrará un enlace para darse de baja. Puede gestionar sus suscripciones o darse de baja aquí. Consulte nuestra Declaración de privacidad de IBM para obtener más información.
Un sistema informático estándar resuelve problemas principalmente mediante el uso de computación en serie. Divide la carga de trabajo en una secuencia de tareas y luego ejecuta las tareas una tras otra en el mismo procesador.
La computación paralela ejecuta múltiples tareas simultáneamente en numerosos servidores o procesadores informáticos. HPC utiliza computación paralela masiva, que emplea decenas de miles a millones de procesadores o núcleos de procesador.
Un HPC cluster consta de varios servidores informáticos de alta velocidad conectados en red con un programador centralizado que gestiona la carga de trabajo. Las computadoras, llamadas nodo, usan CPU multinúcleo de alto rendimiento o, más probablemente hoy en día,GPU, que son adecuadas para cálculos matemáticos rigurosos, modelos de machine learning (ML) y tareas con uso intensivo de gráficos. Un solo clúster HPC puede incluir 100 000 o más nodos.
Linux es el sistema operativo más utilizado para ejecutar HPC Cluster. Otros sistemas operativos incluyen Windows, Ubuntu y Unix.
Todos los demás recursos informáticos de un clúster HPC, como redes, memoria, almacenamiento y sistemas de archivos, son de alta velocidad y alto rendimiento. También son componentes de bajalatencia que pueden seguir el ritmo de los nodos y optimizar la potencia informática y el rendimiento del clúster.
Las cargas de trabajo de HPC se basan en una interfaz de paso de mensajes (MPI), una biblioteca estándar y un protocolo para la programación informática paralela que permite a los usuarios comunicarse entre nodos en un clúster o a través de una red.
La computación de alto rendimiento (HPC) se basa en bits y procesadores convencionales utilizados en la computación clásica. Por el contrario, la computación cuántica utiliza mecánica cuántica basada en tecnología especializada para resolver problemas complejos. Los algoritmos Quantum crean espacios computacionales multidimensionales que son una forma mucho más eficiente de resolver problemas complejos, como simular el comportamiento de las moléculas, que las computadoras clásicas o las supercomputadoras no pueden resolver con la suficiente rapidez. No se espera que Quantum Computing reemplace a la HPC en el corto plazo. Más bien, las dos tecnologías se pueden combinar para lograr eficiencia y un rendimiento óptimo.
Hace tan solo una década, el alto costo de la HPC, que implicaba poseer o arrendar una supercomputadora o construir y alojar un clúster de HPC en un centro de datos local, la puso fuera del alcance de la mayoría de las organizaciones.
Hoy en día, la HPC en la nube, a veces llamada HPC como servicio o HPCaaS, ofrece una forma significativamente más rápida, escalable y asequible para que las empresas se beneficien de la HPC. La HPCaaS suele incluir acceso a clústeres e infraestructura HPC alojados en el centro de datos de un proveedor de servicios en la nube, además de capacidades de red (como IA y analytics de datos) y experiencia en HPC.
Hoy en día, tres tendencias convergentes impulsan la HPC en la nube:
Las organizaciones de todas las industrias dependen cada vez más de los insights en tiempo real y la ventaja competitiva del uso de aplicaciones HPC para resolver problemas complejos. Por ejemplo, la detección de fraudes con tarjetas de crédito, algo en lo que todos confiamos y que la mayoría hemos experimentado en algún momento, depende cada vez más de la HPC para identificar el fraude más rápido y reducir los molestos falsos positivos, incluso cuando la actividad fraudulenta se expande y las tácticas de los defraudadores cambian constantemente.
Desde el lanzamiento de tecnologías como ChatGPT, las organizaciones han adoptado rápidamente la promesa de la IA generativa para acelerar la innovación y fomentar el crecimiento. Este desarrollo ha estimulado una demanda aún mayor de computación de alto rendimiento. HPC proporciona la alta potencia computacional y la escalabilidad para admitir las cargas de trabajo impulsadas por IA a gran escala. En un informe de Intersect 360 Research, el mercado mundial total de infraestructura informática escalable para HPC e IA fue de 85.7 mil millones de dólares en 2023, un 62.4 % más año tras año, debido principalmente a casi triplicar el gasto de las empresas de hiperescala en su IA infraestructura.2
El acceso remoto directo a la memoria (RDMA) permite que una computadora en red acceda a la memoria de otra computadora en red sin involucrar el sistema operativo de la computadora ni interrumpir el procesamiento de ninguna computadora. Esto ayuda a minimizar la latencia y maximizar el rendimiento, reduciendo los cuellos de botella del ancho de banda de la memoria. Los tejidos RDMA emergentes de alto rendimiento, que incluyen InfiniBand, la arquitectura de interfaz virtual y RDMA sobre Ethernet convergente, hacen posible la HPC basada en la nube.
Hoy en día, todos los principales proveedores de servicio en la nube, incluidos Amazon Web Services (AWS), Microsoft Azure, Google Cloud e IBM Cloud, ofrecen servicios de HPC. Si bien algunas organizaciones continúan ejecutando cargas de trabajo de HPC altamente reguladas o sensibles on premises, muchas están adoptando o migrando a nube privada HPC servicios proporcionados por proveedores de hardware y soluciones.
La HPC en la nube permite a las organizaciones aplicar muchos activos informáticos para resolver problemas complejos y proporciona los siguientes beneficios:
Las aplicaciones de HPC se han convertido en sinónimo de IA, en particular las aplicaciones de machine learning (ML) y aprendizaje profundo aplicaciones. Hoy en día, la mayoría de los sistemas HPC están diseñados teniendo en cuenta estas cargas de trabajo.
Desde el análisis de datos hasta la investigación de vanguardia, la HPC está impulsando la innovación continua en casos de uso en las siguientes industrias:
El primer intento de secuenciar un genoma humano tardó 13 años. Hoy en día, los sistemas HPC pueden hacer el trabajo en menos de un día. Otras aplicaciones de HPC en la atención médica y las ciencias biológicas incluyen la gestión de registros médicos, el descubrimiento y diseño de fármacos, el diagnóstico rápido del cáncer y el modelado molecular. La visualización de HPC ayuda a los científicos a recopilar insights de simulaciones y analizar datos rápidamente.
Los clústeres HPC proporcionan la alta velocidad necesaria para transmitir eventos en vivo, renderizar gráficos 3D y efectos especiales, y reducir el tiempo y los costos de producción. También puede ayudar a las empresas de medios a obtener insights basados en datos para lograr una mejor creación y distribución de contenidos.
Además del comercio automatizado y la detección de fraude, la HPC impulsa aplicaciones de simulación Monte Carlo y otros métodos de análisis de riesgos.
Dos casos de uso de HPC en crecimiento en esta área son la predicción meteorológica y el modelado climático, los cuales implican el procesamiento de grandes cantidades de datos meteorológicos históricos y millones de cambios diarios en puntos de datos relacionados con el clima. Otras aplicaciones gubernamentales y de defensa incluyen la investigación energética y el trabajo de inteligencia.
En casos que a veces se superponen con el gobierno y la defensa, las aplicaciones de HPC relacionadas con la energía incluyen procesamiento de datos, simulación y modelado de yacimientos, análisis geoespacial, simulación de viento y mapeo del terreno.
La industria automotriz utiliza HPC para simular y optimizar el diseño de productos y procesos. Por ejemplo, la HPC puede ejecutar aplicaciones de dinámica de fluidos computacional (CFD), que analizan y resuelven desafíos relacionados con los flujos de fluidos. Esto incluye simular la aerodinámica para reducir la resistencia del aire y la fricción, y permitir la simulación de baterías para optimizar el rendimiento y la seguridad de la batería.
HPC puede analizar grandes cantidades de datos para identificar patrones que ayuden a prevenir ciberataques u otras amenazas de seguridad.
La suite IBM Spectrum LSF es una plataforma de gestión de carga y programación de trabajos para computación distribuida de alto rendimiento (HPC).
Las soluciones HPC de nube híbrida de IBM ayudan a abordar desafíos a gran escala y de uso intensivo de cómputo y aceleran el tiempo de obtención de insights.
Encuentre una solución de infraestructura en la nube que sea adecuada para las necesidades de su negocio y escale los recursos bajo demanda.