{"id":51300,"date":"2024-03-19T15:46:01","date_gmt":"2024-03-19T14:46:01","guid":{"rendered":"https:\/\/ticker-noticiasep.microcontenidos.com\/NoticiaRSS.vbhtml?user=XRNR562DLR&amp;cod=20240319154601"},"modified":"2024-03-19T15:46:01","modified_gmt":"2024-03-19T14:46:01","slug":"mundo-supermicro-lanza-tres-superclusteres-basados-en-nvidia-1","status":"publish","type":"post","link":"https:\/\/webciudadana.net\/?p=51300","title":{"rendered":"Mundo: Supermicro lanza tres supercl\u00fasteres basados en NVIDIA (1)"},"content":{"rendered":"\n<div><img decoding=\"async\" src=\"\/wp-content\/uploads\/sites\/2\/2024\/03\/mundo-supermicro-lanza-tres-superclusteres-basados-en-nvidia-1.jpg\" class=\"ff-og-image-inserted\"><\/div>\n<p>(Informaci\u00f3n remitida por la empresa firmante)<\/p>\n<p>\n&#8212; Supermicro lanza tres supercl\u00fasteres de IA generativa, de pila completa y listos para implementar, basados en NVIDIA, que escalan desde infraestructuras empresariales hasta grandes infraestructuras LLM<\/p>\n<p>\nLos supercl\u00fasteres de pila completa incluyen configuraciones de rack de inferencia a escala de nube y de capacitaci\u00f3n refrigerados por aire y l\u00edquido con las \u00faltimas GPU NVIDIA Tensor Core, redes y software empresarial NVIDIA AI<\/p>\n<p>\nSAN JOS\u00c9, California, 19 de marzo de 2024 \/PRNewswire\/ &#8212; Supermicro, Inc. (NASDAQ: SMCI), un proveedor total de soluciones de TI para IA, nube, almacenamiento y 5G\/Edge, anuncia su \u00faltima cartera para acelerar la implementaci\u00f3n de IA generativa. Las soluciones Supermicro SuperCluster proporcionan componentes b\u00e1sicos para el presente y el futuro de la infraestructura del modelo de lenguaje grande (LLM).<\/p>\n<p> Las tres potentes soluciones Supermicro SuperCluster ahora est\u00e1n disponibles para cargas de trabajo de IA generativa. Los sistemas enfriados por l\u00edquido de 4U o los sistemas enfriados por aire de 8U est\u00e1n construidos y dise\u00f1ados espec\u00edficamente para un potente rendimiento de capacitaci\u00f3n de LLM, as\u00ed como para lotes de gran tama\u00f1o e inferencia de LLM de gran volumen. Un tercer SuperCluster, con sistemas Supermicro NVIDIA MGX\u2122 de 1U refrigerados por aire, est\u00e1 optimizado para la inferencia a escala de nube.<\/p>\n<p> \u00abEn la era de la IA, la unidad de computaci\u00f3n ahora se mide por cl\u00fasteres, no solo por la cantidad de servidores, y con nuestra capacidad de fabricaci\u00f3n global ampliada de 5.000 racks\/mes, podemos ofrecer cl\u00fasteres completos de IA generativa a nuestros clientes m\u00e1s r\u00e1pido que nunca\u00bb, coment\u00f3 Charles Liang, presidente y consejero delegado de Supermicro. \u00abUn cl\u00faster de 64 nodos permite 512 GPU NVIDIA HGX H200 con 72 TB de HBM3e a trav\u00e9s de un par de nuestros bloques de construcci\u00f3n de cl\u00faster escalables con redes NVIDIA Quantum-2 InfiniBand y Spectrum-X de 400 Gb\/s Ethernet. Las soluciones SuperCluster de Supermicro combinadas con el software NVIDIA AI Enterprise son ideales para que las infraestructuras empresariales y de nube capaciten a los LLM de hoy con hasta billones de par\u00e1metros. Las GPU, CPU, memoria, almacenamiento y redes interconectadas, cuando se implementan en m\u00faltiples nodos en racks, construyen la base de la IA actual. Las soluciones SuperCluster de Supermicro proporcionan componentes b\u00e1sicos para la IA generativa y los LLM en r\u00e1pida evoluci\u00f3n\u00bb.<\/p>\n<p> Si desea conocer m\u00e1s acerca de Supermicro AI SuperClusters, visite: www.supermicro.com\/ai-supercluster<\/p>\n<p> \u00abLas \u00faltimas tecnolog\u00edas de GPU, CPU, redes y software de NVIDIA permiten a los fabricantes de sistemas acelerar una variedad de cargas de trabajo de IA de pr\u00f3xima generaci\u00f3n para los mercados globales\u00bb, afirm\u00f3 Kaustubh Sanghani, vicepresidente de gesti\u00f3n de productos GPU de NVIDIA. \u00abAl aprovechar la plataforma de computaci\u00f3n acelerada de NVIDIA con productos basados en la arquitectura Blackwell, Supermicro proporciona a los clientes los sistemas de servidor de vanguardia que necesitan y que se pueden implementar f\u00e1cilmente en centros de datos\u00bb.<\/p>\n<p> Los sistemas Supermicro 4U NVIDIA HGX H100\/H200 8-GPU duplican la densidad del sistema refrigerado por aire de 8U mediante el uso de refrigeraci\u00f3n l\u00edquida, lo que reduce el consumo de energ\u00eda y el coste total de propiedad del centro de datos. Estos sistemas est\u00e1n dise\u00f1ados para admitir las GPU basadas en la arquitectura NVIDIA Blackwell de pr\u00f3xima generaci\u00f3n. La unidad de distribuci\u00f3n de enfriamiento (CDU) y el colector (CDM) de Supermicro son las arterias principales para distribuir l\u00edquido enfriado a las placas fr\u00edas personalizadas directas al chip (D2C) de Supermicro, manteniendo las GPU y CPU a una temperatura \u00f3ptima, lo que resulta en el m\u00e1ximo rendimiento. Esta tecnolog\u00eda de refrigeraci\u00f3n permite una reducci\u00f3n de hasta un 40% en los costes de electricidad para todo el centro de datos y ahorra espacio en el centro de datos. Obtenga m\u00e1s informaci\u00f3n sobre la tecnolog\u00eda de refrigeraci\u00f3n l\u00edquida Supermicro: https:\/\/www.supermicro.com\/en\/solutions\/liquid-cooling<\/p>\n<p>\nLos sistemas equipados con 8 GPU NVIDIA HGX H100\/H200 son ideales para entrenar IA generativa. Las GPU interconectadas de alta velocidad a trav\u00e9s de NVIDIA\u00ae NVLink\u00ae, el alto ancho de banda de memoria de la GPU y la capacidad son clave para ejecutar modelos LLM de manera rentable. Supermicro SuperCluster crea un conjunto masivo de recursos de GPU que act\u00faan como una \u00fanica supercomputadora de IA.<\/p>\n<p> Ya sea ajustando un enorme modelo b\u00e1sico entrenado en un conjunto de datos con billones de tokens desde cero o construyendo una infraestructura de inferencia LLM a escala de nube, la topolog\u00eda de red de columna y hoja con estructuras sin bloqueo de 400 Gb\/s le permite escalar de 32 nodos a miles de nodos sin problemas. Con refrigeraci\u00f3n l\u00edquida totalmente integrada, los procesos de prueba probados de Supermicro validan exhaustivamente la eficacia y eficiencia operativa antes del env\u00edo.<\/p>\n<p>\nLos dise\u00f1os del sistema NVIDIA MGX\u2122 de Supermicro que incluyen los superchips NVIDIA GH200 Grace Hopper crear\u00e1n un modelo para futuros cl\u00fasteres de IA que aborden un cuello de botella crucial en la IA generativa: el ancho de banda de la memoria de la GPU y la capacidad para ejecutar modelos de lenguaje grande (LLM) con tama\u00f1os de lotes de alta inferencia para menores costes operativos. El cl\u00faster de 256 nodos permite una potencia de inferencia de alto volumen a escala de nube, f\u00e1cilmente implementable y escalable.<\/p>\n<p> SuperCluster con sistema de 4U enfriado por l\u00edquido en 5 racks o sistema de 8U enfriado por aire en 9 racks<\/p>\n<p>\n256 GPU NVIDIA H100\/H200 Tensor Core en una unidad escalable<\/p>\n<p>\nRefrigeraci\u00f3n l\u00edquida que permite 512 GPU, 64 nodos, en el mismo espacio que la soluci\u00f3n de 256 GPU y 32 nodos enfriada por aire<\/p>\n<p>\n20 TB de HBM3 con NVIDIA H100 o 36 TB de HBM3e con NVIDIA H200 en una unidad escalable<\/p>\n<p>\nLa red 1:1 ofrece hasta 400 Gbps a cada GPU para permitir que GPUDirect RDMA y almacenamiento entrenen modelos de lenguaje grandes con hasta billones de par\u00e1metros<\/p>\n<p>\nEstructuras de conmutadores Ethernet 400G InfiniBand o 400GbE con topolog\u00eda de red de hoja espinal altamente escalable, incluidas NVIDIA Quantum-2 InfiniBand y NVIDIA Spectrum-X Ethernet Platform<\/p>\n<p>\nEstructura de almacenamiento de canales de datos de IA personalizable con opciones de sistemas de archivos paralelos l\u00edderes en la industria<\/p>\n<p>\nSoftware NVIDIA AI Enterprise 5.0, que proporciona soporte para los nuevos microservicios de inferencia NVIDIA NIM que aceleran la implementaci\u00f3n de modelos de IA a escala<\/p>\n<p>\nSuperCluster con sistema NVIDIA MGX de 1U refrigerado por aire en 9 racks<\/p>\n<p>\n256 superchips Grace Hopper GH200 en una unidad escalable<\/p>\n<p>\nHasta 144 GB de HBM3e + 480 GB de memoria unificada LPDDR5X adecuada para inferencias a escala de nube, de gran volumen, de baja latencia y de gran tama\u00f1o de lote, capaz de ajustarse a un modelo de par\u00e1metros de m\u00e1s de 70 B en un nodo<\/p>\n<p>\nEstructuras de conmutador Ethernet 400G InfiniBand o 400GbE con topolog\u00eda de red espinal altamente escalable<\/p>\n<p>\nHasta 8 dispositivos de almacenamiento NVMe E1.S integrados por nodo<\/p>\n<p>\nEstructura de almacenamiento de canalizaci\u00f3n de datos de IA personalizable con DPU NVIDIA BlueField\u00ae-3 y opciones de sistemas de archivos paralelos l\u00edderes en la industria para brindar acceso de almacenamiento de alto rendimiento y baja latencia a cada GPU<\/p>\n<p>\nSoftware NVIDIA AI Enterprise 5.0<\/p>\n<p>\n(CONTINUA)<\/p>\n","protected":false},"excerpt":{"rendered":"<p>(Informaci\u00f3n remitida por la empresa firmante) &#8212; Supermicro lanza tres supercl\u00fasteres de IA generativa, de pila completa y listos para implementar, basados en NVIDIA, que escalan desde infraestructuras empresariales hasta grandes infraestructuras LLM Los supercl\u00fasteres de pila completa incluyen configuraciones de rack de inferencia a escala de nube y de capacitaci\u00f3n refrigerados por aire y [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[],"tags":[],"class_list":["post-51300","post","type-post","status-publish","format-standard","hentry"],"_links":{"self":[{"href":"https:\/\/webciudadana.net\/index.php?rest_route=\/wp\/v2\/posts\/51300","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/webciudadana.net\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/webciudadana.net\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/webciudadana.net\/index.php?rest_route=\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/webciudadana.net\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=51300"}],"version-history":[{"count":0,"href":"https:\/\/webciudadana.net\/index.php?rest_route=\/wp\/v2\/posts\/51300\/revisions"}],"wp:attachment":[{"href":"https:\/\/webciudadana.net\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=51300"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/webciudadana.net\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=51300"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/webciudadana.net\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=51300"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}