NVIDIA ha presentado hoy durante el GDC 2018 su nuevo servidor DGX-2, una mejora notable en potencia frente a DGX-1 que llega para duplicar el numero de GPU trabajando simultáneamente para tareas de Inteligencia Artificial. En concreto, DGX-2 destaca por incorporar 16 GPU Volta V100 conectadas a través de NVSwitch, lo cual permite para el DGX-2 un escenario en que toda la memoria de las GPU este unificada en el sistema permitiendo a los desarrolladores de la IA aprovechar al máximo las capacidades del equipo.
Las GPU suman un total de 81.920 núcleos CUDA y 512GB de memoria HBM2, las cuales son capaces de ofrecer un ancho de banda de hasta 14.4 TB/s y comunicarse entre ellas a 300GB/s. Las especificaciones sensacionales de DGX-2 no se quedan aquí, ya el que el cerebro de esta bestia esta compuesto por una pareja de CPU Intel Xeon Platinum 8180 con 28 núcleos cada uno sumando un total de 56 núcleos y 112 hilos disponibles para el sistema. El almacenamiento se completa con SSD NVMe que suman un total de 30TB de capacidad, mientras que se cuenta con 1.5TB de memoria DDR4 disponible.
Obviamente ya podréis imaginar que el precio será elevado y no estáis equivocados, puesto que el DGX-2 cuesta 399.000 dólares. NVIDIA ha utilizado para la presentación la comparación contra dos GTX 580 hablando de que el nuevo DGX-2 es 500 veces más rápido que estas tarjetas lanzadas hace 5 años, con un coste y utilización de espacio mucho menor. Eso si, el consumo del equipo ronda los 10.000W, por lo que el ahorro también sería considerable frente a apilar decenas o cientos de GPU de pasadas generaciones.
 

 
Los desarrolladores de inteligencia artificial encontraran de está manera una solución muy potente que se une a la familia DGX con un aumento de 10 veces la potencia de DGX-1, un equipo lanzado el pasado mes de septiembre como el primer equipo con las nuevas Volta V100.
 

Comentarios