Search for:
  • Home/
  • Tech/
  • La tecnología de memoria de Nvidia Big Accelerator tiene como objetivo crear un vínculo directo entre las GPU en el centro de datos y el almacenamiento.
La tecnología de memoria de Nvidia Big Accelerator tiene como objetivo crear un vínculo directo entre las GPU en el centro de datos y el almacenamiento.

La tecnología de memoria de Nvidia Big Accelerator tiene como objetivo crear un vínculo directo entre las GPU en el centro de datos y el almacenamiento.

mínimo: Big Accelerator Memory (BaM) es una arquitectura recientemente desarrollada por Nvidia, creada en colaboración con IBM y varias universidades estadounidenses. Esta tecnología tiene como objetivo mejorar el rendimiento del centro de datos al brindar a las aplicaciones aceleradas por GPU acceso directo a grandes cantidades de almacenamiento SSD, evitando la necesidad de una CPU de propósito general.

El equipo de investigación detrás de BaM notas Mayor uso de GPU en los centros de datos modernos para un mayor ancho de banda de memoria y capacidades informáticas. Sin embargo, argumentan que el modelo tradicional de implementación de aplicaciones y cargas de trabajo ha implicado un enfoque centrado en la CPU, lo que puede generar mayores gastos generales y cuellos de botella de E/S entre los componentes.

Con BaM, las aplicaciones aceleradas por GPU, como análisis y cargas de trabajo de IA, como aprendizaje automático y entrenamiento de redes neuronales, pueden lograr un beneficio de rendimiento significativo en términos de transferencia de datos al sacar la CPU de la ecuación y permitir que la GPU lea y escriba pequeñas cantidades. directamente De datos a SSD NVMe bajo demanda.

como un registro Informes, la estructura de BaM consta de dos partes principales. El primero es un caché de memoria GPU administrado por software, y el segundo es una biblioteca de software para GPU que le permite comunicarse directamente con un volumen NVMe y solicitar datos mediante el uso de un controlador de kernel de Linux personalizado e interfaces RDMA y PCIe.

Los investigadores también demostraron la viabilidad de BaM con un prototipo basado en Linux, GPU estándar y SSD NVMe. Algunas de las ventajas que vemos en este punto incluyen una mejor sincronización y un uso eficiente del ancho de banda de E/S, junto con el acceso al almacenamiento paralelo.

READ  Huawei presenta su propia isla dinámica con la serie Mate 60

Aunque está dirigida a empresas/compañías, la API de BaM también puede aprovechar las unidades de estado sólido (SSD) de los consumidores, según los investigadores, proporcionando un rendimiento competitivo frente a las soluciones más caras solo de DRAM. Si bien la tecnología subyacente y los casos de uso son diferentes, BaM parece una implementación similar de GPU/SSD de Microsoft lanzado recientemente Direct Storage para PC.

"Alborotador. Amante de la cerveza. Total aficionado al alcohol. Sutilmente encantador adicto a los zombis. Ninja de twitter de toda la vida".

Leave A Comment

All fields marked with an asterisk (*) are required