Arquitectura NVIDIA Blackwell

El motor detrás de las fábricas de IA para la era del razonamiento de IA, ahora en plena producción.

Traspasando Fronteras en la Computación Acelerada y la IA Generativa

Explore los avances innovadores que la arquitectura NVIDIA Blackwell aporta a la IA generativa y a la computación acelerada. Desarrollada sobre la base de generaciones de tecnología NVIDIA, NVIDIA Blackwell define el próximo capítulo de la IA generativa con un desempeño, una eficiencia y una escala incomparables. 

Explore los Avances Tecnológicos

Una Nueva Clase de Superchip de IA

Las GPU con la arquitectura NVIDIA Blackwell contienen 208 mil millones de transistores y se fabrican mediante un proceso TSMC 4NP personalizado. Todos los productos NVIDIA Blackwell cuentan con dos matrices limitadas por retículos, con una interconexión de chip a chip de 10 terabytes por segundo (TB/s) en una sola GPU unificada

Transformer Engine de Segunda Generación

El motor Transformer de segunda generación usa la tecnología NVIDIA Blackwell Tensor Core personalizada combinada con las innovaciones de NVIDIA TensorRT™-LLM y NeMo™ Framework para acelerar la inferencia y el entrenamiento de grandes modelos de lenguaje (LLM) y modelos de mezcla de expertos (MoE).  Los núcleos Tensor NVIDIA Blackwell agregan nuevas precisiones, incluidos nuevos formatos de microescala definidos por la comunidad, lo que brinda una alta precisión y facilita el reemplazo para precisiones más grandes.

Los Núcleos Tensor NVIDIA Blackwell Ultra están potenciados con dos veces más aceleración en la capa de atención y 1,5 veces más FLOPS de computación de IA, en comparación con las GPU NVIDIA Blackwell. El Transformer Engine de NVIDIA Blackwell usa técnicas de escalado fino, llamadas escalado de micro-tensores, para optimizar el desempeño y la precisión, haciendo posible el despliegue de una IA de punto flotante de 4 bits (FP4). Esto duplica el desempeño y el tamaño de los modelos de última generación que la memoria puede admitir, al tiempo que mantiene una alta exactitud.

IA Segura

NVIDIA Blackwell incluye NVIDIA Confidential Computing, que protege datos confidenciales y modelos de IA del acceso no autorizado por medio de sólidos protocolos de seguridad basados en hardware. NVIDIA Blackwell es la primera GPU con ambientes de ejecución confiables (TEE-I/O) de la industria, y ofrece la solución de computación confidencial de mayor rendimiento con hosts capaces de TEE-I/O y protección en línea a través de NVIDIA NVLink™. La Computación Confidencial NVIDIA Blackwell ofrece un rendimiento de transferencia casi idéntico al de los modos no cifrados. Ahora las empresas pueden proteger incluso los modelos más grandes de manera eficiente, además de salvaguardar la propiedad intelectual (IP) de IA y permitir de forma segura el entrenamiento de IA, la inferencia y el aprendizaje federado.

Switch NVLink y NVLink

El aprovechamiento de todo el potencial de la computación a exaescala y los modelos de IA de billones de parámetros depende de la capacidad de garantizar una comunicación rápida y fluida entre todas las GPU dentro de un clúster de servidores. La interconexión NVLink de NVIDIA de quinta generación puede escalar hasta 576 GPU para liberar un desempeño acelerado para modelos de IA de billones de parámetros.

El chip de conmutadores NVIDIA NVLink permite 130 TB/s de ancho de banda de GPU en un dominio NVLink de 72 GPU (NVL72) y ofrece una eficiencia en el ancho de banda cuatro veces mayor con compatibilidad con el Protocolo de Agregación y Reducción Jerárquica Escalable (SHARP)™ FP8. El chip de conmutadores NVLink de NVIDIA admite clústeres más allá de un solo servidor con la misma impresionante interconexión de 1,8 TB/s. Los clústeres de múltiples servidores con NVLink escalan las comunicaciones de GPU al ritmo del aumento de nuestra capacidad de computación, por lo que NVL72 puede admitir un rendimiento de GPU nueve veces más eficiente que un solo sistema de ocho GPU.

Motor de Descompresión

El análisis de datos y los workflows de bases de datos se han basado tradicionalmente en las CPU para la computación. La ciencia de datos acelerada puede aumentar drásticamente el desempeño del análisis integral, lo que acelera la generación de valor a la vez que reduce los costos. Bases de datos como Apache Spark desempeñan papeles críticos en el manejo, el procesamiento y el análisis de grandes volúmenes de datos.

El motor de descompresión de NVIDIA Blackwell y la capacidad de acceder a cantidades masivas de memoria en la CPU NVIDIA Grace™ a través de un enlace de alta velocidad (900 gigabytes por segundo (GB/s) de ancho de banda bidireccional) aceleran todo el Pipeline de consultas de bases de datos para lograr el más alto desempeño en análisis de datos y ciencia de datos, con compatibilidad con los últimos formatos de compresión, como LZ4, Snappy y Deflate.

Módulo de Confiabilidad, Disponibilidad y Capacidad de Servicio (RAS)

NVIDIA Blackwell aumenta la resiliencia inteligente con un motor de Confiabilidad, Disponibilidad y Capacidad de Servicio (Reliability, Availability, and Serviceability, RAS) dedicado a identificar fallas potenciales que pueden ocurrir desde el principio y minimizar el tiempo de inactividad. Las capacidades de administración predictiva impulsadas por la IA de NVIDIA monitorean continuamente miles de puntos de datos en el hardware y el software para predecir e interceptar fuentes de tiempo de inactividad e ineficiencia. Esto permite una resiliencia inteligente que ahorra tiempo, energía y costos de computación.

El motor de Confiabilidad, Disponibilidad y Capacidad de Servicio (Reliability, Availability, and Serviceability, RAS) de NVIDIA proporciona información de diagnóstico detallada que puede identificar áreas de preocupación y ayudar a planificar el mantenimiento. El motor RAS reduce el tiempo de respuesta al localizar rápidamente la fuente de los problemas y minimiza el tiempo de inactividad al facilitar una remediación efectiva.

NVIDIA Blackwell Ultra Delivers up to 50x Better Performance and 35x Lower Cost for Agentic AI

Built to accelerate the next generation of agentic AI, NVIDIA Blackwell Ultra delivers breakthrough inference performance with dramatically lower cost. Cloud providers such as Microsoft, CoreWeave, and Oracle Cloud Infrastructure are deploying NVIDIA GB300 NVL72 systems at scale for low-latency and long-context use cases, such as agentic coding and coding assistants.

This is enabled by deep co-design across NVIDIA Blackwell, NVLink™, and NVLink Switch for scale-out; NVFP4 for low-precision accuracy; and NVIDIA Dynamo and TensorRT™ LLM for speed and flexibility—as well as development with community frameworks SGLang, vLLM, and more.

Productos NVIDIA Blackwell

NVIDIA GB300 NVL72

NVIDIA GB300 NVL72 ofrece un desempeño de inferencia de razonamiento de IA incomparable, ya que cuenta con 65 veces más computación de IA que los sistemas Hopper.

NVIDIA DGX SuperPOD

NVIDIA DGX SuperPOD™ es una solución de data center de IA lista para usar que ofrece una infraestructura acelerada de primer nivel con un desempeño escalable para las cargas de trabajo de entrenamiento e inferencia de IA más exigentes.

NVIDIA RTX PRO en el Data Center

Ofrezca una poderosa aceleración de IA y gráficos, funciones empresariales esenciales y la flexibilidad necesaria para manejar una amplia gama de cargas de trabajo, desde la IA de agentes y física hasta la computación visual y las workstations virtuales, aceleradas por las GPU de data center NVIDIA RTX PRO™.

Workstations NVIDIA RTX PRO

Aproveche los últimos avances en IA, trazado de rayos y tecnología de gráficos neuronales para impulsar los workflows más innovadores en diseño, ingeniería y más allá con las GPU NVIDIA RTX PRO.

NVIDIA DGX Station

A diferencia de cualquier computadora de escritorio de IA anterior, este sistema cuenta con las GPU NVIDIA Blackwell, el Superchip de CPU Grace y una gran memoria coherente, lo que ofrece un desempeño de computación incomparable.

NVIDIA DGX Spark

Una supercomputadora de IA compacta y personal con el superchip NVIDIA GB10 Grace Blackwell, que ofrece capacidades de IA de alto rendimiento y admite modelos de hasta 200 mil millones de parámetros.

NVIDIA HGX B300

NVIDIA HGX™ B300 está diseñada para la era del razonamiento de IA, con una computación mejorada y un aumento de la memoria.

NVIDIA GB200 NVL72

NVIDIA GB200 NVL72 conecta 36 CPU NVIDIA Grace y 72 GPU NVIDIA Blackwell en un diseño a escala de rack con refrigeración líquida.

NVIDIA GB200 NVL4

NVIDIA GB200 NVL4, diseñada específicamente para la computación científica, abre el futuro de la computación de alto rendimiento convergente y la IA.

Presentación de NVIDIA Project DIGITS

NVIDIA Project DIGITS lleva el poder de Grace Blackwell a las computadoras de escritorio de los desarrolladores. El superchip GB10, combinado con 128 GB de memoria de sistema unificado, permite a los investigadores de IA, científicos de datos y estudiantes trabajar con modelos de IA localmente con hasta 200 mil millones de parámetros.

Desbloquee Modelos de Billones de Parámetros en Tiempo Real con NVIDIA GB200 NVL72

NVIDIA GB200 NVL72 conecta 36 Superchips GB200 Grace Blackwell con 36 CPU Grace y 72 GPU Blackwell en un diseño a escala de bastidor. GB200 NVL72 es una solución refrigerada por líquido con un dominio NVLink de 72 GPU que actúa como una sola GPU masiva, lo que ofrece una inferencia en tiempo real 30 veces más rápida para grandes modelos de lenguaje de billones de parámetros.

Blog Técnico de NVIDIA NVFP4

Descubra cómo la nueva cuantificación NVFP4 de 4 bits de NVIDIA para el preentrenamiento ofrece enormes mejoras en el entrenamiento de LLM a escala y en la eficiencia general de la infraestructura.