Por qué Vera Rubin de Nvidia podría impulsar la próxima ola de inteligencia artificial

Fecha:

Compartir publicación:

Nvidia no sólo se ha sumado a la ola de la IA; en realidad se convirtió en una marea creciente.

En los últimos años, el popular fabricante de chips ha pasado de ser un líder tecnológico a una superpotencia del mercado, con una capitalización de mercado que supera los 4 billones de dólares.

La acción se ha convertido ahora en el motor del S&P 500, impulsada por un crecimiento único en una generación en centros de datos impulsados ​​por inteligencia artificial.

Bajo el capó, Nvidia tiene tecnologías informáticas de inteligencia artificial de alto rendimiento. Se estima que posee entre el 80% y el 90% de las acciones de aceleradores de inteligencia artificial. Todos, desde OpenAI hasta los hiperescaladores más grandes, están luchando por comprar sus chips.

Siguieron los ingresos: los pedidos de IA impulsaron las ventas trimestrales a récords, y el software y la tecnología de redes no hicieron más que profundizar el foso.

En comparación, las ventas de Nvidia en la era anterior a ChatGPT (año fiscal 2022) fueron de 26,91 mil millones de dólares y aumentaron a 130,5 mil millones de dólares en el año fiscal 2025 (un aumento del 385%).

Ahora viene el siguiente giro: Vera Rubin, su nueva plataforma CPU+GPU diseñada específicamente para impulsar el futuro de la inteligencia artificial tal como la conocemos.

Con esta plataforma, Nvidia no se limita a actualizar chips; esto aumenta la velocidad de cuadros, lo que permite a los hiperescaladores planificar con años de anticipación.

Vera Rubin podría marcar el comienzo de la “AI Wave 2.0” ampliando el liderazgo de Nvidia en la carrera de los centros de datos.

Fuente de la imagen: Morris/Bloomberg vía Getty Images

¿Qué es la plataforma Nvidia Vera Rubin?

La próxima gran plataforma de Nvidia no es sólo un nuevo y elegante apodo, puede ser el próximo ciclo de inteligencia artificial. “Vera Rubin” combina eficazmente el nuevo procesador Vera basado en Arm con la GPU Rubin, un sucesor directo de los chips Blackwell actuales, diseñado para manejar las demandas masivas de inferencia y entrenamiento de IA.

Se espera que el rack insignia Vera Rubin NVL144 CPX ofrezca casi 8 exaflops de rendimiento de IA junto con 100 terabytes de memoria rápida, que es aproximadamente 7,5 veces el rendimiento del actual sistema GB300 NVL72.

Otra ventaja importante para Nvidia es que la nueva plataforma está adaptada para manejar cargas de trabajo de próxima generación, que incluyen cosas como millones de codificación de tokens, video generativo y agentes autónomos.

Sobre el tema: El ex director ejecutivo de Intel da un breve veredicto de dos palabras sobre la inteligencia artificial

En el lado del hardware, Rubin mejora significativamente la densidad informática (hasta 50-100 PFLOP FP4 por GPU), el ancho de banda de la memoria (con opciones HBM4 y GDDR7) y las capacidades de red a través de NVLink 144 y Spectrum X.

Además, Nvidia dice que la plataforma ha sido descontinuada y actualmente está en desarrollo en TSMC, y se espera que esté disponible general para fines de 2026.

¿Podría Vera Rubin provocar una nueva ola de inteligencia artificial?

Muchos expertos en inteligencia artificial coinciden en que el próximo gran salto en la industria no vendrá de algoritmos más inteligentes, sino de una infraestructura más rápida y densa, y Rubin tiene razón en esa lucrativa timonera.

Con su nuevo diseño eficiente y su rentabilidad, Rubin tiene el potencial de marcar el comienzo de la próxima ola de adopción de IA en hiperescaladores y empresas, dicen los analistas.

Es por eso que Vera Rubin es importante Grandes ventanas contextuales: con la friolera de 100 TB de memoria en rack y un rendimiento de 1,7 PB/s, Rubin es capaz de procesar consultas y conjuntos de datos colosales en el rack, reduciendo la latencia y el desorden. Mejores matemáticas del retorno de la inversión: Nvidia afirma que los clientes pueden monetizar efectivamente casi $5 mil millones en ingresos simbólicos por cada $100 millones invertidos en la infraestructura de Rubin. Si esta afirmación es remotamente cierta, reduciría significativamente los costos de inferencia y haría comercialmente viables los copilotos siempre activos. Implementación predecible: la velocidad de giro estable de Nvidia reduce el riesgo al planificar un hiperescalador, donde los clientes pueden implementar fácilmente Blackwell ahora y alojar Rubin en 2026 sin necesidad de reequipar sus pilas. Energía a un precio más alto: con HBM4, NVLink 144, conexión en red Spectrum X y escalado de rack completo. Un vistazo rápido a la evolución de las GPU NVIDIA: Celsius/Kelvin/Rankine/Curie (1999-2004): un cambio masivo de gráficos de función fija a sombreadores verdaderamente programables, que abre la puerta a la informática general. Tesla (2006): Comienza la era CUDA, sentando las bases para un modelo de programación unificado que permite realizar cálculos matemáticos no gráficos en GPU. Fermi (2010): Doble precisión mejorada y jerarquía de memoria mejorada. Kepler (2012): Mayor eficiencia y mayor paralelismo por vatio, lo que genera importantes ahorros de energía en el centro de datos y ampliación del recuento de núcleos. Maxwell (2014): Grandes avances en el rendimiento por vatio y un almacenamiento en caché más inteligente que ofrece un mayor rendimiento en el mundo real. Pascal (2016): El P100 llegó con HBM2 y NVLink, lo que dio como resultado un ancho de banda de memoria superior y conexiones más rápidas entre las GPU, lo que facilitó la creación de los primeros grupos de entrenamiento de IA verdaderamente grandes. Volta (2017): Los primeros núcleos tensoriales diseñados específicamente para el aprendizaje profundo y que ofrecen una increíble aceleración del aprendizaje. redes neuronales. Turing (2018): Núcleos Tensor+RT para trazado de rayos en tiempo real en escritorios. Ampere (2020): Mayor adopción de Tensor Cores y eficiencia mejorada del centro de datos y del cliente. Hopper (2022): Optimizado para estudiantes de posgrado, Transformer Engine acelera la inteligencia artificial generativa. Blackwell (2025): Un gran salto en el aprendizaje y la inferencia, respaldado por diferentes opciones de memoria e interconexiones más rápidas. Vera Rubin (planeado para 2026): Vera CPU + Rubin GPU como una plataforma de IA integrada de montaje en bastidor diseñada específicamente para manejar ventanas de contexto ultralargas, cargas de trabajo de agente/video y más uso intensivo de memoria. La respuesta de AMD a Vera Rubin de Nvidia: cómo se compara

AMD está alcanzando rápidamente a Vera Rubin de Nvidia.

Su poderosa línea Instinct pasó rápidamente del MI300X actual al MI350 y luego al MI450 en 2026, y Oracle planea implementar 50.000 MI450 a partir del tercer trimestre de 2026, un respaldo importante.

AMD también anunció Helios, un potente sistema a nivel de rack que potencialmente incluye casi un 50% más de memoria por rack que la configuración Vera Rubin comparable de Nvidia.

Relacionado: Jamie Dimon tiene una visión sorprendente sobre las acciones de IA

Ruby de Nvidia está apostando por un diseño dividido, enfocándose más en una configuración de computación pesada que ofrece velocidad bruta, así como otra adaptada para tareas más exigentes y de contexto largo. Sin embargo, la idea de AMD es más simple, ya que apunta a aumentar la memoria por GPU y el software de código abierto (ROCm) para alejar a los desarrolladores de CUDA.

Sin embargo, el ganador final es el ancho de banda por dólar y la simplicidad del software, donde Nvidia todavía tiene la ventaja.

Wall Street apuesta por el próximo salto de Nvidia: el ciclo del chip Rubin

Wall Street elogia el ritmo de la plataforma GPU de Nvidia.

Goldman Sachs reiteró recientemente una fuerte calificación de compra, pronosticando que las ganancias por acción para 2026 estarán un 10% por encima del consenso, respaldadas por el crecimiento de Rubin y el gasto sostenido en hiperescala. Morgan Stanley también elevó su precio objetivo de las acciones a 200 dólares con una relación P/E de 33×2026, lo que apunta a la eliminación de los cuellos de botella en la oferta.

Citi subió aún más a $210, destacando a Rubin CPX como un nuevo motor de crecimiento al tiempo que elevó su pronóstico de infraestructura de IA a $490 mil millones para 2026. Al mismo tiempo, Frank Lee de HSBC recibió una nueva calificación Street-high de $320, argumentando que mega acuerdos como el de OpenAI podrían duplicar los ingresos del centro de datos de Nvidia para el año fiscal 27.

Es importante señalar que la combinación Vera Rubin de Nvidia está llegando a un punto de inflexión.

En GTC 2025, el director ejecutivo Jensen Huang presentó la siguiente etapa de la inteligencia artificial basada en agentes, y Rubin está diseñado específicamente para trabajar con videos y modelos mundiales más ricos.

Relacionado: El comerciante veterano que compró Nvidia por 13 dólares restablece el precio objetivo de las acciones

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

spot_img

Artículos relacionados

Goldman nombra tres catalizadores que garantizarán una reactivación de las acciones megatecnológicas

Las acciones tecnológicas de megacapitalización están en su peor racha desde 2022 y las cifras lo muestran claramente....

JPMorgan actualiza el precio objetivo de las acciones de Nvidia para el resto de 2026

Nvidia sigue atrayendo inversores. Según tengo entendido, la última llamada de JPMorgan es que el banco está elevando...

Goldman Sachs restablece el precio objetivo de las acciones de dividendos del Dow 30

Wall Street está analizando más de cerca a Salesforce después de que publicó su último informe de ganancias...

Amazon está vendiendo un elegante juego de edredón bohemio de 70 dólares por sólo 44 dólares que es perfecto para la primavera.

TheStreet se compromete a ofrecer sólo los mejores productos y servicios. Si compra algo a través de uno...