Cada vez que Lisa Su, directora ejecutiva de Advanced Micro Devices (AMD), sube al escenario, no se trata sólo de informar a los inversores; en lugar de eso, reduce el ritmo.
En el primer Día del Analista de AMD desde 2022, Su calificó el mercado de la IA como “más rápido que cualquier cosa que hayamos visto antes”, un comentario que fue mucho menos exagerado y más una advertencia para los competidores.
Describió la IA como un cambio que ocurre una vez en una generación y que esencialmente reescribe cómo el mundo mide el poder computacional y quién lo domina.
Además, en un abrir y cerrar de ojos, el CEO de AMD aumentó el tamaño total de las capacidades del centro de datos de IA a la asombrosa cifra de 1 billón de dólares para 2030, frente a su propuesta anterior de 500 mil millones de dólares.
Si bien Nvidia (NVDA) sigue liderando la conversación, el tono de Su deja claro que AMD está comprometida a ser algo más que un simple seguidor.
Su mensaje a los inversores leales de AMD es simple: la IA apenas está comenzando, y las empresas con escala masiva, poder de balance y capacidad de permanencia darán forma efectivamente a la próxima década de un billón de dólares.
La directora ejecutiva de AMD, Lisa Su, habló en el día de analistas de la compañía y describió las nuevas ambiciones en inteligencia artificial y centros de datos.
Fuente de la imagen: Jerod Harris/Getty Images
AMD está avanzando más rápido, más rápido de lo que nadie esperaba
En muchos sentidos, el CEO de AMD ha cambiado significativamente el ritmo de toda la conversación sobre IA.
Sus comentarios efectivamente convirtieron lo que podría haber sido otra actualización importante de la hoja de ruta del producto en un momento en el que los analistas tomaron sus calculadoras.
De repente, la conversación se centró más en quién sería realmente capaz de mantenerse al día con el mercado de la IA que se mueve a una velocidad vertiginosa y las implicaciones de ese movimiento.
Velocidad y escala del desarrollo de la IA
El mensaje de Su durante el Día del Analista de AMD sonó confiado y mesurado, pero al mismo tiempo urgente.
“La informática de alto rendimiento es la base de todo lo que importa”, dijo a sus fans, antes de añadir que la IA “se mueve más rápido que cualquier cosa que hayamos visto antes”.
Relacionado: Las acciones de IA que alguna vez estuvieron en auge ahora están cayendo
Está claro que AMD ya no busca simplemente perseguir a los líderes. Más bien, busca identificar el próximo gran paso en el desarrollo de la inteligencia.
El manual de estrategia de la compañía parece ser esencialmente de convergencia, con hardware, software y sistemas moviéndose al unísono para capturar el momento de la IA.
Día del analista de AMD 2025: Lo bueno Los aceleradores de IA son el núcleo del trabajo: los nuevos y robustos chips Instinct de AMD (ahora MI350, luego MI450) se han convertido en motores esenciales para el entrenamiento de IA a hiperescala. Básicamente, estos son los músculos detrás de cada chatbot, modelo y simulación, diseñados para funcionar de manera más rápida, más rápida y mucho más económica que antes. Los procesadores son el corazón y el equilibrio: los chips EPYC “Venice” de próxima generación están diseñados para hacer mucho más con mucha menos energía, ayudando a los centros de datos impulsados por IA a gestionar la eficiencia energética y la informática. La red es el sistema nervioso: las nuevas tarjetas inteligentes e interconexiones (con nombres en código Pollara y Vulcano) tendrán como objetivo aumentar la velocidad de comunicación de las máquinas. unos con otros. El software es el tejido conectivo del cerebro: ROCm, la plataforma abierta de inteligencia artificial de AMD, ha crecido 10 veces en términos de descargas, convirtiéndose en la capa que hace que todo ese silicio sea utilizable. Computadoras con IA y sistemas integrados: Cobertura: AMD integra inteligencia artificial en dispositivos cotidianos, desde computadoras portátiles hasta equipos de fábrica.
El director financiero Zhan Hu citó cifras que efectivamente coincidían con las ambiciones, incluido más del 35% del crecimiento general, más del 60% en centros de datos y más del 80% de las ventas relacionadas con la inteligencia artificial.
Una rivalidad de IA que continúa reiniciando el listón
En el mundo de los chips de inteligencia artificial, lo importante es que la empresa redefina la carrera.
Nvidia continúa liderando el camino con sus sistemas de montaje en bastidor de fábrica de IA, incluidos GB200 y GB300, así como la próxima línea Rubin, y los inversores ya están entusiasmados por ver qué sigue.
Más NVIDIA:
Nvidia da un gran salto en la computación cuántica La próxima gran novedad de NVIDIA podrían ser los autos voladores Bank of America actualiza el precio de las acciones de Nvidia después de reunirse con el director financiero
La ventaja secreta de Nvidia no es la velocidad, sino la facilidad con la que puede vender sistemas completos, desde semiconductores hasta software y refrigeración.
El contragolpe de AMD, que la compañía demostró a través de un bastidor Helios equipado con un potente MI450, indica lo que parece ser una presión en toda la cancha para acortar la distancia.
En lugar de entregar piezas, Su y la compañía discuten sistemas, combinando procesadores, redes y software de código abierto en una plataforma de inteligencia artificial organizada y coherente. Al estilo clásico de AMD, el objetivo es aprovechar la flexibilidad y las asociaciones para superar el escalamiento por fuerza bruta con el tiempo.
Relacionado: Analista veterano da un audaz cambio de sentido en las acciones de Tesla
