NVIDIA lleva un par de años siendo la argamasa de la industria de la inteligencia artificial. Hay una imagen que lo explica mejor que mil palabras:
Sus chips H200 alimentan los centros de datos que se usan para entrenar la inteligencia artificial y son objeto de deseo hasta de algunas de las Big Tech chinas, pero ya están preparando una nueva generación llamada Rubin. Y si hay alguien que tiene claro que esos futuros chips deben ser los ladrillos de sus nuevos centros de datos es Mark Zuckerberg.
¿El motivo? Son los necesarios para conseguir la “superinteligencia personal”. Y esa creencia es la que ha inspirado un acuerdo milmillonario. Sí, otro más.
El futuro de NVIDIA es prometedor para Meta
No hay una cifra concreta, pero en The Wall Street Journal se habla de un acuerdo valorado en “decenas de millas de millones de dólares”. Meta está persiguiendo un tipo de inteligencia artificial enfocada en el uso en el día a día, más allá de con un chatbot. Confían tanto en ello que han montado el Equipo A de la IA y, para dejar de tener promesas y conseguir productos, van a hacer un todo incluido en la futura tecnología de NVIDIA.
La empresa de Jensen Huang cuenta con GPU como las H200 con arquitectura Blackwell, pero ya están ultimando el desarrollo de algo más:
- Su nueva arquitectura Rubin
- Y la CPU Grace.
Grace es especialmente interesante porque supone el primer despliegue masivo de CPU de NVIDIA basado en arquitectura ARM. Pero no es sólo la GPU y la CPU: NVIDIA va a proporcionar todo su ecosistema de hardware y software a Meta. “La plataforma completa de NVIDIA”, como lo ha denominado Huang.
Y hay algo curioso en todo este asunto que ejemplifica a la perfección lo que está ocurriendo en la carrera armamentística de la inteligencia artificial: las empresas están comprando hardware que no existe para alimentar centros de datos que sólo existe sobre el papel.
NVIDIA aún no está fabricando en masa sus GPU Rubin porque depende de que Samsung provea las memorias HBM4 que ahora están comenzando a fabricar en masa. Uno de los mandamases de SMIC, la gran esperanza china de los semiconductores, describió el proceso como “crear carreteras enormes cuando aún no hay coches que circulen por ellas”.
También apuntó que “nadie ha pensado realmente en qué harán exactamente esos centros de datos, pero a las empresas les encantaría construir la capacidad total de los próximos 10 años en apenas uno o dos años”.
Como decíamos, no hay cifras concretas de este acuerdo, pero Meta ha soltado la billetera. En 2025 invirtieron 72.000 millones en la IA y las previsiones eran de 115.000 millones para 2026. Decimos “eran” porque han rediseñado el plan para aumentar hasta los 135.000 millones para expandir los centros de datos e intentar cumplir los objetivos de Superintelligence Labs.
En Xataka siempre intentamos ofrecer contexto cuando hablamos de ciertas cantidades, pero es tan exagerado que no se me ocurre cómo contextualizarlo. Bueno, sí: 135.000 millones sólo Meta, es menos que los 650.000 millones que se gastarán este año entre Amazon, Google y Microsoft. Ahí está el contexto.
Imágenes | NVIDIA, Mark Zuckerberg
En Xataka | Western Digital ha vendido toda su capacidad de discos duros para 2026: la IA está devorando el almacenamiento físico



