Los chips de IA de Nvidia superan la Ley de Moore, según Huang

El 7 de enero de 2025, el consejero delegado de Nvidia, Jensen Huang, afirmó que los chips de IA de su empresa avanzan a un ritmo muy superior a la trayectoria tradicional de rendimiento informático establecida por la Ley de Moore. La afirmación de Huang, realizada durante su discurso inaugural en el CES de Las Vegas y reiterada en una entrevista con TechCrunch, señala un posible cambio de paradigma en la informática y la inteligencia artificial.

«Nuestros sistemas avanzan mucho más rápido que la Ley de Moore», afirmó Huang ante 10.000 personas en el CES, antes de profundizar en su afirmación a la mañana siguiente. No es la primera vez que Huang hace declaraciones tan atrevidas. En noviembre de 2024, sugirió que la industria de la IA avanzaba hacia lo que denominó «hiperleyes de Moore».

Acuñada por el cofundador de Intel Gordon Moore en 1965, la Ley de Moore predijo que el número de transistores en un chip se duplicaría aproximadamente cada dos años, lo que se traduciría en un aumento exponencial del rendimiento y un descenso de los costes. Este principio ha impulsado la innovación tecnológica durante décadas, pero en los últimos años el ritmo de progreso se ha ralentizado. Huang, sin embargo, presentó los avances de Nvidia como prueba de una nueva trayectoria.

Huang atribuyó el acelerado progreso de Nvidia a su estrategia de desarrollo integral. «Podemos construir la arquitectura, el chip, el sistema, las bibliotecas y los algoritmos al mismo tiempo», explicó. «Si haces eso, puedes avanzar más rápido que la Ley de Moore, porque puedes innovar en toda la pila».

El planteamiento de Nvidia ha dado resultados notables. Huang se refirió al último superchip de la compañía para centros de datos, el GB200 NVL72, del que se afirma que rinde entre 30 y 40 veces más rápido que su predecesor, el H100, para cargas de trabajo de inferencia de IA. Durante su discurso de apertura del CES, mostró el GB200 NVL72 en el escenario y lo describió como un avance que hará que incluso los modelos de razonamiento de IA más complejos, como el o3 de OpenAI, sean más rentables en el futuro.

El modelo o3, un vanguardista sistema de razonamiento de IA, incurre actualmente en importantes costes operativos debido a su uso de computación a escala en tiempo de prueba. Por ejemplo, se dice que OpenAI gastó 20 dólares por tarea para obtener un rendimiento de nivel humano en una prueba de inteligencia general, un gasto que dista mucho de ser factible para una adopción más amplia. Sin embargo, Huang destacó que los avances de Nvidia reducirían estos costes. «La solución directa e inmediata para la computación en tiempo de prueba, tanto en rendimiento como en asequibilidad de costes, es aumentar nuestra capacidad de cálculo», afirmó.

En el campo de la inteligencia artificial, la atención se ha desplazado del entrenamiento de modelos masivos a la optimización de su inferencia, es decir, el proceso por el cual los modelos de inteligencia artificial generan resultados a partir de las entradas. Los chips de Nvidia han sido la piedra angular de la formación en IA para empresas como Google, OpenAI y Anthropic, pero existen dudas sobre si su costoso hardware puede mantener el dominio en la era centrada en la inferencia. Huang argumentó que las innovaciones de Nvidia están preparadas para establecer nuevos estándares tanto en rendimiento como en asequibilidad.

Huang también respondió a las preocupaciones sobre una ralentización del progreso de la IA esbozando tres leyes activas de escalado de la IA: preentrenamiento, postentrenamiento y computación en tiempo de prueba. El preentrenamiento consiste en enseñar a los modelos patrones a partir de amplios conjuntos de datos, mientras que el postentrenamiento afina las respuestas del modelo con datos y comentarios adicionales. El cálculo en tiempo de prueba, que tiene lugar durante la inferencia, permite a los modelos «pensar» más profundamente tras recibir una consulta. Huang identificó la computación en tiempo de prueba como un área crítica para impulsar la eficiencia de la IA y reducir costes.

«La Ley de Moore fue muy importante en la historia de la informática porque redujo los costes de computación», señaló Huang. «Lo mismo va a ocurrir con la inferencia: aumentaremos el rendimiento y, como resultado, el coste de la inferencia será menor».

Huang reveló que los actuales chips de IA de Nvidia son 1.000 veces más potentes que los desarrollados hace una década, un ritmo que supera con creces la duplicación del rendimiento cada dos años dictada por la Ley de Moore. Este progreso acelerado ha contribuido a la reciente tendencia a la baja de los costes de los modelos de IA, un fenómeno que Huang espera que continúe a medida que evolucionen los modelos de razonamiento de IA.

A largo plazo, Huang prevé que los modelos de razonamiento de IA creen un bucle de retroalimentación para seguir innovando. «Los modelos de razonamiento de IA podrían utilizarse para crear mejores datos para el preentrenamiento y el postentrenamiento de los modelos de IA», explicó.

Los rápidos avances de Nvidia llegan en un momento crítico para la industria de la IA, que depende en gran medida de sus chips para la innovación. Con su enfoque holístico del desarrollo y su atención a la optimización de la inferencia, Nvidia pretende mantener su liderazgo al tiempo que reduce los costes y aumenta la accesibilidad.

A medida que los modelos de IA se vuelven más capaces y asequibles, las innovaciones de Nvidia pueden definir la próxima era de la computación, superando los puntos de referencia establecidos por la Ley de Moore y remodelando potencialmente la forma en que la industria mide el progreso. Las audaces afirmaciones de Huang, respaldadas por mejoras de rendimiento tangibles, ponen de manifiesto el compromiso de Nvidia por mantenerse a la vanguardia del desarrollo de la IA.