Esto, como es obvio, supondrá una auténtica revolución, tanto tecnológica como empresarial, y en este artículo os contamos en qué se traducirá esto.
ChatGPT tendrá su propio chip
Este nuevo chip llegará con la idea clara de reducir de golpe la dependencia que OpenAI tiene actualmente de fabricantes como Nvidia o AMD, cuyos chips gráficos son el pilar para entrenar gigantescos modelos de IA. De hecho, el crecimiento de la demanda de estas GPU ha disparado los precios y ha generado una competencia feroz entre las grandes tecnológicas. Amazon, Google, Microsoft y Meta ya llevan tiempo desarrollando sus propios chips de inteligencia artificial, y ahora OpenAI se suma a esta carrera con una apuesta que puede marcar la diferencia.
Este proyecto lleva ya tiempo en boca de toda la industria. Desde hace más de un año comenzaron a filtrarse rumores sobre un acuerdo con Broadcom para el codesarrollo del chip, que después sería fabricado por TSMC, la compañía taiwanesa que produce procesadores para Apple, entre otros. Además, OpenAI fichó a Richard Ho, un ingeniero que trabajó en los TPU de Google, para liderar la división de hardware. El equipo pasó de tener 20 miembros a 40 en apenas unos meses, apostando fuerte por el proyecto.
Aunque OpenAI no ha confirmado oficialmente todos los detalles, varias fuentes apuntan a que el acuerdo con Broadcom ya está cerrado. Incluso Reuters informó recientemente de que la compañía habría recibido un pedido de chips de 10.000 millones de dólares por parte de un cliente no identificado, que muchos analistas señalan directamente como OpenAI. Por el momento, se espera que estos procesadores se utilicen de manera interna para optimizar los servicios de la empresa, y no se comercialicen en el mercado.
El propio Sam Altman, CEO de OpenAI, dejó entrever lo ambicioso del proyecto en un mensaje en X, donde aseguró que en los próximos cinco meses la compañía duplicará su capacidad de cómputo. Esta afirmación refleja la enorme necesidad de potencia que requieren sus modelos, cada vez más sofisticados y hambrientos de datos.
Here is how we are prioritizing compute over the next couple of months in light of the increased demand from GPT-5:
— Sam Altman (@sama) August 12, 2025
1. We will first make sure that current paying ChatGPT users get more total usage than they did before GPT-5.
2. We will then prioritize API demand up to the…
¿Por qué este movimiento es tan importante?
Este chip propio tiene consecuencias muy amplias. En primer lugar, supondrá un ahorro estratégico y la independencia frente a proveedores externos. Hasta ahora, OpenAI dependía directamente de Nvidia y AMD, lo que la colocaba en una posición de vulnerabilidad frente a precios, tiempos de entrega y limitaciones de suministro. Con un chip propio, la compañía podrá ajustar el diseño exactamente a sus necesidades y marcar un ritmo de desarrollo mucho más rápido.
En segundo lugar, se trata de un movimiento con un fuerte impacto en el sector tecnológico global. Si OpenAI consigue consolidar su propio chip, no solo reducirá la presión sobre la demanda de GPU tradicionales, sino que también acelerará la transición hacia una nueva era en la que cada gran empresa contará con su propio hardware de inteligencia artificial. Es un cambio de paradigma que recuerda a lo que ocurrió en el mundo de los smartphones cuando Apple decidió fabricar sus propios procesadores para el iPhone.
Y las consecuencias también llegarán al usuario final. Aunque estos chips no se venderán directamente a consumidores, su uso permitirá que ChatGPT y otros productos de OpenAI funcionen con mayor rapidez, menos coste y más eficiencia energética. Esto se traducirá en una IA más accesible y potente, con mejoras constantes que no dependerán de los calendarios de otros fabricantes.
Además, este movimiento coincide con el auge de los ordenadores con IA. Los expertos creen que en pocos años la mayoría de ordenadores que se vendan incorporarán NPUs, es decir, procesadores diseñados para ejecutar inteligencia artificial de forma nativa. El salto de OpenAI hacia su propio chip refuerza la idea de que la IA ya no será solo un software que funciona en la nube, sino que cada vez estará más integrada en nuestro día a día.