La supercomputadora que ejecuta el modelo de lenguaje Grok de xAI cuenta con más de 100.000 GPU —unidad de procesamiento de gráficos—, pero su fundador, Elon Musk, quiere ampliar ese número. Si el también dueño de Tesla y Space X se sale con la suya, la máquina xAI Colossus pronto contará con 1 millón de GPU, indicó ExtremeTech.

Según Musk, este cambio mejorará la inteligencia artificial de la compañía, pero no es la única que intenta mejorar los chatbots lanzando hardware al problema.

Colossus se construyó con 100.000 aceleradores de IA Nvidia H100 Hopper. Estas tarjetas se basan en la misma microarquitectura Lovelace que las tarjetas gráficas Nvidia RTX serie 40. La versión utilizada en estas cargas de trabajo de inferencia de alto nivel incluye una interfaz de datos más rápida y una asignación mucho mayor de memoria de alta velocidad. Esto convierte al H100 en el principal acelerador de IA del mundo hasta que Nvidia resuelva los problemas de calor de Blackwell.

Musk lanzó su empresa de inteligencia artificial hace aproximadamente un año, mucho después de que empresas como Google y Microsoft comenzaran a invertir dinero en su infraestructura de inteligencia artificial. Entonces, xAI todavía se está poniendo al día. Según The Financial Times, ya se ha comenzado a trabajar para ampliar una instalación en Tennessee para albergar la operación de IA. Según se informa, Nvidia, Dell y Supermicro establecerán operaciones en el área específicamente para respaldar el proyecto.

Incluso en el mejor de los casos, agregar 900.000 GPU H100 al clúster xAI será increíblemente costoso. Un solo H100 de Nvidia cuesta alrededor de US $25.000, pero puede ser mucho más si necesita recurrir a terceros para obtener estos componentes en demanda. Por lo tanto, la expansión pendiente podría costar más de US$ 20 mil millones solo por el nuevo hardware, lo que no incluye el mayor uso de energía o personal. Pero ese no es un problema insuperable para el hombre más rico del mundo, cuyo patrimonio neto ronda los US$ 300 mil millones.