La supercomputadora “Colossus”, desarrollada por la empresa de inteligencia artificial xAI, propiedad de Elon Musk, ya opera con 200.000 GPU Nvidia H100 y avanza rápidamente hacia su objetivo de alcanzar el millón de unidades. La primera fase del proyecto ya está en funcionamiento en Memphis, Tennessee, donde el clúster se ha conectado a la red eléctrica principal de la ciudad para satisfacer sus enormes requerimientos energéticos.

El superclúster, destinado al entrenamiento de modelos de lenguaje a gran escala (LLM), comenzó con 100.000 aceleradores de IA en 2024, pero duplicó esa capacidad a 200.000 en menos de tres meses. Su despliegue ha sido vertiginoso: la construcción de Colossus tomó apenas 122 días y su expansión se realizó en otros 92.

Para operar esa infraestructura, xAI necesita al menos 150 megavatios (MW) de potencia eléctrica. Al inicio del proyecto, solo contaba con 7 MW provenientes de la red, por lo que la compañía debió recurrir a generadores de gas natural, lo que provocó quejas entre residentes locales por el ruido y las emisiones. Actualmente, la conexión con la red de Memphis está resuelta, y la supercomputadora también cuenta con 150 MW adicionales almacenados en baterías Tesla para respaldo energético.

El avance técnico de xAI no se detiene. Musk planea una segunda fase del proyecto, que requerirá una subestación adicional para suministrar hasta 300 MW de electricidad. Se espera que esta ampliación esté lista para el otoño boreal de 2025, a medida que la empresa aumente la cantidad de GPU en operación.

Colossus ya es utilizado por xAI para entrenar Grok, el chatbot desarrollado por la compañía y disponible en la red social X (ex Twitter). En abril, xAI lanzó la versión beta de Grok 3, que permite a los s visualizar no solo las respuestas generadas, sino también el razonamiento detrás de ellas.