Elon Musk planea gigafactoria computación IA Grok

Uno de los individuos más adinerados del planeta es Elon Musk, quien incluso llegó a ocupar el puesto número uno en esta lista. El magnate ha sido el fundador de varias compañías, como Tesla, SpaceX o Neuralink, además de la reciente xAI que creó para competir en el campo de la inteligencia artificial. Actualmente, Elon Musk ha revelado sus planes para desarrollar un supercomputadora xAI con el fin de mejorar su IA Grok.

La trayectoria de Elon Musk y su fascinación por la X, algo que se puede observar en muchas de sus empresas, se inició a finales de los años 90 y principios de los 2000. Fue en ese periodo cuando Elon Musk cofundó el banco digital X.com, el cual se fusionó con Confinity en los 2000 para dar origen a PayPal. Esta empresa fue posteriormente adquirida por eBay en 2002 por 1.500 millones de dólares y continúa operando en la actualidad. Estos son los comienzos de Elon Musk, quien un par de años después de PayPal fundó SpaceX, la compañía dedicada a cohetes espaciales y servicios de transporte especial.

Elon Musk pretende desarrollar una supercomputadora utilizando toda la infraestructura de xAI para entrenar su IA Grok

IA Grok-1.5V

Más adelante, asumió el rol de presidente en Tesla, contribuyó en la creación de SolarCity, estuvo involucrado en el proyecto fracasado de Hyperloop, impulsó los chips neurales de Neuralink, adquirió Twitter y lo renombró como X y finalmente puso en marcha xAI. Con esta recapitulación, se puede apreciar que la carrera empresarial de Musk es extensa y abarca diversos sectores, siendo el más reciente el de la inteligencia artificial. Desde la creación de xAI, Elon Musk logró desarrollar su propio modelo de IA llamado Grok, el cual ha recibido varias versiones a lo largo del tiempo.

Para entrenar a Grok 2.0, Elon Musk afirmó que se requirieron 20,000 GPU NVIDIA H100, lo que equivale a una suma considerable si consideramos que cada una tiene un valor aproximado de 30,000 dólares. Sin embargo, estas cifras quedan eclipsadas por las necesidades de Grok 3, ya que Musk mencionó que este modelo requeriría nada menos que 100,000 tarjetas gráficas NVIDIA H100. Es por ello que resulta comprensible cuando Elon Musk señala que, para mejorar su IA Grok, se verá en la necesidad de establecer lo que él describe como una «fábrica gigante de computación«, una supercomputadora orientada al entrenamiento de su inteligencia artificial.

Musk señala que sus planes implican utilizar 4 veces más hardware que sus competidores

Elon Musk xAI chatbot IA GrokElon Musk xAI chatbot IA Grok

Musk les comunicó a los inversores que su estrategia para hacer que Grok 3 sea más inteligente y preciso consiste en conectar todos sus chips y hardware en una sola unidad de cálculo masiva. De esta manera, podemos interpretar este concepto como una supercomputadora en sí misma, encargada de brindar todo el poder de cómputo necesario para la nueva generación de Grok.

Este sistema hará uso de las 100,000 GPU NVIDIA H100 que Elon Musk pretende adquirir, y de acuerdo con sus últimas declaraciones a los inversores, Musk afirmó que este enfoque es 4 veces mayor al utilizado actualmente por los competidores de xAI. En la actualidad, la versión más reciente de la IA que conocimos fue Grok 1.5V, una inteligencia artificial multimodal que se dio a conocer el mes pasado.

En Grupo MET podemos ayudarte a implementar esta y muchas mas herramienta para optimizar tu trabajo. ¡Contáctanos para saber más!

Contactanos