Elon Musk, el controvertido CEO de Tesla y SpaceX, ha iniciado un importante proyecto de inteligencia artificial dentro de Twitter, a pesar de haber abogado previamente por un cese en toda la industria de la capacitación en IA.
Un reporte reciente reveló que la compañía ha adquirido alrededor de 10,000 GPU y ha reclutado talento de inteligencia artificial de DeepMind para el proyecto que involucra un modelo de lenguaje grande (LLM).
Elon Musk compró miles de GPUs para nuevo proyecto de inteligencia artificial en Twitter
Según señalan desde Business Insider, este proyecto aún se encuentra en su fase inicial, pero la adquisición de una cantidad significativa de poder computacional sugiere el compromiso de Musk para avanzar en él. Aunque el propósito exacto de la IA generativa no está claro, se especula que las posibles aplicaciones incluyen mejorar la funcionalidad de búsqueda o generar contenido publicitario dirigido.
En cuanto al hardware exacto adquirido por Twitter, aún no se ha especificado. Se sabe que la compañía ha gastado decenas de millones de dólares en estas GPU de cómputo, a pesar de sus continuos problemas financieros. Se espera que estas unidades de procesamiento se implementen en uno de los dos centros de datos restantes de Twitter, siendo Atlanta el destino más probable. Musk cerró el centro de datos principal de Twitter en Sacramento a fines de diciembre, lo que obviamente redujo las capacidades informáticas de la empresa.
Twitter también está contratando ingenieros adicionales para el proyecto de IA generativa. A principios de este año, la empresa contrató a Igor Babuschkin y Manuel Kroiss, ingenieros de investigación de inteligencia artificial de DeepMind, una subsidiaria de Alphabet. Musk ha estado buscando activamente talento en la industria de la IA para competir con ChatGPT de OpenAI desde al menos febrero.
OpenAI, que actualmente es un referente entre las empresas de IA, utilizó las GPU A100 de Nvidia para entrenar su bot ChatGPT y continúa usando estas máquinas para ejecutarlo. Por ahora, Nvidia ha lanzado el sucesor del A100, sus GPU de cómputo H100 que son varias veces más rápidas con aproximadamente la misma potencia. Es probable que Twitter use el Hopper H100 de Nvidia o un hardware similar para su proyecto de IA, aunque esto es pura especulación.
Teniendo en cuenta que la empresa aún tiene que determinar para qué se utilizará su proyecto de IA, es difícil estimar cuántas GPU Hopper puede necesitar. Sin embargo, cuando las grandes empresas compran hardware, lo hacen a precios especiales, ya que adquieren miles de unidades. Mientras tanto, cuando se compran por separado de minoristas como CDW, las placas H100 de Nvidia pueden costar más de $ 10,000 dólares por unidad, lo que da una idea de cuánto podría haber gastado la compañía en hardware para su iniciativa de IA.