Investigadores recrean la tecnología de DeepSeek por solo 30 dólares: ¿un avance revolucionario en IA?

Publicado el

deepseek

En el mundo de la inteligencia artificial, los modelos desarrollados por empresas como OpenAI, Google y Microsoft requieren enormes inversiones en infraestructura y entrenamiento. Sin embargo, un equipo de investigadores de la Universidad de California, Berkeley, ha logrado una hazaña sorprendente: recrear la tecnología central del modelo DeepSeek AI por tan solo 30 dólares. Este hallazgo pone en tela de juicio la idea de que solo los gigantes tecnológicos pueden desarrollar modelos de IA avanzados.

¿Qué es DeepSeek AI?

DeepSeek AI es una de las más recientes innovaciones en inteligencia artificial proveniente de China. Su modelo insignia, DeepSeek R1-Zero, destaca por su capacidad de aprendizaje por refuerzo, lo que le permite mejorar sus respuestas de manera autónoma a través de iteraciones sucesivas. Aunque DeepSeek se ha posicionado como un rival de OpenAI en algunos aspectos, también ha generado preocupaciones por la cantidad de datos que envía de vuelta a China, lo que ha llevado a restricciones en algunos países.

El experimento de Berkeley: IA avanzada con pocos recursos

Bajo el liderazgo del candidato a doctorado Jiayi Pan, el equipo de Berkeley logró replicar las capacidades fundamentales de DeepSeek utilizando un modelo de lenguaje pequeño con solo 3 mil millones de parámetros. A pesar de su tamaño modesto, la IA demostró habilidades clave como autoverificación y búsqueda, que le permitieron refinar sus propias respuestas iterativamente.

Para evaluar su rendimiento, los investigadores usaron el juego Countdown, un desafío matemático basado en un programa de televisión británico. Inicialmente, la IA generaba respuestas al azar, pero mediante aprendizaje por refuerzo, desarrolló técnicas para autocorregirse y resolver problemas numéricos de manera más eficiente. Además, demostró su capacidad de descomponer ecuaciones matemáticas utilizando la propiedad distributiva, imitando la forma en que los humanos suelen abordar multiplicaciones complejas mentalmente.

Costos y eficiencia: ¿es posible hacer IA barata?

Lo más sorprendente del experimento fue el costo: tan solo 30 dólares. Esto contrasta drásticamente con las cifras astronómicas que las grandes tecnológicas invierten en entrenar modelos de IA. Para dar un poco de contexto, OpenAI cobra 15 dólares por millón de tokens mediante su API, mientras que DeepSeek ofrece un precio significativamente menor de 0.55 dólares por millón de tokens. Aun así, los investigadores de Berkeley lograron demostrar que el aprendizaje por refuerzo y la mejora progresiva pueden lograrse con presupuestos mínimos.

Dudas sobre la economía de DeepSeek

Si bien este descubrimiento es impresionante, también plantea interrogantes sobre los costos reales de entrenar y operar modelos de IA a gran escala. El investigador Nathan Lambert ha expresado dudas sobre las cifras divulgadas por DeepSeek, que alega haber entrenado su modelo de 671 mil millones de parámetros por 5 millones de dólares. Según Lambert, los costos anuales de operación de DeepSeek podrían oscilar entre 500 millones y más de 1.000 millones de dólares, considerando infraestructura, consumo de energía y gastos en personal de investigación.

Otro punto de controversia es la posibilidad de que DeepSeek haya sido entrenado utilizando ChatGPT de OpenAI, lo que podría haber reducido significativamente sus costos iniciales. Esto pone en duda si realmente se trata de una solución innovadora o simplemente una optimización basada en modelos preexistentes.

¿Qué significa esto para el futuro de la IA?

Desde WWWhat’s New creemos que este hallazgo podría marcar un punto de inflexión en el desarrollo de IA. Si la investigación de Berkeley demuestra que es posible entrenar modelos avanzados con presupuestos reducidos, podría democratizar el acceso a la IA, permitiendo que universidades, pequeñas empresas y desarrolladores independientes entrenen sus propios modelos sin depender de las grandes corporaciones.

A pesar de esto, también es importante considerar las limitaciones. Si bien la IA de Berkeley logró replicar aspectos clave del aprendizaje por refuerzo, no se compara con modelos como GPT-4 o DeepSeek en términos de escala y capacidad. La diferencia de parámetros sigue siendo abismal y, aunque los costos pueden reducirse, el procesamiento de grandes volúmenes de datos seguirá requiriendo infraestructuras robustas.

El experimento de Berkeley es un recordatorio de que la innovación en IA no está exclusivamente en manos de las grandes tecnológicas. A medida que la investigación avanza, podría ser posible entrenar modelos competitivos con presupuestos considerablemente menores, lo que podría cambiar el panorama de la inteligencia artificial en los próximos años.