WWWhat's new

¿Es realmente abierto el modelo de lenguaje Llama 2 de Meta?

llama

¿Es el modelo de lenguaje Llama 2 de Meta un verdadero ejemplo de código abierto o simplemente una estrategia de marketing? La respuesta no es tan sencilla como podría parecer. Vamos a explorar los matices detrás de esta polémica y lo que significa para el futuro de la inteligencia artificial (IA).

El dilema del código abierto se centra en criterios establecidos por la Iniciativa de Código Abierto (OSI). Aunque Llama 2 se presenta como un modelo abierto, no cumple con todos estos requisitos, lo que ha generado críticas tanto del ámbito académico como del público general.

Llama 2 de Meta no cumple con todos los requisitos de la Iniciativa de Código Abierto (OSI) por varias razones clave.

Joelle Pineau, vicepresidenta de investigación en IA de Meta, argumenta que estas restricciones son un compromiso necesario. Según Pineau, el enfoque limitado de Meta hacia la apertura ha beneficiado a sus proyectos de IA, permitiendo un enfoque más centrado y seguro. Este enfoque cauteloso también se refleja en cómo Meta maneja la liberación de código que podría ser potencialmente peligroso, poniendo la seguridad como una consideración clave.

Meta no es nuevo en el mundo del código abierto. Su lenguaje de programación de aprendizaje automático PyTorch es un ejemplo de un proyecto más alineado con los principios de código abierto. Además, la empresa participa en grupos industriales como Partnership on AI y MLCommons para desarrollar estándares y pautas para el despliegue seguro de modelos de IA. A diferencia de Meta, otros grandes jugadores como OpenAI han retrocedido en su compromiso con el código abierto, citando preocupaciones de competitividad y seguridad.

La mayoría de las empresas de IA cerradas, incluida Meta, no comparten detalles sobre la recopilación de datos para crear sus conjuntos de entrenamiento de modelos. Este punto resalta la necesidad de evolucionar el panorama de licencias para manejar las complejidades de los modelos de IA. Un informe reciente de Stanford subraya la importancia de discutir los riesgos potenciales y la responsabilidad en los modelos de IA, un aspecto a menudo pasado por alto en las discusiones sobre código abierto.

En The Verge tratan bastante este tema

Salir de la versión móvil