El 10 de febrero de 2026, Chile presentó Latam-GPT, un modelo de lenguaje de código abierto concebido para América Latina y el Caribe. El anuncio no se planteó como una carrera para “ganarle” a los gigantes del sector, sino como una manera de tener voz propia en una industria donde la mayoría de herramientas se entrenan, se prueban y se afinan con prioridades culturales del Norte Global. En el acto, el presidente Gabriel Boric insistió en la idea de que la región debe participar como actor y no solo como usuaria, una frase que condensa bien el espíritu del proyecto: sentarse a la mesa con herramientas propias.
Por qué el sesgo “US-céntrico” no es un detalle menor
Cuando hablamos de sesgo en IA, no se trata solo de que el modelo “se equivoque”. El problema es más cotidiano: si la IA aprendió principalmente de textos en inglés y de contextos estadounidenses, tiende a responder como si ese fuera el centro del mapa. Es como pedir recomendaciones de cocina a alguien que solo ha leído recetarios de un país: puede cocinar bien, pero confundirá ingredientes, subestimará tradiciones y simplificará identidades.
En el caso latinoamericano, ese desajuste aparece en estereotipos, generalizaciones y respuestas que no captan referencias culturales, formas locales de humor, ni el peso histórico de ciertos conceptos. Desde el Gobierno chileno y el Ministerio de Ciencia se presentó Latam-GPT como una herramienta para reducir ese tipo de prejuicios y para proteger una parte de la memoria cultural que, si no se incorpora en los datos, queda fuera de la conversación automatizada.
Qué es Latam-GPT y qué lo hace distinto
Latam-GPT es un LLM (gran modelo de lenguaje) entrenado con un volumen significativo de información recolectada en la región, con el objetivo de entender mejor sus contextos. Su promesa central no es “ser más inteligente” en abstracto, sino ser más pertinente en tareas donde el contexto importa: cómo se escribe en medios locales, cómo se habla en un call center, cómo se redacta un trámite, cómo se expresan dudas de salud con modismos o con una mezcla de español y portugués.
La elección por un enfoque abierto también marca una diferencia relevante frente a modelos cerrados. La idea es que universidades, instituciones públicas y empresas puedan adaptar el modelo y construir aplicaciones específicas sin depender por completo de una caja negra. CENIA lo describe como un esfuerzo regional para crear capacidades propias, con una arquitectura abierta y colaborativa.
Datos: el combustible cultural de un modelo regional
Los responsables del proyecto explican que el entrenamiento se apoyó en más de ocho terabytes de datos, una magnitud que se suele comparar con “millones de libros” para hacerse una idea. En términos prácticos, esto busca aumentar la proporción de contenido latinoamericano que el modelo ve durante su aprendizaje, porque en los modelos globales esa porción tiende a ser relativamente pequeña.
Aquí la metáfora útil es la de una biblioteca. Si una IA pasa su infancia leyendo una biblioteca donde casi todo está en inglés y la mayoría de autores comparten referentes estadounidenses, la IA crecerá con ese “sentido común”. Latam-GPT intenta ampliar la estantería con documentos, literatura, prensa, registros y materiales producidos en y sobre la región, con contribuciones de universidades, bibliotecas, fundaciones y organizaciones civiles de distintos países, según se ha descrito en la presentación del proyecto y en reportes posteriores.
Infraestructura y financiación: hacer mucho con poco
Un dato que llama la atención es el presupuesto inicial: alrededor de 550.000 dólares, con financiación destacada de CAF (Banco de Desarrollo de América Latina y el Caribe) y recursos de CENIA. La primera versión se entrenó en infraestructura en la nube (se ha mencionado AWS como base para esa etapa), mientras que las siguientes iteraciones apuntan a entrenarse en un supercomputador en la Universidad de Tarapacá, en el norte de Chile.
Ese contraste —nube hoy, supercomputación local mañana— tiene una lectura política y otra técnica. La política es la soberanía tecnológica: depender menos de infraestructura externa para entrenar y ajustar modelos. La técnica es el control: entrenar en un entorno propio facilita gobernanza, auditorías y experimentos sin costos variables tan impredecibles.
Idiomas, modismos y el reto pendiente de las lenguas indígenas
Por ahora, el foco principal está en español y portugués, lo cual es lógico por volumen de datos y por adopción regional. Los desarrolladores han indicado que el objetivo es incorporar también contenido en lenguas indígenas latinoamericanas.
Aquí conviene ser realistas: integrar lenguas indígenas no es solo “meter textos”. Muchas tienen menor presencia digital, variaciones dialectales, menos material estandarizado y, en algunos casos, consideraciones éticas sobre consentimiento y propiedad cultural. Es un trabajo más parecido a restaurar archivos históricos que a descargar un dataset: requiere acuerdos, participación comunitaria y cuidado para que la IA no se convierta en un altavoz de errores o apropiaciones.
Usos concretos: de hospitales a atención al cliente
El equipo de CENIA ha señalado casos de uso donde un modelo con contexto regional puede marcar diferencias. Se mencionan aplicaciones en el sector salud, por ejemplo, para apoyar a hospitales con problemas logísticos o de asignación de recursos. En la práctica, eso podría significar clasificar solicitudes, sugerir rutas de derivación, resumir información administrativa o ayudar a redactar comunicaciones claras para pacientes, siempre bajo supervisión humana.
En el terreno empresarial, aparece un interés evidente: atención al cliente que entienda jerga local, ritmos de habla, expresiones coloquiales y diferencias entre países. En entrevistas y notas sobre el lanzamiento, emprendedores han subrayado que los clientes valoran que un sistema responda “como se habla aquí”, no como si todo el mundo usara el mismo español neutro. Si una aerolínea o un retailer opera en varios países, la gracia no es solo traducir, sino interpretar intención: no es lo mismo “me quedó la escoba con la compra” que “se me armó un lío”, aunque el problema sea parecido.
Expectativas: utilidad regional antes que competir por el “podio”
También han surgido voces que ponen los pies en la tierra: con ese presupuesto, Latam-GPT no apunta a superar a modelos comerciales masivos en rendimiento general. La comparación sería injusta, como medir a un equipo local contra una selección con presupuesto de liga millonaria. La apuesta es otra: construir una base pública, adaptable, que sirva como infraestructura de conocimiento y como punto de partida para derivaciones, productos y políticas.
Esa visión encaja con una tendencia internacional: regiones que impulsan modelos abiertos para reflejar sus normas, lenguas y prioridades. En reportes sobre Latam-GPT se han citado precedentes como modelos abiertos en el Sudeste Asiático o proyectos orientados a servicios en lenguas africanas, una señal de que el debate ya no es solo “quién tiene el modelo más grande”, sino quién tiene modelos que representen mejor a su gente.
