La amenaza silenciosa que puede alterar los modelos de IA con solo 250 documentos
En el entrenamiento de los modelos de lenguaje grande (LLMs), se tiende a pensar que la calidad y la cantidad masiva de datos son garantes de seguridad. Pero un reciente estudio de Anthropic, en colaboración con el UK AI Safety Institute y el Alan Turing Institute, ha puesto esta idea patas arriba. La investigación ha… <a href="https://wwwhatsnew.com/2025/10/13/la-amenaza-silenciosa-que-puede-alterar-los-modelos-de-ia-con-solo-250-documentos/">Continúa leyendo »</a>