Científicos del MIT crean TextFooler, para buscar debilidades en modelos de aprendizaje automático

Los modelos de Inteligencia Artificial que utilizan métodos de procesamiento de lenguaje natural son, como todo en la vida, lejos de ser perfectos, necesitando evolucionar constantemente para que puedan entender mejor las instrucciones de los usuarios, ya que estos pueden manifestar sus intereses concretos de diferentes maneras, y pueden darse casos que el cambio de una simple palabra, sin alterar el significado de lo que desean expresar, pueda dar como resultado un entendimiento diferente.

Y para ponerlos a prueba, tratando de engañarlos, y conocer las debilidades de los mismos, por muy avanzados que estén, aunque este no sea el objetivo final, científicos del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) del MIT han desarrollado a TextFooler, un sistema de confrontación que permitirá detectar eficazmente las debilidades existentes en los modelos de Inteligencia Artificial con procesamiento de lenguaje natural mediante engaños.
Continúa leyendo «Científicos del MIT crean TextFooler, para buscar debilidades en modelos de aprendizaje automático»