Recientemente, se ha revelado que Microsoft ha implementado un sistema de bloqueo de palabras clave en Copilot Designer, su herramienta de diseño asistida por inteligencia artificial (IA). Este movimiento busca prevenir la generación de imágenes de naturaleza violenta o sexual, una preocupación creciente entre las plataformas de tecnología digital. La decisión de Microsoft se produce tras incidentes donde se crearon deepfakes explícitos de la artista Taylor Swift, lo que sin duda encendió alarmas sobre el potencial mal uso de estas herramientas avanzadas.
En el núcleo de esta situación, se encuentra la complejidad de regular el contenido producido por IA. Microsoft ha decidido bloquear términos específicos como «Pro Choice» y «Four Twenty», así como sus variantes con errores tipográficos intencionales, para evitar que los usuarios generen imágenes explícitas. Al intentar usar estas palabras clave, los usuarios reciben un mensaje de advertencia, señalando la violación de la política de contenido de la plataforma y alertando sobre la posibilidad de suspensión de acceso por infracciones repetidas.
Esta medida refleja una realidad en la que las herramientas de IA, como Copilot, deben ser cuidadosamente monitoreadas para prevenir abusos. A pesar de las buenas intenciones, la capacidad de los actores malintencionados para encontrar lagunas en los sistemas de seguridad es una preocupación constante. El desafío es grande, ya que la tecnología de IA evoluciona rápidamente, ofreciendo tanto oportunidades innovadoras como riesgos potenciales.
La acción de Microsoft no surgió de la nada. Fue en respuesta a la preocupación expresada por uno de sus ingenieros, Shane Jones, quien compartió su inquietud tanto con la Comisión Federal de Comercio (FTC) de EE.UU. como con la junta directiva de Microsoft. La visibilidad de deepfakes explícitos de Taylor Swift, generados presumiblemente con Copilot, subraya la importancia de estas preocupaciones. La diligencia de Jones en comunicar los riesgos asociados con la generación de imágenes inapropiadas mediante IA desde diciembre de 2023 ha sido fundamental en la toma de decisiones de Microsoft.
Está claro que es imprescindible que empresas como Microsoft tomen medidas proactivas para evitar el mal uso de sus tecnologías. Sin embargo, el hecho de que estas medidas sean necesarias pone de relieve los desafíos éticos y morales que enfrentamos en esta era digital. Esperemos que algún día la IA sea suficientemente lista como saber exactamente lo que está generando, y prohibir según el resultado, no según el prompt utilizado.