Skip to content
WWWhat's New
  • Inicio
  • Inteligencia Artificial
  • Educación
  • Productividad
  • Contacto

Meta sustituye moderadores humanos por IA: detecta el doble de contenido sexual y reduce errores un 60%

Publicado el 22 marzo, 2026

Ilustración de la convergencia entre el cerebro humano y la inteligencia artificial.

Meta ha anunciado el despliegue de nuevos sistemas de IA para la moderación de contenido en Facebook e Instagram que, según la compañía, detectan el doble de solicitudes de contenido sexual para adultos que los equipos humanos de revisión, con una tasa de error un 60% inferior. A medida que estos sistemas demuestren superar consistentemente los métodos actuales, Meta reducirá su dependencia de proveedores externos de moderación de contenido, delegando en la IA las tareas repetitivas —como la revisión de contenido gráfico o la detección de tácticas cambiantes de estafadores y vendedores de droga— mientras los humanos se concentran en las decisiones más complejas y de mayor impacto.

El movimiento llega en un momento tenso: Meta ha relajado progresivamente sus reglas de moderación desde que Donald Trump accedió a su segundo mandato, eliminó su programa de fact-checking externo en favor de un modelo tipo Community Notes, y enfrenta múltiples demandas por daños a menores en sus plataformas.

¿Qué hace exactamente la IA de moderación?

Según Meta, los nuevos sistemas cubren varias áreas críticas. En terrorismo, explotación infantil, drogas, fraude y estafas, la IA identifica y retira contenido de forma más rápida y precisa que los métodos actuales. En suplantación de identidad, los sistemas detectan cuentas falsas que se hacen pasar por celebridades y otras figuras públicas, y también previenen el robo de cuentas detectando señales como inicios de sesión desde ubicaciones nuevas, cambios de contraseña o ediciones inusuales en perfiles.

En cuanto a estafas, los sistemas identifican y mitigan unas 5.000 intentos diarios de phishing —mensajes diseñados para engañar a los usuarios y que entreguen sus credenciales de acceso—. Esto complementa las funciones antifraude que Meta desplegó recientemente en WhatsApp, Messenger y Facebook.

Meta insiste en que los humanos seguirán tomando las decisiones de mayor riesgo: apelaciones de desactivación de cuentas, reportes a las fuerzas de seguridad y diseño, entrenamiento y evaluación de los propios sistemas de IA. «Los expertos diseñarán, entrenarán, supervisarán y evaluarán nuestros sistemas de IA, midiendo el rendimiento y tomando las decisiones más complejas y de mayor impacto», explica Meta en su comunicado.

Un asistente de soporte con IA, disponible 24/7

Junto con la moderación automatizada, Meta ha lanzado un asistente de soporte basado en IA que ofrece atención 24/7 en las apps de Facebook e Instagram (iOS y Android) y en el Help Center de escritorio. El despliegue es global.

Para una empresa que históricamente ha sido criticada por la dificultad de contactar con soporte humano —cualquiera que haya intentado recuperar una cuenta bloqueada de Facebook sabe de lo que hablo—, delegar el primer nivel de atención a una IA tiene sentido. La pregunta es si la IA será capaz de resolver los casos reales que frustran a los usuarios o si se convertirá en otra capa de burocracia automatizada.

El contexto importa: menos moderación externa, más control interno

Este anuncio no ocurre en el vacío. En el último año, Meta ha tomado varias decisiones que reducen la moderación externa de contenido: eliminó el programa de verificación de hechos por terceros, flexibilizó restricciones sobre «temas de discurso general» y animó a los usuarios a personalizar su exposición a contenido político.

Sustituir moderadores externos por IA interna puede leerse de dos maneras. La lectura optimista: la IA es más rápida, más consistente y no sufre el trauma psicológico documentado que padecen los moderadores humanos que revisan contenido gráfico a diario. La lectura escéptica: Meta reduce costes y control externo mientras centraliza las decisiones de moderación en sistemas opacos cuyo funcionamiento interno no es auditable públicamente.

Mi valoración: los números que Meta presenta son prometedores —el doble de detección con un 60% menos de errores es significativo—, pero la moderación de contenido no es solo un problema técnico. Es un problema de confianza. Y la confianza se construye con transparencia, no con comunicados. Sería útil que Meta publicara auditorías independientes de estos sistemas de IA, con datos reales sobre falsos positivos, falsos negativos y sesgo por idioma o cultura. Hasta entonces, la promesa de «IA mejor que humanos para moderar» merece el beneficio de la duda, pero también un escrutinio proporcional al poder que implica.

Preguntas frecuentes

¿Qué va a moderar la IA de Meta? Contenido relacionado con terrorismo, explotación infantil, drogas, fraude, estafas, suplantación de identidad y solicitudes sexuales. También detectará intentos de phishing y robo de cuentas.

¿Desaparecen los moderadores humanos? No completamente. Los humanos seguirán tomando las decisiones de mayor riesgo (apelaciones, reportes a autoridades) y supervisarán el diseño y evaluación de los sistemas de IA. Los proveedores externos sí se reducirán progresivamente.

¿Cuántos intentos de estafa detecta al día? Aproximadamente 5.000 intentos de phishing diarios, según Meta.

¿Está disponible el asistente de soporte con IA? Sí, se está desplegando globalmente en las apps de Facebook e Instagram (iOS y Android) y en el Help Center de escritorio.

Publicado en
  • Inteligencia Artificial
Etiquetado
IA antifraude Meta 2026Meta IA moderación contenidoMeta inteligencia artificial Facebook InstagramMeta reduce moderadores externosmoderación automática redes sociales

Comparte en:

por Natalia Polo

Revisa las Categorías de Wwwhat's New
  • Comunicación
  • Programación y Diseño
  • Internet
  • Redes Sociales
  • ChatGPT
  • Acerca de WWWhat’s New
  • Colaboradores
  • Contacto
  • Contratos de Publicidad
  • Referencias

Iconos de Fontawesome.com

(cc) 2005-2026 Algunos derechos reservados con licencia Creative Commons - Referencia con enlace obligatorio sin uso comercial | Aviso Legal, Cookies y Política de Privacidad

Desarrollado y hospedado por SietePM SpA