Meta dice adiós al fact-checking: así funcionará su nuevo sistema de verificación colectiva

Publicado el

Meta, la empresa matriz de Facebook, Instagram y Threads, ha decidido cerrar una etapa. A partir de este lunes, dejará de funcionar el programa de verificación de hechos que durante años fue su principal herramienta contra la desinformación. En su lugar, la compañía apuesta por un sistema completamente distinto: las Community Notes, una especie de verificación comunitaria inspirada en el modelo de X (antes Twitter).

¿Pero qué significa realmente esto? ¿Estamos ante el fin de los intentos de controlar la desinformación? ¿O es simplemente un cambio de estrategia? Vamos a desmenuzarlo paso a paso.


¿Qué era el sistema de fact-checking de Meta?

Durante años, Meta colaboró con organizaciones independientes para combatir las noticias falsas. Estas entidades revisaban publicaciones potencialmente engañosas, les asignaban etiquetas (como «parcialmente falso») y, en algunos casos, reducían su visibilidad en los feeds de los usuarios.

Este modelo funcionaba como una especie de “árbitro externo” que evaluaba el contenido compartido en las plataformas. Sin embargo, desde dentro de la empresa siempre hubo cierta incomodidad con las críticas que acusaban al sistema de favorecer ciertos sesgos ideológicos y de actuar como un mecanismo de censura.


El giro de timón: adiós verificadores, hola comunidad

En enero, Mark Zuckerberg anunció el cambio de rumbo: se acabaría la verificación externa en EE. UU. La decisión ya tiene fecha de ejecución: lunes por la tarde. Según Joel Kaplan, el nuevo jefe de políticas públicas de Meta, eso implica que ya no habrá nuevas verificaciones ni verificadores.

La nueva estrategia se llama Community Notes, un sistema que permite a los propios usuarios señalar y añadir contexto a publicaciones dudosas. Es un modelo colaborativo y descentralizado, donde cualquier persona (previo registro y aceptación) puede participar aportando información, siempre que pase ciertos filtros algorítmicos que aseguran su relevancia y objetividad.


¿Cómo funcionan las Community Notes?

Pensemos en este sistema como en un grupo de vecinos que se organizan para vigilar el barrio. En lugar de una autoridad única que dice qué es verdad y qué no, ahora cualquier vecino informado puede tocar la puerta y decir: “Oye, esto que estás compartiendo, quizás deberías mirarlo desde este otro ángulo”.

Las notas comunitarias no bloquean ni penalizan el contenido. Solo añaden información complementaria. Y aquí está una de las claves del cambio: ya no habrá castigos para quien publique algo erróneo, solo contexto adicional para quien lo lea.

Inicialmente, las notas se mostrarán de forma gradual en Facebook, Instagram y Threads, solo en EE. UU. Meta no ha detallado cómo ni cuándo se extenderán a otros países.


¿Por qué este cambio?

Meta justifica la medida como una respuesta a las críticas sobre la censura y la parcialidad de los verificadores externos. Además, el nuevo modelo reduce costos y responsabilidades legales, ya que delega la verificación a los propios usuarios.

Pero el contexto político también juega un papel. Desde que Donald Trump regresó a la presidencia, Meta ha tomado decisiones alineadas con una visión más conservadora: eliminó programas de diversidad corporativa (DEI), suavizó las políticas contra discursos de odio y nombró a aliados cercanos a Trump en su junta directiva.

Todo esto sugiere que la empresa está intentando ganarse el favor de una parte del espectro político que históricamente ha criticado sus políticas de moderación.


¿Qué riesgos implica abandonar el fact-checking profesional?

El problema es que la desinformación no es un asunto menor. No estamos hablando solo de memes o chismes de celebridades, sino de contenido que puede afectar elecciones, decisiones médicas o la seguridad pública.

Expertos y gobiernos fuera de EE. UU. ya han mostrado preocupación. Países como Brasil o entidades como la Unión Europea ven con inquietud la falta de planes claros para aplicar Community Notes fuera del mercado estadounidense.

En estos contextos, donde la polarización y las campañas de desinformación son especialmente intensas, dejar la verificación en manos de la comunidad puede no ser suficiente, sobre todo si el sistema no cuenta con mecanismos sólidos de transparencia y control.


¿Puede funcionar este modelo?

La experiencia de X (Twitter) con Community Notes ha sido mixta. En algunos casos, las notas han ayudado a matizar información viral y han demostrado agilidad. Pero también ha habido episodios donde el sistema fue lento, ineficaz o directamente manipulado.

Para que este modelo funcione, se necesitan varios ingredientes: diversidad de puntos de vista, participación activa, buenos algoritmos de filtrado y transparencia. No es una solución mágica, sino un experimento social a gran escala.

Meta deberá demostrar que puede gestionar todo esto sin repetir los errores del pasado, y sin convertirse en un espacio donde la desinformación se camufla como opinión legítima.


¿Qué significa esto para ti como usuario?

  • Vas a ver más notas explicativas, pero menos advertencias de “contenido falso”.

  • Podrás participar activamente en la verificación, si así lo deseas.

  • Ya no habrá penalizaciones por compartir información dudosa, al menos dentro de EE. UU.

  • Debes ser más crítico al consumir contenido: el filtro ahora eres tú.

Este nuevo enfoque pone la responsabilidad en manos de la comunidad. Pero como con cualquier comunidad, su efectividad dependerá de cómo participemos todos: con empatía, con criterio y con voluntad de aportar claridad, no confusión.