Neurociencia y tecnología: ¿Cómo proteger nuestra objetividad en un mundo digital?

Publicado el

inteligencia artificial

En un mundo cada vez más conectado por la tecnología, la inteligencia artificial y las redes sociales han cambiado drásticamente la forma en que interactuamos y compartimos información. Aunque estas innovaciones han abierto un sinfín de oportunidades para el crecimiento individual y comunitario, también han traído consigo desafíos significativos que amenazan la integridad de nuestras democracias.

Harris Eyre, un experto en neurociencia del Instituto Baker de Políticas Públicas de la Universidad de Rice, Estados Unidos, aboga por la implementación de un «Neuroescudo Digital» como una solución para enfrentar estos desafíos.

La disrupción de la realidad y la propagación de desinformación

La creciente adopción de la inteligencia artificial y las redes sociales ha permitido que la información llegue a más personas en todo el mundo. Sin embargo, esto también ha llevado a la difusión de desinformación y noticias falsas, lo que representa una amenaza directa para el funcionamiento de nuestras democracias.

Eyre enfatiza que la forma en que interpretamos la realidad y aprendemos está estrechamente relacionada con la estructura de nuestro cerebro, y la rápida evolución tecnológica puede haber dejado a nuestras mentes vulnerables y expuestas.

Para abordar estos problemas, Eyre propone el concepto de un Neuroescudo Digital, que funcione como una barrera defensiva contra la manipulación y la desinformación.

El Neuroescudo implicaría un enfoque triple que combinaría el desarrollo de un código de conducta, la implementación de regulaciones y la creación de herramientas educativas para los ciudadanos.

El código de conducta y la objetividad de la información

El informe argumenta que la cooperación entre diferentes actores, como editores, periodistas, líderes de medios y científicos del cerebro, puede ayudar a desarrollar un «código de conducta» que promueva la objetividad de la información.

Si bien es esencial proteger la libertad social y política en la interpretación de los hechos, también es crucial garantizar la veracidad de la información. La neurociencia muestra que la ambigüedad en la comprensión de los hechos puede llevar a la formación de «verdades alternativas» que se arraigan profundamente en nuestros cerebros.

Herramientas educativas para combatir la desinformación

Además del código de conducta, el Neuroescudo Digital se apoyaría en un conjunto de herramientas educativas diseñadas en colaboración con neurocientíficos. El objetivo principal de estas herramientas sería empoderar a las personas, especialmente a los jóvenes en las redes sociales, para que aprendan a verificar los hechos por sí mismos y se protejan contra la susceptibilidad del cerebro al sesgo y la desinformación.

Iniciativas como las campañas de Google que muestran videos cortos en redes sociales, destacando la identificación de afirmaciones engañosas, pueden ser un ejemplo de cómo se pueden implementar estas herramientas.

El papel de los formuladores de políticas y los neurocientíficos

Eyre advierte que el mero establecimiento de un código de conducta y la entrega de herramientas educativas no son suficientes para garantizar una protección efectiva contra la manipulación de la IA y las redes sociales. Es fundamental involucrar tanto a los formuladores de políticas como a los investigadores en neurociencia dentro de este proceso.

Por ejemplo, la Ley Europea de IA propuesta podría servir como modelo, ya que busca responsabilizar a los proveedores de modelos de IA y garantizar la transparencia. La colaboración estrecha con los neurocientíficos permitiría aprovechar los conocimientos actuales sobre el funcionamiento de nuestra cognición para desarrollar políticas más sólidas y efectivas.