Los chatbots de IA fallan en precisión al informar noticias, según estudio de la BBC

Un nuevo estudio de la BBC ha revelado que los asistentes de inteligencia artificial tienen serios problemas para proporcionar información precisa sobre noticias actuales. La investigación evaluó la capacidad de plataformas como ChatGPT, Microsoft Copilot, Google Gemini y Perplexity para responder preguntas relacionadas con noticias y citar artículos de la BBC como fuente.

Continúa leyendo «Los chatbots de IA fallan en precisión al informar noticias, según estudio de la BBC»

Barcelona marca un hito: abandona X (Twitter) y apuesta por la democracia digital

En un movimiento sin precedentes en España, el Ayuntamiento de Barcelona, liderado por Jaume Collboni, ha decidido cerrar sus cerca de 80 canales en la red social X (anteriormente conocida como Twitter). Esta acción convierte a la ciudad en la primera gran urbe del país en dar este paso, argumentando una preocupación por la «espiral de desinformación» y la permisividad con contenidos extremistas que caracterizan a la plataforma.

Continúa leyendo «Barcelona marca un hito: abandona X (Twitter) y apuesta por la democracia digital»

Google rechaza cumplir con la ley de verificación de datos de la UE

En un movimiento que podría generar tensiones significativas con la Unión Europea, Google ha anunciado que no cumplirá con una próxima ley que exige la implementación de verificación de datos en sus plataformas. Según una carta obtenida por Axios y firmada por Kent Walker, presidente de asuntos globales de Google, la empresa declaró que integrar mecanismos de verificación de datos «simplemente no es apropiado ni efectivo» para sus servicios.

Continúa leyendo «Google rechaza cumplir con la ley de verificación de datos de la UE»

La ironía de un experto en IA que sucumbe ante los errores de la IA

Un reciente caso en Minnesota ha desatado una oleada de reflexión sobre los riesgos y responsabilidades de confiar en herramientas de inteligencia artificial (IA) en contextos críticos. Un profesor de la Universidad de Stanford experto en inteligencia artificial y desinformación, vio su credibilidad desmoronarse tras presentar evidencia que contenía fuentes falsas generadas por un chatbot. Este episodio no solo pone en entredicho el uso de herramientas de IA, sino también destaca la importancia de verificar rigurosamente la información generada por estas tecnologías.

Continúa leyendo «La ironía de un experto en IA que sucumbe ante los errores de la IA»

El peligro de compartir sin leer: Lo que revela un estudio sobre el comportamiento en redes sociales

En el vasto universo de las redes sociales, compartir contenido se ha convertido en una acción tan automática como respirar. Sin embargo, un reciente estudio publicado en Nature Human Behavior ha puesto en evidencia una tendencia preocupante: el 75% de las publicaciones compartidas en Facebook se realizan sin que los usuarios hayan leído el contenido completo. Este hallazgo no solo expone un comportamiento impulsivo, sino también una potencial contribución al auge de la desinformación.

Continúa leyendo «El peligro de compartir sin leer: Lo que revela un estudio sobre el comportamiento en redes sociales»

Predicciones de amenazas de Ciberseguridad para 2025

El futuro de la ciberseguridad está marcado por la creciente sofisticación de las amenazas y la creatividad de los atacantes. Desde wwwhatsnew.com exploramos las predicciones clave para 2025, basadas en un estudio realizado por NordVPN y NordStellar Analytics, quienes analizaron los foros más importantes de la dark web para identificar las tendencias emergentes.

Continúa leyendo «Predicciones de amenazas de Ciberseguridad para 2025»

Cómo la indignación moral alimenta la propagación de desinformación en redes sociales

Las redes sociales, como Facebook y Twitter, han transformado nuestra manera de interactuar y compartir información, pero también han dado lugar a un fenómeno preocupante: la difusión masiva de desinformación. Un nuevo estudio, publicado en la revista Science, destaca cómo la indignación moral, esa mezcla de enojo y disgusto que sentimos ante ciertas injusticias, es un motor clave detrás de este problema.

Continúa leyendo «Cómo la indignación moral alimenta la propagación de desinformación en redes sociales»

WhatsApp presenta su nueva función de búsqueda inversa de imágenes en Android: ¿Cómo ayuda en la lucha contra la desinformación?

WhatsApp sigue desarrollando herramientas para combatir la desinformación y mejorar la seguridad en sus plataformas. Su última prueba en la versión beta para Android introduce una función que permite a los usuarios realizar una búsqueda inversa de imágenes en la web, facilitando la verificación de fotos sospechosas que puedan recibir en sus chats.

Continúa leyendo «WhatsApp presenta su nueva función de búsqueda inversa de imágenes en Android: ¿Cómo ayuda en la lucha contra la desinformación?»

El Pentágono y su interés en usar IA para crear personas falsas en redes sociales

¿Te imaginas estar en un foro en línea o una red social y descubrir que una de las personas con las que has estado interactuando ni siquiera es real? Pues parece que el Pentágono lo está considerando seriamente. En un movimiento que ha levantado cejas y generado debates, el Pentágono está explorando la posibilidad de utilizar inteligencia artificial generativa para crear personas falsas en internet con fines de recopilación de información. Sí, lo has leído bien: el gobierno de Estados Unidos quiere usar IA para generar perfiles falsos en redes sociales. Algo que, para muchos, roza lo distópico.

Continúa leyendo «El Pentágono y su interés en usar IA para crear personas falsas en redes sociales»

DeepFake-o-Meter: La herramienta que democratiza la detección de deepfakes

La difusión de información engañosa en internet puede ser extremadamente rápida. Aunque existen herramientas para detectar deepfakes —falsificaciones creadas por inteligencia artificial (IA) en fotos, videos o audios—, estas suelen estar reservadas a investigadores y expertos. Sin embargo, esto está cambiando gracias a DeepFake-o-Meter, una plataforma de código abierto desarrollada por el equipo de la Universidad de Buffalo, liderado por el experto en deepfakes Siwei Lyu.

Continúa leyendo «DeepFake-o-Meter: La herramienta que democratiza la detección de deepfakes»