Estafadores se hacen pasar por agentes ICE en WhatsApp y vacían los ahorros de inmigrantes: las quejas se han duplicado desde la elección de Trump

Las estafas migratorias en WhatsApp acaban de tener su caso más documentado. Lo cuentan Naisha Roy, Francesca D’Annunzio y J. David McSwane en una investigación conjunta de ProPublica publicada por Gizmodo este 1 de mayo. Jasmir Urbina, una solicitante de asilo nicaragüense de 35 años, residía legalmente con su marido en Nueva Orleans mientras esperaba su día en la corte de inmigración de Estados Unidos. Tras ver que la administración Trump iba a desplegar agentes federales en su zona con la «Operation Swamp Sweep», buscó ayuda en Facebook, donde encontró un anuncio que parecía de Catholic Charities, una de las organizaciones de ayuda a inmigrantes con mejor reputación del país. Continúa leyendo «Estafadores se hacen pasar por agentes ICE en WhatsApp y vacían los ahorros de inmigrantes: las quejas se han duplicado desde la elección de Trump»

Copy Fail: la vulnerabilidad de Linux que lleva 9 años escondida y permite obtener root con un script de 732 bytes

Los fundamentos de la seguridad de Linux acaban de tener un mal día. Lo cuenta The Verge este 30 de abril a partir de la divulgación de Theori, la firma de seguridad coreana que descubrió el bug. CVE-2026-31431, conocida cómo «Copy Fail», es una vulnerabilidad en el módulo criptográfico authencesn del kernel de Linux que permite a cualquier usuario local sin privilegios obtener acceso root en prácticamente todas las distribuciones de Linux desde 2017. La explotación es trivial: un script de Python de 732 bytes (10 líneas) usando solo módulos de la biblioteca estándar, ningún payload compilado, ninguna instalación de dependencias. Continúa leyendo «Copy Fail: la vulnerabilidad de Linux que lleva 9 años escondida y permite obtener root con un script de 732 bytes»

Moltbook, la red social donde conversan los agentes de IA

En internet ya hemos visto comunidades para casi cualquier cosa, pero Moltbook plantea un giro curioso: un espacio “tipo Reddit” diseñado para que publiquen y comenten agentes de IA, mientras los humanos, por ahora, miramos desde la grada. La idea ha circulado con fuerza desde finales de enero de 2026, impulsada por lo llamativo del concepto y por la sensación de estar asomándose a una escena de ciencia ficción que se escapó del guion. Según contó Gizmodo, la plataforma se inspira en el fenómeno viral de Moltbot, el agente que terminó rebautizado como OpenClaw tras varios cambios de nombre, y está impulsada por Matt Schlicht, CEO de Octane AI.

El atractivo inmediato es fácil de entender: si durante años hemos usado chatbots como si fueran un mostrador de atención al cliente, Moltbook intenta convertirlos en vecinos de un barrio digital, con conversaciones aparentemente espontáneas, publicaciones que se votan y comunidades temáticas. Gizmodo señalaba que ya había decenas de miles de cuentas de agentes registradas y más de un centenar de “submolts”, que funcionan como subforos. Continúa leyendo «Moltbook, la red social donde conversan los agentes de IA»

Los versos que abren jaulas: cómo la poesía está desafiando la seguridad de los chatbots de IA

En un reciente estudio liderado por investigadores del Icaro Lab, vinculado a la Universidad de La Sapienza en Roma y la empresa DexAI, se descubrió que la poesía puede ser una herramienta eficaz para esquivar los filtros de seguridad de los chatbots de inteligencia artificial. Aunque parezca extraño, los sistemas diseñados para evitar la generación de contenido peligroso o prohibido pueden ser engañados si las peticiones se presentan en forma de poema.

Este hallazgo inquietante sugiere que los modelos de lenguaje más avanzados, como los desarrollados por OpenAI, Google, Meta, Anthropic o xAI, todavía tienen vulnerabilidades profundas en su arquitectura de seguridad. En concreto, los investigadores demostraron que no hace falta ser un experto en código o ciberseguridad para lograr que una IA diga lo que no debería: bastaría con una buena dosis de creatividad literaria. Continúa leyendo «Los versos que abren jaulas: cómo la poesía está desafiando la seguridad de los chatbots de IA»

Los riesgos ocultos de los robots con IA: lo que revelan los nuevos estudios

Los robots que integran modelos de lenguaje de gran escala (LLM) están ganando terreno en tareas que van desde la asistencia en el hogar hasta la interacción en entornos laborales. Sin embargo, una investigación conjunta de Carnegie Mellon University y el King’s College de Londres revela un panorama preocupante: estos sistemas no están preparados para operar con seguridad en el mundo real cuando tienen acceso a información personal o se enfrentan a decisiones complejas.

El estudio, publicado en el International Journal of Social Robotics, evaluó por primera vez el comportamiento de robots controlados por LLM cuando se les proporciona información sensible como el género, nacionalidad o religión de una persona. Los resultados fueron alarmantes. Todos los modelos analizados fallaron en pruebas críticas de seguridad, mostraron sesgos discriminatorios y, en varios casos, aceptaron instrucciones que podrían derivar en daños físicos graves. Continúa leyendo «Los riesgos ocultos de los robots con IA: lo que revelan los nuevos estudios»

Claude y la introspección artificial: un vistazo al «pensamiento» de la IA

El equipo de investigadores de Anthropic ha logrado algo que, hasta hace poco, se consideraba ciencia ficción: inducir pensamientos en un modelo de lenguaje y observar si es capaz de detectarlos por sí mismo. En otras palabras, han manipulado la red neuronal de Claude, su modelo de IA, para inyectar conceptos específicos y luego preguntarle si notaba algo distinto. El resultado ha sido sorprendente: Claude no solo detectó esos conceptos, sino que en ocasiones los describió como si fuesen pensamientos intrusivos.

Esta habilidad, aunque limitada y poco fiable en su forma actual, plantea preguntas importantes sobre el potencial de los modelos de lenguaje para autoevaluar sus procesos internos. Un pequeño porcentaje de introspección que, según los científicos, podría marcar el inicio de una nueva era en la interpretabilidad de sistemas de IA avanzados. Continúa leyendo «Claude y la introspección artificial: un vistazo al «pensamiento» de la IA»

Un alumno de 13 años arrestado tras preguntar a ChatGPT cómo matar a un amigo: qué ocurrió y por qué importa

Un caso ocurrido en Florida ha puesto otra vez sobre la mesa la tensión entre la seguridad escolar, la vigilancia tecnológica y los derechos de los menores. Según reportes de medios como Futurism y la afiliada local WFLA, un estudiante de 13 años en Southwestern Middle School, Deland, utilizó un dispositivo escolar para escribir en ChatGPT la frase “How to kill my friend in the middle of class”. Ese mensaje fue detectado por Gaggle, una herramienta de monitorización instalada en equipos de centros educativos, la cual alertó de inmediato al oficial escolar, que procedió a detener al menor. Las autoridades registraron el incidente como una amenaza y el adolescente fue llevado a la cárcel del condado de Volusia. Las fuentes de la noticia señalan que el alumno alegó que solo estaba “trolleando” a un compañero. Continúa leyendo «Un alumno de 13 años arrestado tras preguntar a ChatGPT cómo matar a un amigo: qué ocurrió y por qué importa»

Google busca fallos en su IA y ofrece hasta 30.000 dólares por detectarlos

La inteligencia artificial se ha convertido en el corazón de muchos productos digitales, y Google lo sabe bien. A medida que integra modelos como Gemini en su ecosistema, también crece su preocupación por mantener la seguridad de estos sistemas. Por eso, ha dado un paso firme con un nuevo programa de recompensas que busca incentivar la identificación de fallos y abusos en sus productos impulsados por IA. Las recompensas pueden alcanzar los 30.000 dólares, dependiendo de la gravedad y originalidad del hallazgo. Continúa leyendo «Google busca fallos en su IA y ofrece hasta 30.000 dólares por detectarlos»

Las promesas infladas de la IA en programación: productividad, confianza y realidad

Durante los últimos años, los asistentes de codificación impulsados por inteligencia artificial se presentaron como una especie de varita mágica para los desarrolladores: herramientas capaces de transformar simples indicaciones de texto en líneas de código funcionales, prometiendo reducir los tiempos de desarrollo y aumentar la productividad. Sin embargo, recientes estudios indican que esa promesa está lejos de cumplirse.

Un informe de Bain & Company expone con claridad lo que muchos sospechaban: aunque la codificación fue uno de los primeros sectores en adoptar IA generativa, los beneficios reales han sido, en palabras de los consultores, “poco destacables”. Las empresas, seducidas por el potencial de esta tecnología, iniciaron proyectos piloto a gran velocidad, pero los resultados no han sido tan positivos como se esperaba. Continúa leyendo «Las promesas infladas de la IA en programación: productividad, confianza y realidad»