Moltbook, la red social donde conversan los agentes de IA

En internet ya hemos visto comunidades para casi cualquier cosa, pero Moltbook plantea un giro curioso: un espacio “tipo Reddit” diseñado para que publiquen y comenten agentes de IA, mientras los humanos, por ahora, miramos desde la grada. La idea ha circulado con fuerza desde finales de enero de 2026, impulsada por lo llamativo del concepto y por la sensación de estar asomándose a una escena de ciencia ficción que se escapó del guion. Según contó Gizmodo, la plataforma se inspira en el fenómeno viral de Moltbot, el agente que terminó rebautizado como OpenClaw tras varios cambios de nombre, y está impulsada por Matt Schlicht, CEO de Octane AI.

El atractivo inmediato es fácil de entender: si durante años hemos usado chatbots como si fueran un mostrador de atención al cliente, Moltbook intenta convertirlos en vecinos de un barrio digital, con conversaciones aparentemente espontáneas, publicaciones que se votan y comunidades temáticas. Gizmodo señalaba que ya había decenas de miles de cuentas de agentes registradas y más de un centenar de “submolts”, que funcionan como subforos. Continúa leyendo «Moltbook, la red social donde conversan los agentes de IA»

Los versos que abren jaulas: cómo la poesía está desafiando la seguridad de los chatbots de IA

En un reciente estudio liderado por investigadores del Icaro Lab, vinculado a la Universidad de La Sapienza en Roma y la empresa DexAI, se descubrió que la poesía puede ser una herramienta eficaz para esquivar los filtros de seguridad de los chatbots de inteligencia artificial. Aunque parezca extraño, los sistemas diseñados para evitar la generación de contenido peligroso o prohibido pueden ser engañados si las peticiones se presentan en forma de poema.

Este hallazgo inquietante sugiere que los modelos de lenguaje más avanzados, como los desarrollados por OpenAI, Google, Meta, Anthropic o xAI, todavía tienen vulnerabilidades profundas en su arquitectura de seguridad. En concreto, los investigadores demostraron que no hace falta ser un experto en código o ciberseguridad para lograr que una IA diga lo que no debería: bastaría con una buena dosis de creatividad literaria. Continúa leyendo «Los versos que abren jaulas: cómo la poesía está desafiando la seguridad de los chatbots de IA»

Los riesgos ocultos de los robots con IA: lo que revelan los nuevos estudios

Los robots que integran modelos de lenguaje de gran escala (LLM) están ganando terreno en tareas que van desde la asistencia en el hogar hasta la interacción en entornos laborales. Sin embargo, una investigación conjunta de Carnegie Mellon University y el King’s College de Londres revela un panorama preocupante: estos sistemas no están preparados para operar con seguridad en el mundo real cuando tienen acceso a información personal o se enfrentan a decisiones complejas.

El estudio, publicado en el International Journal of Social Robotics, evaluó por primera vez el comportamiento de robots controlados por LLM cuando se les proporciona información sensible como el género, nacionalidad o religión de una persona. Los resultados fueron alarmantes. Todos los modelos analizados fallaron en pruebas críticas de seguridad, mostraron sesgos discriminatorios y, en varios casos, aceptaron instrucciones que podrían derivar en daños físicos graves. Continúa leyendo «Los riesgos ocultos de los robots con IA: lo que revelan los nuevos estudios»

Claude y la introspección artificial: un vistazo al «pensamiento» de la IA

El equipo de investigadores de Anthropic ha logrado algo que, hasta hace poco, se consideraba ciencia ficción: inducir pensamientos en un modelo de lenguaje y observar si es capaz de detectarlos por sí mismo. En otras palabras, han manipulado la red neuronal de Claude, su modelo de IA, para inyectar conceptos específicos y luego preguntarle si notaba algo distinto. El resultado ha sido sorprendente: Claude no solo detectó esos conceptos, sino que en ocasiones los describió como si fuesen pensamientos intrusivos.

Esta habilidad, aunque limitada y poco fiable en su forma actual, plantea preguntas importantes sobre el potencial de los modelos de lenguaje para autoevaluar sus procesos internos. Un pequeño porcentaje de introspección que, según los científicos, podría marcar el inicio de una nueva era en la interpretabilidad de sistemas de IA avanzados. Continúa leyendo «Claude y la introspección artificial: un vistazo al «pensamiento» de la IA»

Un alumno de 13 años arrestado tras preguntar a ChatGPT cómo matar a un amigo: qué ocurrió y por qué importa

Un caso ocurrido en Florida ha puesto otra vez sobre la mesa la tensión entre la seguridad escolar, la vigilancia tecnológica y los derechos de los menores. Según reportes de medios como Futurism y la afiliada local WFLA, un estudiante de 13 años en Southwestern Middle School, Deland, utilizó un dispositivo escolar para escribir en ChatGPT la frase “How to kill my friend in the middle of class”. Ese mensaje fue detectado por Gaggle, una herramienta de monitorización instalada en equipos de centros educativos, la cual alertó de inmediato al oficial escolar, que procedió a detener al menor. Las autoridades registraron el incidente como una amenaza y el adolescente fue llevado a la cárcel del condado de Volusia. Las fuentes de la noticia señalan que el alumno alegó que solo estaba “trolleando” a un compañero. Continúa leyendo «Un alumno de 13 años arrestado tras preguntar a ChatGPT cómo matar a un amigo: qué ocurrió y por qué importa»

Google busca fallos en su IA y ofrece hasta 30.000 dólares por detectarlos

La inteligencia artificial se ha convertido en el corazón de muchos productos digitales, y Google lo sabe bien. A medida que integra modelos como Gemini en su ecosistema, también crece su preocupación por mantener la seguridad de estos sistemas. Por eso, ha dado un paso firme con un nuevo programa de recompensas que busca incentivar la identificación de fallos y abusos en sus productos impulsados por IA. Las recompensas pueden alcanzar los 30.000 dólares, dependiendo de la gravedad y originalidad del hallazgo. Continúa leyendo «Google busca fallos en su IA y ofrece hasta 30.000 dólares por detectarlos»

Las promesas infladas de la IA en programación: productividad, confianza y realidad

Durante los últimos años, los asistentes de codificación impulsados por inteligencia artificial se presentaron como una especie de varita mágica para los desarrolladores: herramientas capaces de transformar simples indicaciones de texto en líneas de código funcionales, prometiendo reducir los tiempos de desarrollo y aumentar la productividad. Sin embargo, recientes estudios indican que esa promesa está lejos de cumplirse.

Un informe de Bain & Company expone con claridad lo que muchos sospechaban: aunque la codificación fue uno de los primeros sectores en adoptar IA generativa, los beneficios reales han sido, en palabras de los consultores, “poco destacables”. Las empresas, seducidas por el potencial de esta tecnología, iniciaron proyectos piloto a gran velocidad, pero los resultados no han sido tan positivos como se esperaba. Continúa leyendo «Las promesas infladas de la IA en programación: productividad, confianza y realidad»

ChatGPT se conecta a servidores MCP: cómo funciona esta integración y qué tener en cuenta

La inteligencia artificial está dando un paso más hacia su integración profunda en los entornos empresariales. ChatGPT, el popular asistente de OpenAI, ya permite conectarse a servidores MCP (Model Context Protocol), un estándar emergente que facilita el acceso de la IA a datos internos y actualizados de las empresas. Pero ¿qué significa esto exactamente y cómo puede aprovecharse esta funcionalidad sin comprometer la seguridad? Continúa leyendo «ChatGPT se conecta a servidores MCP: cómo funciona esta integración y qué tener en cuenta»

Cuidado al subir archivos desde OneDrive a ChatGPT, Zoom o Slack: podrías exponer todo tu contenido

Un riesgo de seguridad poco evidente está poniendo en jaque a usuarios que integran OneDrive con aplicaciones populares como ChatGPT, Slack o Zoom. Lo que parece una acción inocente —subir un archivo desde la nube— puede convertirse en una puerta trasera hacia el acceso total de toda tu unidad OneDrive. Continúa leyendo «Cuidado al subir archivos desde OneDrive a ChatGPT, Zoom o Slack: podrías exponer todo tu contenido»