Cuando las tareas se quedan en la cabeza, la mente funciona como una mesa llena de papeles: sabes que algo importante está ahí, pero no lo encuentras cuando lo necesitas. Un buen sistema de organización de tareas no te hace “más ocupado”; te da claridad. La clave está en escoger herramientas que encajen con tu… Continúa leyendo »

El phishing es ese “doble” que se cuela en tu vida digital con la misma chaqueta que tu banco, tu servicio de correo o tu tienda favorita. A simple vista, la web parece legítima; el logo está donde toca, el botón de “iniciar sesión” tiene el color correcto y el mensaje te mete prisa con… Continúa leyendo »

OpenAI ha anunciado que llevará una versión personalizada de ChatGPT a GenAI.mil, la plataforma empresarial de IA del llamado Department of War, utilizada por unos 3 millones de empleados civiles y personal militar. La idea es sencilla de explicar con un símil cotidiano: si el chat público es como una cafetería ruidosa donde hablas con… Continúa leyendo »

Autodesk demanda a Google por “Flow”: la batalla por una marca en plena fiebre de la IA creativa

En la industria del software, los nombres no son solo etiquetas bonitas: funcionan como el letrero de una tienda en una calle llena de escaparates. Si dos negocios colocan carteles casi iguales, el peatón entra donde no quería. Eso es, en esencia, lo que Autodesk sostiene que está ocurriendo con Google y el uso de Flow para un producto de IA orientado a la creación de vídeo.

Según informó Reuters y recogió The Verge, Autodesk ha presentado una demanda en un tribunal de California para frenar el uso del nombre Flow por parte de Google en su herramienta de generación de vídeo con inteligencia artificial. El argumento central es el riesgo de confusión entre clientes, especialmente en un momento en el que el mercado creativo está inundado de herramientas con promesas parecidas y nombres cada vez más cortos y memorables. Continúa leyendo «Autodesk demanda a Google por “Flow”: la batalla por una marca en plena fiebre de la IA creativa»

Modelos de machine learning para detectar phishing: por qué los datos ganan a las reglas

El phishing es ese “doble” que se cuela en tu vida digital con la misma chaqueta que tu banco, tu servicio de correo o tu tienda favorita. A simple vista, la web parece legítima; el logo está donde toca, el botón de “iniciar sesión” tiene el color correcto y el mensaje te mete prisa con una excusa creíble. El objetivo es sencillo: que introduzcas usuario y contraseña, o que aceptes una acción que abra la puerta a un robo de credenciales.

Durante años, muchas defensas se han apoyado en reglas fijas: listas negras de dominios, patrones conocidos en URLs o señales “clásicas” como errores tipográficos. El problema es que los atacantes cambian el disfraz cada vez que alguien aprende a reconocerlo. Por eso, cuando una técnica se vuelve popular en la defensa, también se vuelve popular en el ataque para esquivarla. Aquí es donde los enfoques basados en datos y machine learning empiezan a marcar diferencias: no buscan un único “síntoma” rígido, sino combinaciones de señales que, juntas, delatan el engaño. Continúa leyendo «Modelos de machine learning para detectar phishing: por qué los datos ganan a las reglas»

Google facilita borrar tu identificación y fotos íntimas no consentidas de los resultados de búsqueda

Hay información personal que molesta si se filtra, como un número de teléfono que empieza a recibir spam, y hay información que puede complicarte la vida de verdad, como un número de pasaporte o de permiso de conducir expuesto en una página indexada. Google ha actualizado Resultados sobre ti para que su “radar” no se quede solo en datos de contacto sensibles, sino que también pueda localizar en Google Search resultados que incluyan identificadores emitidos por el gobierno, como el número de la Seguridad Social (en el contexto de Estados Unidos), el del pasaporte o el del carné de conducir.

La diferencia es importante porque estos números suelen funcionar como “llaves maestras” en muchos trámites. Si se publican por error en un PDF, en una captura o en una base de datos, el riesgo no es solo que alguien los vea: es que alguien los use para intentar suplantarte, abrir cuentas o convencer a un servicio de que “eres tú”. Es como pasar de tener una alarma que te avisa si la puerta está entornada a una que detecta si alguien ha dejado una copia de tus llaves en el felpudo. No apaga el fuego, pero te avisa antes.

Google ha explicado esta ampliación en su blog corporativo The Keyword, destacando que la herramienta ya se ha utilizado por más de diez millones de personas para vigilar la aparición de información personal en resultados. Medios como The Verge y Engadget han contextualizado el anuncio como parte de un paquete más amplio de controles de privacidad y de retirada de contenidos sensibles en búsquedas. Continúa leyendo «Google facilita borrar tu identificación y fotos íntimas no consentidas de los resultados de búsqueda»

Facebook empieza a animar tu foto de perfil con IA y a “revestir” tus recuerdos

Facebook lleva tiempo probando cómo volver a sentirse “vivo” sin obligarte a aprender herramientas nuevas. Su último paso va por una idea muy sencilla: si mucha gente comparte menos contenido original, la plataforma puede hacer que lo que ya existe —una foto quieta, una Story antigua o un texto plano— se vea más expresivo con ayuda de IA. Según ha explicado Meta y ha recogido The Verge, la red social está desplegando nuevas funciones para animar fotos de perfil, retocar el estilo de Stories y Memories, y añadir fondos animados en publicaciones de texto.

Visto de forma cotidiana, es como cuando abres una app de mensajería y en vez de mandar un “hola” sin más, eliges un sticker con movimiento. El mensaje es el mismo, pero el gesto tiene más intención. Aquí, la intención es que tu perfil y tus publicaciones “llamen” un poco más la atención en un feed cada vez más competido. Continúa leyendo «Facebook empieza a animar tu foto de perfil con IA y a “revestir” tus recuerdos»

ChatGPT llega a GenAI.mil: qué cambia cuando la IA generativa entra en una plataforma militar segura

OpenAI ha anunciado que llevará una versión personalizada de ChatGPT a GenAI.mil, la plataforma empresarial de IA del llamado Department of War, utilizada por unos 3 millones de empleados civiles y personal militar. La idea es sencilla de explicar con un símil cotidiano: si el chat público es como una cafetería ruidosa donde hablas con el móvil en la mano, GenAI.mil sería una sala de reuniones dentro de un edificio con control de acceso, normas claras y supervisión técnica. El objetivo no es “probar tecnología”, sino ponerla a trabajar en tareas no clasificadas que consumen tiempo y energía en organizaciones enormes.

El movimiento también encaja con la estrategia de OpenAI de reforzar su línea de OpenAI for Government y con el esfuerzo del Pentágono por construir un ecosistema de herramientas de IA en un entorno controlado, donde ya conviven otras compañías de modelos avanzados. Medios del sector defensa han descrito GenAI.mil como un proyecto de rápida adopción, con cifras de uso que han ido creciendo desde su lanzamiento, y con el foco puesto en escalar con garantías. Continúa leyendo «ChatGPT llega a GenAI.mil: qué cambia cuando la IA generativa entra en una plataforma militar segura»

DreamDojo de Nvidia: el “modelo del mundo” que enseña a los robots mirando 44.000 horas de vídeo humano

En robótica, conseguir que una máquina haga cosas simples para nosotros —coger una taza, meterla en una caja, apartar un objeto sin tirarlo— suele ser una batalla larga. No por falta de potencia de cálculo, sino por el método tradicional de aprendizaje: para que un robot manipule con soltura en entornos reales, se necesitan montañas de demostraciones específicas de ese robot, grabadas con sensores, teleoperación o ensayos repetidos. Es caro, lento y, sobre todo, poco escalable.

Con DreamDojo, un sistema presentado por un equipo liderado por Nvidia junto a colaboradores de UC Berkeley, Stanford y la Universidad de Texas en Austin, la idea cambia de eje: antes de “tocar” nada, el robot aprende observando. La investigación describe un modelo del mundo para robots entrenado con una cantidad poco habitual de vídeo humano en primera persona, buscando que el sistema adquiera una intuición física general y luego la adapte a un cuerpo robótico concreto. La promesa, si se sostiene fuera del laboratorio, es recortar el esfuerzo necesario para que un robot pase de hacer una demo a comportarse con más soltura en escenarios reales. Continúa leyendo «DreamDojo de Nvidia: el “modelo del mundo” que enseña a los robots mirando 44.000 horas de vídeo humano»

El auge de la IA y su huella de carbono en EE. UU.: cuánto pesa realmente y qué se puede hacer

La inteligencia artificial se ha colado en tareas tan distintas como filtrar currículos, optimizar rutas de reparto, detectar fraude o ajustar inventarios. Vista desde fuera, parece “magia”: un modelo responde, recomienda o predice en segundos. Por dentro, esa magia tiene un precio muy terrenal: electricidad. Cada consulta, cada entrenamiento y cada despliegue a gran escala se apoya en centros de datos y hardware especializado que consumen energía, y esa energía, según cómo se genere, se traduce en emisiones de CO₂.

Un trabajo publicado en Environmental Research Letters (IOP Publishing) pone números a este debate para el caso de Estados Unidos: si la adopción de IA se expande de forma amplia en la economía estadounidense, las emisiones anuales de dióxido de carbono podrían aumentar en torno a 900.000 toneladas. La cifra del estudio se concreta en unas 896.000 toneladas de CO₂ al año, vinculadas al incremento de demanda eléctrica por esa adopción. Los autores, Anthony R. Harding y Juan Moreno-Cruz, insisten en que el impacto es medible, pero pequeño si se compara con el total del país. Continúa leyendo «El auge de la IA y su huella de carbono en EE. UU.: cuánto pesa realmente y qué se puede hacer»

Oxígeno oscuro en el abismo: la expedición con robots que quiere explicar un misterio a 4.000 metros

En el imaginario popular, el oxígeno en la Tierra tiene un origen casi escolar: plantas, algas y cianobacterias usando luz para “fabricarlo” mediante fotosíntesis. Por eso, detectar O₂ en un lugar sin sol, a unos 4.000 metros de profundidad, suena a lectura defectuosa o a instrumento caprichoso. Sin embargo, eso es justo lo que reportó un equipo internacional encabezado por el ecólogo del fondo marino Andrew Sweetman, de la Scottish Association for Marine Science (SAMS), en una zona del Pacífico conocida por sus minerales y por su polémica: la Zona Clarion-Clipperton.

Ese oxígeno detectado sin luz ha recibido un nombre sugerente: “oxígeno oscuro”. El término no implica que sea “negro” ni mágico; describe el contexto, un entorno donde la fotosíntesis no tiene papel. La consecuencia práctica es enorme: si realmente se está generando oxígeno allí abajo, o bien existe un proceso químico natural capaz de producirlo, o bien hay una vía biológica desconocida, o quizá una mezcla de ambas. Eso es lo que la próxima misión quiere aclarar con mediciones pensadas para cerrar las grietas de la incertidumbre. Continúa leyendo «Oxígeno oscuro en el abismo: la expedición con robots que quiere explicar un misterio a 4.000 metros»

RHIC se despide tras 25 años de choques subatómicos y deja listo el camino para el Electron-Ion Collider

A las 9 de la mañana del 6 de febrero de 2026, en Brookhaven National Laboratory (Long Island, Nueva York), dos haces de núcleos de oxígeno dieron sus últimas vueltas por los anillos gemelos del Relativistic Heavy Ion Collider (RHIC) antes de colisionar casi a la velocidad de la luz dentro de sus detectores principales, STAR y sPHENIX. Con ese choque final, el acelerador puso punto final a una etapa que comenzó en el verano de 2000 y que ha marcado un antes y un después en la física nuclear y en la forma de estudiar la materia a escalas extremas, según explica el propio laboratorio en su comunicado.

La escena tuvo algo de ceremonia de cierre de fábrica… solo que aquí la “fábrica” no producía tornillos, sino pistas sobre lo que ocurrió justo después del Big Bang. Darío Gil, subsecretario de Ciencia del Departamento de Energía de Estados Unidos (DOE), estuvo en la sala de control para dar oficialmente por concluida la era operativa de RHIC y para subrayar su papel como una de las instalaciones de usuario más exitosas del DOE Office of Science. La idea de “instalación de usuario” es importante: RHIC no era un proyecto de un solo equipo, sino una infraestructura que ha servido a miles de científicos de todo el mundo. Continúa leyendo «RHIC se despide tras 25 años de choques subatómicos y deja listo el camino para el Electron-Ion Collider»

OpenAI prueba anuncios en ChatGPT: qué cambia para los usuarios y cómo promete proteger respuestas y privacidad

OpenAI ha empezado a probar anuncios en ChatGPT en Estados Unidos con una idea que repite como mantra: la publicidad sirve para financiar acceso, no para cambiar lo que el modelo contesta. La prueba se dirige a usuarios adultos que hayan iniciado sesión y que estén en los planes Free y Go; el resto de niveles, como Plus, Pro, Business, Enterprise y Education, quedan fuera de la experiencia con anuncios, al menos por ahora. La compañía lo encuadra como un test “para aprender y escuchar”, con el objetivo de afinar el formato antes de cualquier ampliación.

La promesa central es fácil de entender si lo llevamos a una escena cotidiana: imagina que pides consejo a una persona experta y, después de ayudarte, te muestra un folleto patrocinado en una mesa aparte. OpenAI insiste en que ese folleto no interfiere en el consejo que acabas de recibir. En su documentación de soporte, lo formula de forma tajante: los anuncios funcionan en sistemas separados del modelo conversacional y el anunciante no puede “dar forma” a las respuestas ni alterarlas. Continúa leyendo «OpenAI prueba anuncios en ChatGPT: qué cambia para los usuarios y cómo promete proteger respuestas y privacidad»