Instagram lleva tiempo intentando caminar por una cuerda floja: permitir que la gente hable de experiencias difíciles sin convertir la plataforma en un altavoz de contenidos dañinos. La última novedad en esa dirección es una herramienta pensada para cuentas supervisadas que promete encender una alarma cuando un adolescente realiza búsquedas repetidas relacionadas con suicidio o… Continúa leyendo »

Intrinsic, la compañía nacida dentro del paraguas de Alphabet y orientada a facilitar el desarrollo de aplicaciones para robots industriales, ha anunciado que pasa a formar parte de Google como un grupo diferenciado. La noticia se comunicó el 25 de febrero de 2026 en el blog de Intrinsic y en el blog corporativo de Google,… Continúa leyendo »

Google DeepMind ha presentado Nano Banana 2, identificado también como Gemini 3.1 Flash Image, como su modelo más reciente para generación y edición de imágenes dentro del ecosistema Gemini. La idea central es sencilla de entender si pensamos en una cocina: hasta ahora, para lograr un plato “de restaurante” solía hacer falta fuego lento; con… Continúa leyendo »

Google Translate se vuelve más “conversacional”: nuevas opciones para captar matices con ayuda de Gemini

Durante años, Google Translate ha sido ese compañero silencioso que casi todos usamos sin pensarlo demasiado: para descifrar un cartel, entender un correo o salir del paso con una frase en otro idioma. El problema es que la traducción literal rara vez es la mejor traducción. Las personas no hablamos como diccionarios; hablamos con intención, con tono, con bromas, con dobles sentidos y con expresiones que, fuera de su contexto, suenan rarísimas. Por eso tiene sentido que la próxima gran mejora de Translate no sea solo “más idiomas” o “más velocidad”, sino una capa nueva centrada en matiz, contexto y uso real.

Según ha contado Android Police, Google está incorporando nuevas funciones en Android, iOS y la web que aprovechan las capacidades multilingües de Gemini para ofrecer traducciones más útiles cuando lo que quieres no es “la frase”, sino “la forma correcta de decirlo”. La compañía también lo ha explicado en una entrada de su blog, presentando estas herramientas como una forma de entender mejor qué estás diciendo y cómo sonará en la conversación. Y aquí está la clave: ya no se trata solo de convertir un texto a otro idioma, sino de ayudarte a elegir una opción adecuada para la situación. Continúa leyendo «Google Translate se vuelve más “conversacional”: nuevas opciones para captar matices con ayuda de Gemini»

Buscar en el pasado de Google Chat ya no es una odisea: así integra Gemini el historial de conversaciones

Hasta ahora, Google Chat tenía una paradoja típica de las herramientas de trabajo: es donde ocurren las cosas con más velocidad, pero también donde más fácil se pierden. Decisiones rápidas, nombres de responsables, fechas que cambian sobre la marcha, enlaces compartidos a toda prisa… todo eso suele quedarse en el flujo de mensajes, sin llegar a un documento formal. Según ha anunciado Google en una entrada de su blog de Google Workspace, Gemini puede acceder al historial de Chat dentro de Workspace para ayudarte a encontrar información o a entender el contexto de conversaciones anteriores. ZDNET también ha detallado el lanzamiento y su enfoque práctico.

La idea es sencilla de explicar con una escena cotidiana: imagina que tu equipo es un grupo de amigos organizando un viaje por WhatsApp. Al tercer día, alguien pregunta “¿quién reservaba el hotel?” y el chat se convierte en arqueología digital. Lo que propone Google es que, en lugar de hacer scroll durante media hora, puedas preguntarle a Gemini y obtener una respuesta basada en lo que ya se dijo. Continúa leyendo «Buscar en el pasado de Google Chat ya no es una odisea: así integra Gemini el historial de conversaciones»

Android 17 Beta 1: más control, mejor rendimiento y un Android que se adapta a cualquier pantalla

La primera beta de Android 17 (API 37), anunciada en el Android Developers Blog por Matthew McCullough, no solo trae funciones nuevas: cambia la forma de probarlas. Google deja atrás el modelo clásico de “Developer Preview” por un canal continuo llamado Android Canary. La idea se parece a pasar de recibir un periódico cada cierto tiempo a tener una cinta de noticias 24/7: las novedades llegan en cuanto superan pruebas internas, sin esperar al siguiente hito trimestral.

Este enfoque busca tres efectos prácticos para el ecosistema: acceso más rápido a APIs y comportamientos, una beta más “pulida” gracias al rodaje temprano, y pruebas más sencillas porque Canary admite actualizaciones OTA y encaja mejor en flujos de CI. Para equipos que viven de compilar, testear y volver a compilar, ese detalle es oro: reduce fricción y acorta el tiempo entre “lo he encontrado” y “ya lo reporté”.

En calendario, Google marca un paso acelerado hacia Platform Stability en marzo, momento en el que el SDK/NDK y los comportamientos orientados a apps quedan prácticamente cerrados. Y, como línea de continuidad, Android 17 seguirá recibiendo actualizaciones trimestrales, con un Q2 como el gran punto donde se concentrarán los cambios de comportamiento que podrían romper apps y un Q4 que apunta a un SDK menor con APIs y funciones nuevas. Continúa leyendo «Android 17 Beta 1: más control, mejor rendimiento y un Android que se adapta a cualquier pantalla»

Galaxy S26 vs Galaxy S24: diferencias reales, lo que cambia y cuándo merece la pena el salto

Con cada nueva hornada de móviles de gama alta, la pregunta se repite: ¿estamos ante un cambio que se nota en el día a día o ante un retoque de detalles? Según el análisis publicado por ZDNET tras el evento Samsung Unpacked 2026, la comparación entre Samsung Galaxy S26 y Samsung Galaxy S24 se parece más a cambiar de coche manteniendo la misma carrocería, pero con un motor más moderno y un sistema de asistencia a la conducción más listo. Hay mejoras, sí, aunque no todas justifican pagar un precio de salida que ronda los 1.299 dólares para quien ya tiene un S24 o viene de un modelo relativamente reciente.

La clave aquí es entender qué partes del uso diario dependen del “motor” (procesador y eficiencia), cuáles dependen de la “carrocería” (cámaras y diseño) y cuáles vienen del “software” (funciones que, a veces, terminan llegando a modelos anteriores). Continúa leyendo «Galaxy S26 vs Galaxy S24: diferencias reales, lo que cambia y cuándo merece la pena el salto»

Cuando los chatbots “interpretan” identidades: el problema de los estereotipos sobreactuados

Cada vez más aplicaciones incorporan chatbots que no solo responden preguntas, sino que simulan ser alguien: una persona joven o mayor, de un país concreto, con un oficio específico, con un origen étnico determinado o en una situación familiar particular. La promesa es intuitiva: si el asistente “se parece” a ti, quizá te resulte más cómodo pedirle ayuda, contarle algo personal o aprender con él. Es parecido a elegir un profesor particular; solemos sentirnos más seguros cuando percibimos cercanía.

El problema aparece cuando esa cercanía es un disfraz hecho de tópicos. Un equipo de investigadores de la Universidad Estatal de Pensilvania, en su College of Information Sciences and Technology, sostiene que muchos sistemas actuales no están representando bien a personas de determinados grupos sociodemográficos. No es que fallen por falta de fluidez: al contrario, suelen sonar convincentes. La crítica es más incómoda: los modelos tienden a apoyarse en estereotipos superficiales y a enfatizar “marcadores culturales” de forma exagerada, como si la identidad fuera un paquete de etiquetas que hay que mencionar para “sonar auténtico”. La investigación se presentó en AAAI 2026 (en una pista dedicada a alineamiento de IA) y el artículo está disponible como preprint en arXiv, con autoría liderada por Shomir Wilson y Sarah Rajtmajer, entre otros. Continúa leyendo «Cuando los chatbots “interpretan” identidades: el problema de los estereotipos sobreactuados»

Instagram avisará a los padres si un adolescente busca contenido de autolesión: así funcionará la nueva alerta de Meta

Instagram lleva tiempo intentando caminar por una cuerda floja: permitir que la gente hable de experiencias difíciles sin convertir la plataforma en un altavoz de contenidos dañinos. La última novedad en esa dirección es una herramienta pensada para cuentas supervisadas que promete encender una alarma cuando un adolescente realiza búsquedas repetidas relacionadas con suicidio o autolesión. La información la adelantó Lifehacker y se apoya en un anuncio oficial de Meta, que encuadra el movimiento como parte de un paquete de medidas de seguridad para menores.

La idea es sencilla de explicar con una metáfora cotidiana: no se trata de leer el diario personal de tu hijo, sino de que el detector de humo avise si, una y otra vez, hay señales de que algo se está quemando. Instagram no dice que vaya a “adivinar” intenciones; dice que usará la actividad de búsqueda para generar una notificación cuando detecte reiteración en términos vinculados a estos temas. Continúa leyendo «Instagram avisará a los padres si un adolescente busca contenido de autolesión: así funcionará la nueva alerta de Meta»

Intrinsic se integra en Google y refuerza la apuesta por la IA física en la industria

Intrinsic, la compañía nacida dentro del paraguas de Alphabet y orientada a facilitar el desarrollo de aplicaciones para robots industriales, ha anunciado que pasa a formar parte de Google como un grupo diferenciado. La noticia se comunicó el 25 de febrero de 2026 en el blog de Intrinsic y en el blog corporativo de Google, con el mismo mensaje central: acelerar el salto de la IA desde el laboratorio a entornos de producción reales, especialmente en manufactura y logística.

En la práctica, este movimiento no se presenta como el cierre de Intrinsic ni como una absorción que diluya su producto, sino como un cambio de “casa” dentro del ecosistema Alphabet. Intrinsic seguirá construyendo su plataforma, pero con acceso directo a piezas que hoy marcan el ritmo en automatización inteligente: los modelos Gemini, la infraestructura de Google Cloud y una colaboración estrecha con Google DeepMind, según explican ambas compañías. Continúa leyendo «Intrinsic se integra en Google y refuerza la apuesta por la IA física en la industria»

Nano Banana 2: el nuevo modelo de imágenes de Google que apuesta por velocidad sin renunciar al control

Google DeepMind ha presentado Nano Banana 2, identificado también como Gemini 3.1 Flash Image, como su modelo más reciente para generación y edición de imágenes dentro del ecosistema Gemini. La idea central es sencilla de entender si pensamos en una cocina: hasta ahora, para lograr un plato “de restaurante” solía hacer falta fuego lento; con Nano Banana 2, Google dice haber encontrado una forma de mantener el sabor y la presentación con un ritmo mucho más rápido. Según el anuncio firmado por Naina Raisinghani, product manager en Google DeepMind, el modelo busca juntar la calidad y el razonamiento visual que se asociaban a la versión Pro con la velocidad propia de la familia Flash.

Este enfoque no se limita a “crear imágenes bonitas”. Google lo plantea como una herramienta para iterar rápido, corregir detalles sin fricción y producir recursos que puedan pasar de la pantalla del diseñador a un uso real en campañas, productos o contenidos con menos pasos intermedios. Continúa leyendo «Nano Banana 2: el nuevo modelo de imágenes de Google que apuesta por velocidad sin renunciar al control»

Anthropic compra Vercept: la carrera por automatizar tareas con agentes de IA entra en fase de concentración

La compra de la startup Vercept por parte de Anthropic marca un paso más en la transición desde la IA conversacional hacia la automatización de tareas con agentes capaces de operar software real. Según informó Computerworld, Vercept —con sede en Seattle— venía trabajando en agentes en la nube que podían controlar un MacBook remoto, una idea que suena menos glamourosa que un gran modelo generativo, pero que toca un nervio sensible en las empresas: lograr que la IA no se quede en sugerencias, sino que ejecute acciones completas dentro de aplicaciones, como si fuera una mano digital sobre el teclado.

Para entenderlo con una metáfora cotidiana, muchos asistentes actuales se parecen a un copiloto que te dice por dónde ir; los agentes buscan ser el conductor que toma el volante, frena, aparca y te deja en destino. Eso cambia el tipo de valor que pueden ofrecer en entornos corporativos: menos “respuestas brillantes” y más “trabajo terminado”. Continúa leyendo «Anthropic compra Vercept: la carrera por automatizar tareas con agentes de IA entra en fase de concentración»

Las novedades de IA en ONLYOFFICE: asistentes personalizables, traducción offline y agentes para el trabajo diario

Cuando una suite ofimática añade inteligencia artificial, lo fácil es pensar en un “hazme un texto” y listo. Lo interesante de ONLYOFFICE en este arranque de 2026 es que está empujando la IA hacia un terreno más práctico: funciones integradas que se comportan como pequeños atajos de trabajo, con control sobre lo que pides y sobre cómo se devuelve el resultado. La idea se parece a tener una navaja suiza: no te resuelve la vida por sí sola, pero te evita sacar la caja de herramientas cada dos minutos.

ONLYOFFICE está abordando esta capa inteligente desde dos frentes. Por un lado, el plugin de IA dentro de los editores, pensado para actuar “sobre el texto” en el momento en que estás escribiendo. Por otro, aparecen agentes de IA y automatizaciones asociadas a entornos de colaboración y a la app de escritorio, orientadas a tareas más amplias, como gestionar archivos o ayudarte a moverte entre procesos sin tanto clic. Continúa leyendo «Las novedades de IA en ONLYOFFICE: asistentes personalizables, traducción offline y agentes para el trabajo diario»