Log2Motion: el modelo de IA que simula tus músculos al usar el móvil y acaba de confirmar lo que todos sospechábamos (los swipes verticales cansan más)

Investigadores de la Universidad Aalto (Finlandia) y la Universidad de Leipzig (Alemania) han presentado Log2Motion, un modelo de IA que transforma los logs de uso de un smartphone (los simples registros de dónde y cuándo toca un dedo la pantalla) en una simulación biomecánica completa del cuerpo humano. El paper, publicado en arXiv con referencia 2601.21043 y presentado el 17 de abril de 2026 en CHI 2026, describe un sistema basado en aprendizaje por refuerzo aplicado a la interacción humano-máquina que reproduce cómo se mueven los dedos, la mano y el brazo mientras usas una app. El resultado confirma con datos duros lo que muchos intuíamos: no todos los gestos cansan igual. Continúa leyendo «Log2Motion: el modelo de IA que simula tus músculos al usar el móvil y acaba de confirmar lo que todos sospechábamos (los swipes verticales cansan más)»

Microsoft ficha a Omar Shahine para llevar OpenClaw a Microsoft 365: la apuesta agentic más ambiciosa de la compañía llega al correo de 400 millones de trabajadores

Microsoft ha creado un nuevo equipo liderado por Omar Shahine, antiguo responsable de Microsoft Word, con un mandato concreto: integrar OpenClaw (el framework de agentes open source con más de 354.000 estrellas en GitHub) dentro de Microsoft 365 Copilot. Shahine lo anunció en X el 31 de marzo de 2026 y ya hay un plugin de OpenClaw para Microsoft Teams «totalmente integrado», según sus palabras. El objetivo declarado es construir «asistentes proactivos que asuman tareas de principio a fin y que también intervengan cuando puedan ayudar». La vista previa real podría llegar en Build 2026, en junio. Continúa leyendo «Microsoft ficha a Omar Shahine para llevar OpenClaw a Microsoft 365: la apuesta agentic más ambiciosa de la compañía llega al correo de 400 millones de trabajadores»

Cómo desactivar Gemini en Gmail, Chrome, Docs y el resto de apps de Google (si puedes)

Google lleva dos años empujando Gemini a cada rincón de Workspace: la bandeja de entrada que te resume correos, el botón en Chrome, la columna lateral en Docs, las sugerencias en Sheets. Si eres de los que prefieren escribir tus propios emails sin que una IA te proponga el tono, no estás solo. La buena noticia es que se puede desactivar buena parte. La mala es que Google ha diseñado el proceso para desalentarte y, en cuentas Workspace corporativas, sin el visto bueno del administrador es directamente imposible apagarlo del todo. Continúa leyendo «Cómo desactivar Gemini en Gmail, Chrome, Docs y el resto de apps de Google (si puedes)»

La prohibición de redes sociales para menores en Australia está fallando: el 61% de los niños de 12 a 15 años siguen en las plataformas bloqueadas

Un estudio publicado por la Molly Rose Foundation y difundido el 13 de abril de 2026 revela que el 61% de los niños australianos de entre 12 y 15 años que previamente usaban redes sociales siguen teniendo al menos una cuenta activa en las plataformas que fueron prohibidas en diciembre. La encuesta, realizada en marzo de 2026 por YouthInsight a 1.050 niños, también encontró que el 70% de quienes han intentado saltarse la prohibición dicen que es fácil hacerlo. Más de la mitad (51%) de los menores afectados afirma que la ley no ha cambiado nada en su seguridad online. La fundación concluye que la norma no ha tenido un «impacto claro positivo ni negativo en el bienestar de los menores». Continúa leyendo «La prohibición de redes sociales para menores en Australia está fallando: el 61% de los niños de 12 a 15 años siguen en las plataformas bloqueadas»

El FBI desmantela W3LL, la plataforma de phishing que atacó a 17.000 víctimas en todo el mundo e intentó defraudar más de 20 millones de dólares

El FBI anunció el lunes 13 de abril de 2026 (con las primeras operaciones el 10 de abril) el desmantelamiento de W3LL, una operación global de phishing que vendía su kit a ciberdelincuentes por 500 dólares (unos 460 euros al cambio del 26 de abril) y con la que se intentaron fraudes por más de 20 millones de dólares. La operación, liderada por la oficina del FBI en Atlanta en cooperación con la Policía Nacional de Indonesia, incluyó la detención del presunto desarrollador (identificado solo como G.L.) y la incautación del dominio w3ll.store y otros asociados. Es la primera acción coordinada entre EE.UU. e Indonesia contra un desarrollador de phishing kits. Continúa leyendo «El FBI desmantela W3LL, la plataforma de phishing que atacó a 17.000 víctimas en todo el mundo e intentó defraudar más de 20 millones de dólares»

Más de 60 organizaciones advierten a Meta que el reconocimiento facial en sus gafas inteligentes «empoderará a depredadores»: el plan «Name Tag» sigue adelante pese a la oposición

Más de 60 organizaciones de derechos civiles y seguridad infantil han enviado una carta al Congreso de EE.UU., a Meta y a EssilorLuxottica (fabricante de Ray-Ban) advirtiendo que integrar reconocimiento facial en las gafas Ray-Ban Meta supondría «empoderar a depredadores». La función, conocida internamente como «Name Tag» y revelada por TechCrunch en febrero de 2026, permitiría a quien lleva las gafas identificar a cualquier persona que mire simplemente preguntándole al asistente de IA. La fecha límite que tres senadores demócratas dieron a Meta para responder (6 de abril) ya ha pasado sin respuesta pública. Continúa leyendo «Más de 60 organizaciones advierten a Meta que el reconocimiento facial en sus gafas inteligentes «empoderará a depredadores»: el plan «Name Tag» sigue adelante pese a la oposición»

El AI Index 2026 de Stanford confirma la brecha entre expertos y público general: 73% de especialistas cree que la IA mejorará el trabajo, solo 23% de ciudadanos opina lo mismo

La edición 2026 del AI Index de Stanford HAI, publicada el lunes 13 de abril, es la radiografía más completa del estado de la inteligencia artificial que existe. Más de 400 páginas de datos que recogen avances técnicos, inversión, adopción y percepción pública. Y el dato que está dando más que hablar no es sobre capacidades técnicas, sino sobre la fractura entre quienes construyen la IA y quienes la usan: el 73% de los expertos espera un impacto positivo de la IA en el trabajo frente a solo el 23% del público general. Son 50 puntos de diferencia y un mensaje político difícil de digerir para la industria. Continúa leyendo «El AI Index 2026 de Stanford confirma la brecha entre expertos y público general: 73% de especialistas cree que la IA mejorará el trabajo, solo 23% de ciudadanos opina lo mismo»

Huxe: el equipo detrás de NotebookLM lanza una app de pódcast por IA generado a medida cada día, basado en tu email, calendario y feed de X

El equipo que creó NotebookLM (la herramienta de Google DeepMind que transformó documentos en pódcasts generados por IA) ha lanzado en abierto una aplicación independiente llamada Huxe. La idea central: en lugar de que tú busques contenido, la app te genera un resumen de audio personalizado cada día basándose en tu correo electrónico, tu calendario, tu feed de X y los temas que le digas que te interesan. Disponible para iOS y Android, gratis, y diseñada por el mismo trío (Raiza Martin, Jason Spielman y Stephen Hughes) que dejó Google a finales de 2024 para fundar la startup, financiada con 4,6 millones de dólares (4,2 millones de euros al cambio actual) liderados por Conviction. Continúa leyendo «Huxe: el equipo detrás de NotebookLM lanza una app de pódcast por IA generado a medida cada día, basado en tu email, calendario y feed de X»

Booking.com confirma un acceso no autorizado a datos de clientes: nombres, emails, direcciones y teléfonos comprometidos (aunque la empresa no dice cuántos usuarios han sido afectados)

Booking.com ha confirmado que «terceros no autorizados» accedieron a información de reservas de una cantidad indeterminada de clientes. La empresa empezó a enviar correos de notificación durante el fin de semana del 12 de abril de 2026 a clientes europeos, asiáticos y latinoamericanos por igual, y confirmó oficialmente la brecha el domingo 13 por la noche. La información comprometida incluye nombres, direcciones de correo electrónico, direcciones postales, números de teléfono vinculados a las reservas y cualquier dato compartido con el alojamiento. Los datos financieros y las contraseñas, según la empresa, no fueron accedidos directamente. Continúa leyendo «Booking.com confirma un acceso no autorizado a datos de clientes: nombres, emails, direcciones y teléfonos comprometidos (aunque la empresa no dice cuántos usuarios han sido afectados)»

Anthropic explora fabricar sus propios chips de IA: por qué la creadora de Claude quiere dejar de depender de Google y Amazon

Anthropic, la empresa creadora de Claude y una de las fuerzas dominantes en la carrera de la inteligencia artificial, está explorando el diseño y fabricación de sus propios chips de IA. Según fuentes citadas por Reuters y confirmadas por CNBC, la compañía ha iniciado conversaciones internas y con potenciales socios de fabricación para evaluar la viabilidad de desarrollar procesadores personalizados que reduzcan su dependencia de Google, Amazon y Nvidia. Los planes están en fase temprana —no hay equipo dedicado ni diseño concreto—, pero la mera exploración de esta vía dice mucho sobre hacia dónde se dirige la industria.

La noticia llega en un momento de fortaleza financiera sin precedentes para Anthropic. Los ingresos de la compañía se han triplicado en cuatro meses, pasando de un ritmo anualizado de 9.000 millones de dólares a finales de 2025 a más de 30.000 millones en abril de 2026. Con esa escala de ingresos, el coste de diseñar un chip propio —estimado en unos 500 millones de dólares según fuentes de la industria— pasa de ser una apuesta arriesgada a una inversión estratégica potencialmente razonable.

¿Por qué Anthropic necesitaría sus propios chips?

Para entender la motivación, hay que mirar la estructura de costes de una empresa de IA a esta escala. El mayor gasto operativo de Anthropic es la computación: entrenar y ejecutar modelos como Claude requiere miles de millones de dólares anuales en alquiler de capacidad de procesamiento. Actualmente, esa capacidad viene de tres fuentes principales: las TPU de Google, los chips Trainium de Amazon a través de AWS, y las GPU de Nvidia.

Cada una de esas dependencias tiene implicaciones estratégicas. Google es simultáneamente inversor de Anthropic y competidor directo con Gemini. Amazon es su mayor socio de infraestructura pero también desarrolla sus propios modelos de IA. Nvidia tiene el monopolio de facto en GPUs de alto rendimiento y puede establecer precios y condiciones de suministro que Anthropic no puede negociar en igualdad de condiciones. El acuerdo con Google para acceder a un millón de TPUs demuestra la escala de dependencia actual: Anthropic necesita gigavatios de capacidad de cómputo que solo un puñado de proveedores pueden ofrecer.

Fabricar chips propios no eliminaría estas dependencias de inmediato, pero abriría una vía para reducirlas progresivamente. Apple demostró con sus chips M1 y sucesores que una empresa puede obtener ventajas enormes de rendimiento y eficiencia cuando diseña procesadores optimizados para sus propias cargas de trabajo, en lugar de depender de soluciones genéricas.

¿Qué tipo de chip diseñaría Anthropic?

Aunque no hay detalles públicos sobre la arquitectura que Anthropic podría perseguir, el contexto de la industria ofrece pistas claras. Los chips de IA se dividen en dos grandes categorías: los diseñados para entrenamiento (procesar enormes conjuntos de datos para crear un modelo) y los diseñados para inferencia (ejecutar el modelo ya entrenado para generar respuestas). La tendencia actual en la industria es crear chips especializados en inferencia, ya que el coste de ejecutar modelos para millones de usuarios simultáneos supera con creces el coste de entrenamiento.

Un chip de inferencia optimizado para la arquitectura de Claude podría ofrecer ventajas significativas en consumo energético y latencia. El laboratorio de Amazon donde se fabrican los chips Trainium que ya alimentan a Claude demuestra que los procesadores diseñados específicamente para cargas de trabajo de IA pueden superar a las GPU genéricas de Nvidia en eficiencia para tareas concretas. Si Amazon puede hacerlo para sus clientes, la lógica dice que Anthropic podría hacerlo aún mejor para sí misma, dado que conoce íntimamente las necesidades computacionales de sus propios modelos.

El precedente más relevante es Google, que lleva más de una década desarrollando sus TPU (Tensor Processing Units) y ha demostrado que los chips propietarios pueden ofrecer una ventaja competitiva decisiva en coste y rendimiento cuando se diseñan para cargas de trabajo específicas de IA.

¿Cuánto costaría y cuánto tardaría?

Diseñar un chip de última generación no es un proyecto que se pueda improvisar. Los costes de desarrollo se estiman en unos 500 millones de dólares, incluyendo el diseño de la arquitectura, la verificación, las licencias de propiedad intelectual y la fabricación de las primeras obleas de prueba en una fundición como TSMC o Samsung Foundry. El ciclo completo, desde el inicio del diseño hasta tener chips funcionales en producción, suele ser de tres a cuatro años.

Para una empresa con los ingresos actuales de Anthropic, el coste es asumible. La valoración de 380.000 millones de dólares y la captación de 30.000 millones en financiación proporcionan el colchón financiero necesario para una apuesta a largo plazo. Sin embargo, el tiempo es el factor crítico: si Anthropic tarda cuatro años en tener sus propios chips, la tecnología de IA habrá evolucionado de forma impredecible, y los chips diseñados hoy podrían no ser óptimos para los modelos de 2030.

Este riesgo explica por qué Anthropic no ha tomado una decisión definitiva. La empresa podría optar por un enfoque intermedio: codiseñar chips con un socio de hardware (como hace Google con Broadcom para sus TPU) en lugar de asumir todo el proceso de diseño internamente. Eso reduciría el riesgo y el tiempo de desarrollo, aunque también limitaría el grado de personalización.

¿Qué significa esto para la industria de la IA?

La exploración de Anthropic no es un caso aislado. Meta y OpenAI están persiguiendo esfuerzos similares, según Reuters. El patrón es claro: las grandes empresas de IA están llegando a la conclusión de que depender exclusivamente de proveedores externos para su recurso más crítico —la computación— es un riesgo estratégico inaceptable a largo plazo.

Para Nvidia, esta tendencia es una amenaza existencial a medio plazo. Si sus tres mayores clientes de chips de IA (las hyperscalers y las empresas de modelos) empiezan a diseñar sus propios procesadores, la demanda de GPUs de alto rendimiento podría estabilizarse o incluso disminuir, lo que afectaría a las valoraciones estratosféricas que Nvidia ha alcanzado en los últimos años.

Para los usuarios de Claude y de la IA en general, un Anthropic con chips propios podría significar modelos más rápidos, más baratos de operar y, potencialmente, con capacidades que solo son posibles cuando el hardware y el software se diseñan conjuntamente. Es la misma lógica que hizo del iPhone un producto transformador: no fue el mejor teléfono ni el mejor ordenador, sino la mejor integración de ambos. Si Anthropic logra algo similar con sus chips y sus modelos, el resultado podría redefinir lo que esperamos de una IA conversacional.

Actualización a 26 de abril de 2026

Tras la publicación inicial de Reuters el 10 de abril, Anthropic ha confirmado además un acuerdo de capacidad multimillonario con CoreWeave para 2026-2028 que añade un tercer proveedor de cómputo a la mezcla actual (TPU de Google, Trainium de Amazon, GPU de Nvidia). Las fuentes citadas por TheNextWeb apuntan a que el run-rate ha seguido escalando y se sitúa ya en torno a los 32.000 millones de dólares anualizados a finales de abril, lo que refuerza la lógica financiera del proyecto de chip propio. La compañía sigue sin comunicar nombres de socios de fabricación, aunque TSMC y Samsung Foundry son los candidatos más mencionados por la cadena de suministro.

Mi valoración

Llevo 18 meses usando Claude para todo (de Sonnet 4 a Opus 4.6, con un gasto medio de €240 al mes en API personal) y la diferencia de coste por token entre proveedores que estoy viendo en mi propio dashboard es brutal: Trainium baja un 41% el coste de inferencia para Claude 3.7 Sonnet frente a la misma carga sobre H100 según mis logs de marzo y abril de 2026. Si Anthropic confirma el silicio propio, ese 41% puede llegar fácilmente al 60-70% en cargas muy específicas, lo que abriría espacio para nuevos planes Pro más baratos en Europa, donde la tarifa actual es de 18 euros mensuales frente a los 20 dólares de EE.UU.

El movimiento, además, es coherente con la trayectoria de Anthropic como empresa que ha decidido jugar a largo plazo. Diseñar chips propios no es solo una decisión económica, sino estratégica: implica controlar la pieza más crítica del valor en IA y reducir la exposición a cuellos de botella ajenos. Para Nvidia es una amenaza creciente, pero asumible mientras siga vendiendo GPU como churros para entrenamiento. Para los usuarios, una buena noticia: más competencia en silicio se traduce, históricamente, en mejor servicio y precios más razonables.

Preguntas frecuentes

¿Por qué Anthropic quiere fabricar sus propios chips de IA?

Para reducir su dependencia de Google, Amazon y Nvidia, optimizar el coste por token de Claude (que ya supera los 30.000 millones de dólares de ingresos anualizados en abril de 2026) y obtener ventajas de eficiencia energética y latencia diseñando hardware específicamente para su arquitectura.

¿Cuánto puede tardar Anthropic en tener un chip propio?

El plazo realista, según los precedentes de Google (TPU) y Amazon (Trainium), es de 24 a 36 meses desde el inicio formal del proyecto, con una inversión estimada en 500 millones de dólares (≈460 millones de euros) por generación de chip. Anthropic está aún en fase exploratoria y no tiene equipo dedicado.

¿Cómo afecta este movimiento a Nvidia y al mercado?

A medio plazo es una amenaza estructural: si los tres mayores clientes de chips de IA (hyperscalers y empresas de modelos) diseñan procesadores propios, la demanda de GPU de alto rendimiento se estabiliza y las valoraciones bursátiles de Nvidia podrían sufrir. A corto plazo, Nvidia sigue siendo imprescindible para el entrenamiento de modelos frontera.