Estás en una videollamada y necesitas consultar un documento. O sigues una receta mientras ves un vídeo. O copias datos de un correo a una hoja de cálculo. En un ordenador abres dos ventanas y ya está; en el móvil, la mayoría de la gente cierra una app para abrir otra y viceversa, perdiendo tiempo… Continúa leyendo »

Anthropic lanza Claude como add-in nativo en Microsoft Word, con revisión de contratos legales como caso de uso principal. Beta disponible hoy.

Un hacker usó Claude y ChatGPT para hackear 9 agencias del gobierno mexicano robando cientos de millones de registros. Así funciona el ciber-ataque con IA.

Log2Motion: el modelo de IA que simula tus músculos al usar el móvil y acaba de confirmar lo que todos sospechábamos (los swipes verticales cansan más)

Investigadores de la Universidad Aalto (Finlandia) y la Universidad de Leipzig (Alemania) han presentado Log2Motion, un modelo de IA que transforma los logs de uso de un smartphone (los simples registros de dónde y cuándo toca un dedo la pantalla) en una simulación biomecánica completa del cuerpo humano. El paper, publicado en arXiv con referencia 2601.21043, describe un sistema de aprendizaje por refuerzo aplicado a un modelo musculoesquelético que reproduce cómo se mueven los dedos, la mano y el brazo mientras usas una app. Y el resultado confirma con datos duros lo que muchos intuíamos: no todos los gestos cansan igual. Continúa leyendo «Log2Motion: el modelo de IA que simula tus músculos al usar el móvil y acaba de confirmar lo que todos sospechábamos (los swipes verticales cansan más)»

Microsoft ficha a Omar Shahine para llevar OpenClaw a Microsoft 365: la apuesta agentic más ambiciosa de la compañía llega al correo de 400 millones de trabajadores

Microsoft ha creado un nuevo equipo liderado por Omar Shahine, antiguo responsable de Microsoft Word, con un mandato concreto: integrar OpenClaw (el framework de agentes open source con más de 354.000 estrellas en GitHub) dentro de Microsoft 365 Copilot. Shahine lo anunció en X el 31 de marzo y ya hay un plugin de OpenClaw para Microsoft Teams «totalmente integrado», según sus palabras. El objetivo declarado es construir «asistentes proactivos que asuman tareas de principio a fin y que también intervengan cuando puedan ayudar». La vista previa real podría llegar en Build 2026, en junio. Continúa leyendo «Microsoft ficha a Omar Shahine para llevar OpenClaw a Microsoft 365: la apuesta agentic más ambiciosa de la compañía llega al correo de 400 millones de trabajadores»

Cómo desactivar Gemini en Gmail, Chrome, Docs y el resto de apps de Google (si puedes)

Google lleva dos años empujando Gemini a cada rincón de Workspace. La bandeja de entrada que te resume correos, el botón en Chrome, la columna lateral en Docs, las sugerencias en Sheets. Si eres de los que prefieren escribir tus propios emails sin que una IA te proponga el tono, no estás solo. La buena noticia es que se puede desactivar buena parte. La mala es que Google ha diseñado el proceso para desalentarte. Continúa leyendo «Cómo desactivar Gemini en Gmail, Chrome, Docs y el resto de apps de Google (si puedes)»

La prohibición de redes sociales para menores en Australia está fallando: el 61% de los niños de 12 a 15 años siguen en las plataformas bloqueadas

Un estudio publicado por la Molly Rose Foundation y difundido este lunes revela que el 61% de los niños australianos de entre 12 y 15 años que previamente usaban redes sociales siguen teniendo al menos una cuenta activa en las plataformas que fueron prohibidas en diciembre. La encuesta, realizada en marzo a 1.050 niños, también encontró que el 70% de quienes han intentado saltarse la prohibición dicen que es fácil hacerlo. La fundación concluye que la ley no ha tenido un «impacto claro positivo ni negativo en el bienestar de los menores». Continúa leyendo «La prohibición de redes sociales para menores en Australia está fallando: el 61% de los niños de 12 a 15 años siguen en las plataformas bloqueadas»

El FBI desmantela W3LL, la plataforma de phishing que atacó a 17.000 víctimas en todo el mundo e intentó defraudar más de 20 millones de dólares

El FBI anunció el lunes 13 de abril (con las primeras operaciones el 10 de abril) el desmantelamiento de W3LL, una operación global de phishing que vendía su kit a ciberdelincuentes por 500 dólares y con la que se intentaron fraudes por más de 20 millones de dólares. La operación, liderada por la oficina del FBI en Atlanta en cooperación con la Policía Nacional de Indonesia, incluyó la detención del presunto desarrollador (identificado solo como G.L.) y la incautación del dominio w3ll.store y otros asociados. Es la primera acción coordinada entre EE.UU. e Indonesia contra un desarrollador de phishing kits. Continúa leyendo «El FBI desmantela W3LL, la plataforma de phishing que atacó a 17.000 víctimas en todo el mundo e intentó defraudar más de 20 millones de dólares»

Más de 60 organizaciones advierten a Meta que el reconocimiento facial en sus gafas inteligentes «empoderará a depredadores»: el plan «Name Tag» sigue adelante pese a la oposición

Más de 60 organizaciones de derechos civiles y seguridad infantil han enviado una carta al Congreso de EE.UU., a Meta y a EssilorLuxottica (fabricante de Ray-Ban) advirtiendo que integrar reconocimiento facial en las gafas Ray-Ban Meta supondría «empoderar a depredadores». La función, conocida internamente como «Name Tag», permitiría a quien lleva las gafas identificar a cualquier persona que mire simplemente preguntándole al asistente de IA. Continúa leyendo «Más de 60 organizaciones advierten a Meta que el reconocimiento facial en sus gafas inteligentes «empoderará a depredadores»: el plan «Name Tag» sigue adelante pese a la oposición»

El AI Index 2026 de Stanford confirma la brecha entre expertos y público general: 73% de especialistas cree que la IA mejorará el trabajo, solo 23% de ciudadanos opina lo mismo

La edición 2026 del AI Index de Stanford HAI, publicada este lunes 13 de abril, es la radiografía más completa del estado de la inteligencia artificial que existe. Más de 400 páginas de datos que recogen avances técnicos, inversión, adopción y percepción pública. Y el dato que está dando más que hablar no es sobre capacidades técnicas, sino sobre la fractura entre quienes construyen la IA y quienes la usan. Continúa leyendo «El AI Index 2026 de Stanford confirma la brecha entre expertos y público general: 73% de especialistas cree que la IA mejorará el trabajo, solo 23% de ciudadanos opina lo mismo»

Huxe: el equipo detrás de NotebookLM lanza una app de pódcast por IA generado a medida cada día, basado en tu email, calendario y feed de X

El equipo que creó NotebookLM (la herramienta de Google DeepMind que transformó documentos en pódcasts generados por IA) acaba de lanzar una aplicación independiente llamada Huxe. La idea central: en lugar de que tú busques contenido, la app te genera un resumen de audio personalizado cada día basándose en tu correo electrónico, tu calendario, tu feed de X y los temas que le digas que te interesan. Continúa leyendo «Huxe: el equipo detrás de NotebookLM lanza una app de pódcast por IA generado a medida cada día, basado en tu email, calendario y feed de X»

Booking.com confirma un acceso no autorizado a datos de clientes: nombres, emails, direcciones y teléfonos comprometidos (aunque la empresa no dice cuántos usuarios han sido afectados)

Booking.com ha confirmado que «terceros no autorizados» accedieron a información de reservas de una cantidad indeterminada de clientes. La empresa empezó a enviar correos de notificación durante el fin de semana del 12 de abril, y confirmó oficialmente la brecha el domingo por la noche. La información comprometida incluye nombres, direcciones de correo electrónico, direcciones postales, números de teléfono vinculados a las reservas y cualquier dato compartido con el alojamiento. Los datos financieros y las contraseñas, según la empresa, no fueron accedidos. Continúa leyendo «Booking.com confirma un acceso no autorizado a datos de clientes: nombres, emails, direcciones y teléfonos comprometidos (aunque la empresa no dice cuántos usuarios han sido afectados)»

Anthropic explora fabricar sus propios chips de IA: por qué la creadora de Claude quiere dejar de depender de Google y Amazon

Anthropic, la empresa creadora de Claude y una de las fuerzas dominantes en la carrera de la inteligencia artificial, está explorando el diseño y fabricación de sus propios chips de IA. Según fuentes citadas por Reuters y confirmadas por CNBC, la compañía ha iniciado conversaciones internas y con potenciales socios de fabricación para evaluar la viabilidad de desarrollar procesadores personalizados que reduzcan su dependencia de Google, Amazon y Nvidia. Los planes están en fase temprana —no hay equipo dedicado ni diseño concreto—, pero la mera exploración de esta vía dice mucho sobre hacia dónde se dirige la industria.

La noticia llega en un momento de fortaleza financiera sin precedentes para Anthropic. Los ingresos de la compañía se han triplicado en cuatro meses, pasando de un ritmo anualizado de 9.000 millones de dólares a finales de 2025 a más de 30.000 millones en abril de 2026. Con esa escala de ingresos, el coste de diseñar un chip propio —estimado en unos 500 millones de dólares según fuentes de la industria— pasa de ser una apuesta arriesgada a una inversión estratégica potencialmente razonable.

¿Por qué Anthropic necesitaría sus propios chips?

Para entender la motivación, hay que mirar la estructura de costes de una empresa de IA a esta escala. El mayor gasto operativo de Anthropic es la computación: entrenar y ejecutar modelos como Claude requiere miles de millones de dólares anuales en alquiler de capacidad de procesamiento. Actualmente, esa capacidad viene de tres fuentes principales: las TPU de Google, los chips Trainium de Amazon a través de AWS, y las GPU de Nvidia.

Cada una de esas dependencias tiene implicaciones estratégicas. Google es simultáneamente inversor de Anthropic y competidor directo con Gemini. Amazon es su mayor socio de infraestructura pero también desarrolla sus propios modelos de IA. Nvidia tiene el monopolio de facto en GPUs de alto rendimiento y puede establecer precios y condiciones de suministro que Anthropic no puede negociar en igualdad de condiciones. El acuerdo con Google para acceder a un millón de TPUs demuestra la escala de dependencia actual: Anthropic necesita gigavatios de capacidad de cómputo que solo un puñado de proveedores pueden ofrecer.

Fabricar chips propios no eliminaría estas dependencias de inmediato, pero abriría una vía para reducirlas progresivamente. Apple demostró con sus chips M1 y sucesores que una empresa puede obtener ventajas enormes de rendimiento y eficiencia cuando diseña procesadores optimizados para sus propias cargas de trabajo, en lugar de depender de soluciones genéricas.

¿Qué tipo de chip diseñaría Anthropic?

Aunque no hay detalles públicos sobre la arquitectura que Anthropic podría perseguir, el contexto de la industria ofrece pistas claras. Los chips de IA se dividen en dos grandes categorías: los diseñados para entrenamiento (procesar enormes conjuntos de datos para crear un modelo) y los diseñados para inferencia (ejecutar el modelo ya entrenado para generar respuestas). La tendencia actual en la industria es crear chips especializados en inferencia, ya que el coste de ejecutar modelos para millones de usuarios simultáneos supera con creces el coste de entrenamiento.

Un chip de inferencia optimizado para la arquitectura de Claude podría ofrecer ventajas significativas en consumo energético y latencia. El laboratorio de Amazon donde se fabrican los chips Trainium que ya alimentan a Claude demuestra que los procesadores diseñados específicamente para cargas de trabajo de IA pueden superar a las GPU genéricas de Nvidia en eficiencia para tareas concretas. Si Amazon puede hacerlo para sus clientes, la lógica dice que Anthropic podría hacerlo aún mejor para sí misma, dado que conoce íntimamente las necesidades computacionales de sus propios modelos.

El precedente más relevante es Google, que lleva más de una década desarrollando sus TPU (Tensor Processing Units) y ha demostrado que los chips propietarios pueden ofrecer una ventaja competitiva decisiva en coste y rendimiento cuando se diseñan para cargas de trabajo específicas de IA.

¿Cuánto costaría y cuánto tardaría?

Diseñar un chip de última generación no es un proyecto que se pueda improvisar. Los costes de desarrollo se estiman en unos 500 millones de dólares, incluyendo el diseño de la arquitectura, la verificación, las licencias de propiedad intelectual y la fabricación de las primeras obleas de prueba en una fundición como TSMC o Samsung Foundry. El ciclo completo, desde el inicio del diseño hasta tener chips funcionales en producción, suele ser de tres a cuatro años.

Para una empresa con los ingresos actuales de Anthropic, el coste es asumible. La valoración de 380.000 millones de dólares y la captación de 30.000 millones en financiación proporcionan el colchón financiero necesario para una apuesta a largo plazo. Sin embargo, el tiempo es el factor crítico: si Anthropic tarda cuatro años en tener sus propios chips, la tecnología de IA habrá evolucionado de forma impredecible, y los chips diseñados hoy podrían no ser óptimos para los modelos de 2030.

Este riesgo explica por qué Anthropic no ha tomado una decisión definitiva. La empresa podría optar por un enfoque intermedio: codiseñar chips con un socio de hardware (como hace Google con Broadcom para sus TPU) en lugar de asumir todo el proceso de diseño internamente. Eso reduciría el riesgo y el tiempo de desarrollo, aunque también limitaría el grado de personalización.

¿Qué significa esto para la industria de la IA?

La exploración de Anthropic no es un caso aislado. Meta y OpenAI están persiguiendo esfuerzos similares, según Reuters. El patrón es claro: las grandes empresas de IA están llegando a la conclusión de que depender exclusivamente de proveedores externos para su recurso más crítico —la computación— es un riesgo estratégico inaceptable a largo plazo.

Para Nvidia, esta tendencia es una amenaza existencial a medio plazo. Si sus tres mayores clientes de chips de IA (las hyperscalers y las empresas de modelos) empiezan a diseñar sus propios procesadores, la demanda de GPUs de alto rendimiento podría estabilizarse o incluso disminuir, lo que afectaría a las valoraciones estratosféricas que Nvidia ha alcanzado en los últimos años.

Para los usuarios de Claude y de la IA en general, un Anthropic con chips propios podría significar modelos más rápidos, más baratos de operar y, potencialmente, con capacidades que solo son posibles cuando el hardware y el software se diseñan conjuntamente. Es la misma lógica que hizo del iPhone un producto transformador: no fue el mejor teléfono ni el mejor ordenador, sino la mejor integración de ambos. Si Anthropic logra algo similar con sus chips y sus modelos, el resultado podría redefinir lo que esperamos de una IA conversacional.