Estudio revela que los modelos de IA visual alucinen imágenes que no existen. Así de profundo es el problema que afecta a aplicaciones médicas y críticas.

Android 16 trae Desktop Mode nativo a Pixel pero Samsung DeX sigue adelante. Comparamos las dos opciones para convertir tu móvil en PC.

Análisis Ray-Ban Meta Gen 2: las gafas inteligentes más divertidas de 2026 con algunas señales de alerta de privacidad que (casi) ignoras.

El FBI desmantela W3LL, la plataforma de phishing que atacó a 17.000 víctimas en todo el mundo e intentó defraudar más de 20 millones de dólares

El FBI anunció el lunes 13 de abril (con las primeras operaciones el 10 de abril) el desmantelamiento de W3LL, una operación global de phishing que vendía su kit a ciberdelincuentes por 500 dólares y con la que se intentaron fraudes por más de 20 millones de dólares. La operación, liderada por la oficina del FBI en Atlanta en cooperación con la Policía Nacional de Indonesia, incluyó la detención del presunto desarrollador (identificado solo como G.L.) y la incautación del dominio w3ll.store y otros asociados. Es la primera acción coordinada entre EE.UU. e Indonesia contra un desarrollador de phishing kits. Continúa leyendo «El FBI desmantela W3LL, la plataforma de phishing que atacó a 17.000 víctimas en todo el mundo e intentó defraudar más de 20 millones de dólares»

Más de 60 organizaciones advierten a Meta que el reconocimiento facial en sus gafas inteligentes «empoderará a depredadores»: el plan «Name Tag» sigue adelante pese a la oposición

Más de 60 organizaciones de derechos civiles y seguridad infantil han enviado una carta al Congreso de EE.UU., a Meta y a EssilorLuxottica (fabricante de Ray-Ban) advirtiendo que integrar reconocimiento facial en las gafas Ray-Ban Meta supondría «empoderar a depredadores». La función, conocida internamente como «Name Tag», permitiría a quien lleva las gafas identificar a cualquier persona que mire simplemente preguntándole al asistente de IA. Continúa leyendo «Más de 60 organizaciones advierten a Meta que el reconocimiento facial en sus gafas inteligentes «empoderará a depredadores»: el plan «Name Tag» sigue adelante pese a la oposición»

El AI Index 2026 de Stanford confirma la brecha entre expertos y público general: 73% de especialistas cree que la IA mejorará el trabajo, solo 23% de ciudadanos opina lo mismo

La edición 2026 del AI Index de Stanford HAI, publicada este lunes 13 de abril, es la radiografía más completa del estado de la inteligencia artificial que existe. Más de 400 páginas de datos que recogen avances técnicos, inversión, adopción y percepción pública. Y el dato que está dando más que hablar no es sobre capacidades técnicas, sino sobre la fractura entre quienes construyen la IA y quienes la usan. Continúa leyendo «El AI Index 2026 de Stanford confirma la brecha entre expertos y público general: 73% de especialistas cree que la IA mejorará el trabajo, solo 23% de ciudadanos opina lo mismo»

Huxe: el equipo detrás de NotebookLM lanza una app de pódcast por IA generado a medida cada día, basado en tu email, calendario y feed de X

El equipo que creó NotebookLM (la herramienta de Google DeepMind que transformó documentos en pódcasts generados por IA) acaba de lanzar una aplicación independiente llamada Huxe. La idea central: en lugar de que tú busques contenido, la app te genera un resumen de audio personalizado cada día basándose en tu correo electrónico, tu calendario, tu feed de X y los temas que le digas que te interesan. Continúa leyendo «Huxe: el equipo detrás de NotebookLM lanza una app de pódcast por IA generado a medida cada día, basado en tu email, calendario y feed de X»

Booking.com confirma un acceso no autorizado a datos de clientes: nombres, emails, direcciones y teléfonos comprometidos (aunque la empresa no dice cuántos usuarios han sido afectados)

Booking.com ha confirmado que «terceros no autorizados» accedieron a información de reservas de una cantidad indeterminada de clientes. La empresa empezó a enviar correos de notificación durante el fin de semana del 12 de abril, y confirmó oficialmente la brecha el domingo por la noche. La información comprometida incluye nombres, direcciones de correo electrónico, direcciones postales, números de teléfono vinculados a las reservas y cualquier dato compartido con el alojamiento. Los datos financieros y las contraseñas, según la empresa, no fueron accedidos. Continúa leyendo «Booking.com confirma un acceso no autorizado a datos de clientes: nombres, emails, direcciones y teléfonos comprometidos (aunque la empresa no dice cuántos usuarios han sido afectados)»

Anthropic explora fabricar sus propios chips de IA: por qué la creadora de Claude quiere dejar de depender de Google y Amazon

Anthropic, la empresa creadora de Claude y una de las fuerzas dominantes en la carrera de la inteligencia artificial, está explorando el diseño y fabricación de sus propios chips de IA. Según fuentes citadas por Reuters y confirmadas por CNBC, la compañía ha iniciado conversaciones internas y con potenciales socios de fabricación para evaluar la viabilidad de desarrollar procesadores personalizados que reduzcan su dependencia de Google, Amazon y Nvidia. Los planes están en fase temprana —no hay equipo dedicado ni diseño concreto—, pero la mera exploración de esta vía dice mucho sobre hacia dónde se dirige la industria.

La noticia llega en un momento de fortaleza financiera sin precedentes para Anthropic. Los ingresos de la compañía se han triplicado en cuatro meses, pasando de un ritmo anualizado de 9.000 millones de dólares a finales de 2025 a más de 30.000 millones en abril de 2026. Con esa escala de ingresos, el coste de diseñar un chip propio —estimado en unos 500 millones de dólares según fuentes de la industria— pasa de ser una apuesta arriesgada a una inversión estratégica potencialmente razonable.

¿Por qué Anthropic necesitaría sus propios chips?

Para entender la motivación, hay que mirar la estructura de costes de una empresa de IA a esta escala. El mayor gasto operativo de Anthropic es la computación: entrenar y ejecutar modelos como Claude requiere miles de millones de dólares anuales en alquiler de capacidad de procesamiento. Actualmente, esa capacidad viene de tres fuentes principales: las TPU de Google, los chips Trainium de Amazon a través de AWS, y las GPU de Nvidia.

Cada una de esas dependencias tiene implicaciones estratégicas. Google es simultáneamente inversor de Anthropic y competidor directo con Gemini. Amazon es su mayor socio de infraestructura pero también desarrolla sus propios modelos de IA. Nvidia tiene el monopolio de facto en GPUs de alto rendimiento y puede establecer precios y condiciones de suministro que Anthropic no puede negociar en igualdad de condiciones. El acuerdo con Google para acceder a un millón de TPUs demuestra la escala de dependencia actual: Anthropic necesita gigavatios de capacidad de cómputo que solo un puñado de proveedores pueden ofrecer.

Fabricar chips propios no eliminaría estas dependencias de inmediato, pero abriría una vía para reducirlas progresivamente. Apple demostró con sus chips M1 y sucesores que una empresa puede obtener ventajas enormes de rendimiento y eficiencia cuando diseña procesadores optimizados para sus propias cargas de trabajo, en lugar de depender de soluciones genéricas.

¿Qué tipo de chip diseñaría Anthropic?

Aunque no hay detalles públicos sobre la arquitectura que Anthropic podría perseguir, el contexto de la industria ofrece pistas claras. Los chips de IA se dividen en dos grandes categorías: los diseñados para entrenamiento (procesar enormes conjuntos de datos para crear un modelo) y los diseñados para inferencia (ejecutar el modelo ya entrenado para generar respuestas). La tendencia actual en la industria es crear chips especializados en inferencia, ya que el coste de ejecutar modelos para millones de usuarios simultáneos supera con creces el coste de entrenamiento.

Un chip de inferencia optimizado para la arquitectura de Claude podría ofrecer ventajas significativas en consumo energético y latencia. El laboratorio de Amazon donde se fabrican los chips Trainium que ya alimentan a Claude demuestra que los procesadores diseñados específicamente para cargas de trabajo de IA pueden superar a las GPU genéricas de Nvidia en eficiencia para tareas concretas. Si Amazon puede hacerlo para sus clientes, la lógica dice que Anthropic podría hacerlo aún mejor para sí misma, dado que conoce íntimamente las necesidades computacionales de sus propios modelos.

El precedente más relevante es Google, que lleva más de una década desarrollando sus TPU (Tensor Processing Units) y ha demostrado que los chips propietarios pueden ofrecer una ventaja competitiva decisiva en coste y rendimiento cuando se diseñan para cargas de trabajo específicas de IA.

¿Cuánto costaría y cuánto tardaría?

Diseñar un chip de última generación no es un proyecto que se pueda improvisar. Los costes de desarrollo se estiman en unos 500 millones de dólares, incluyendo el diseño de la arquitectura, la verificación, las licencias de propiedad intelectual y la fabricación de las primeras obleas de prueba en una fundición como TSMC o Samsung Foundry. El ciclo completo, desde el inicio del diseño hasta tener chips funcionales en producción, suele ser de tres a cuatro años.

Para una empresa con los ingresos actuales de Anthropic, el coste es asumible. La valoración de 380.000 millones de dólares y la captación de 30.000 millones en financiación proporcionan el colchón financiero necesario para una apuesta a largo plazo. Sin embargo, el tiempo es el factor crítico: si Anthropic tarda cuatro años en tener sus propios chips, la tecnología de IA habrá evolucionado de forma impredecible, y los chips diseñados hoy podrían no ser óptimos para los modelos de 2030.

Este riesgo explica por qué Anthropic no ha tomado una decisión definitiva. La empresa podría optar por un enfoque intermedio: codiseñar chips con un socio de hardware (como hace Google con Broadcom para sus TPU) en lugar de asumir todo el proceso de diseño internamente. Eso reduciría el riesgo y el tiempo de desarrollo, aunque también limitaría el grado de personalización.

¿Qué significa esto para la industria de la IA?

La exploración de Anthropic no es un caso aislado. Meta y OpenAI están persiguiendo esfuerzos similares, según Reuters. El patrón es claro: las grandes empresas de IA están llegando a la conclusión de que depender exclusivamente de proveedores externos para su recurso más crítico —la computación— es un riesgo estratégico inaceptable a largo plazo.

Para Nvidia, esta tendencia es una amenaza existencial a medio plazo. Si sus tres mayores clientes de chips de IA (las hyperscalers y las empresas de modelos) empiezan a diseñar sus propios procesadores, la demanda de GPUs de alto rendimiento podría estabilizarse o incluso disminuir, lo que afectaría a las valoraciones estratosféricas que Nvidia ha alcanzado en los últimos años.

Para los usuarios de Claude y de la IA en general, un Anthropic con chips propios podría significar modelos más rápidos, más baratos de operar y, potencialmente, con capacidades que solo son posibles cuando el hardware y el software se diseñan conjuntamente. Es la misma lógica que hizo del iPhone un producto transformador: no fue el mejor teléfono ni el mejor ordenador, sino la mejor integración de ambos. Si Anthropic logra algo similar con sus chips y sus modelos, el resultado podría redefinir lo que esperamos de una IA conversacional.

Musk asegura que su Boring Company puede construir un túnel LA-San Francisco por menos del 5% del coste del tren de alta velocidad de California

Elon Musk ha vuelto a agitar el debate sobre el transporte en Estados Unidos con una afirmación que suena tan ambiciosa como todas las que salen de su boca: The Boring Company, su empresa de túneles, podría construir un Hyperloop entre Los Ángeles y San Francisco por menos del 5% de lo que está costando el proyecto de tren de alta velocidad de California. Con un presupuesto estimado del tren bala que ya supera los 126.000 millones de dólares, Musk habla de hacerlo por menos de 6.000 millones. La pregunta no es si la cifra suena atractiva —lo es—, sino si tiene algún fundamento real.

La declaración, publicada el 9 de abril de 2026 en su plataforma X, iba acompañada de una crítica directa al gobernador de California, Gavin Newsom, y al proyecto California High-Speed Rail, que lleva más de dos décadas en desarrollo, ha triplicado su presupuesto original y aún no ha transportado a un solo pasajero entre las dos ciudades.

¿Qué propone exactamente Musk con el Hyperloop en 2026?

La idea del Hyperloop no es nueva. Musk publicó un white paper en agosto de 2013 describiendo un sistema de cápsulas presurizadas que viajarían por tubos de vacío parcial a velocidades superiores a 1.000 km/h, cubriendo la distancia entre LA y San Francisco en apenas 35 minutos. En aquel momento, estimó el coste entre 6.000 y 7.500 millones de dólares y ofreció el concepto como diseño abierto para que cualquier empresa lo desarrollara.

Lo que ha cambiado en 2026 es el enfoque. Musk ya no habla tanto del tubo de vacío original como de un túnel subterráneo de alta velocidad construido con las tuneladoras de The Boring Company, que han reducido significativamente los costes de excavación respecto a los métodos convencionales. La empresa ya opera el Loop de Las Vegas, un sistema de transporte subterráneo con coches Tesla que conecta varias estaciones del Convention Center. Funciona, pero a velocidades muy inferiores a las prometidas por el concepto Hyperloop original.

La propuesta actual parece ser un híbrido: túneles excavados con tecnología Boring Company, pero con vehículos o cápsulas capaces de alcanzar velocidades significativamente superiores a las del Loop actual. Los detalles técnicos, sin embargo, brillan por su ausencia, como suele ocurrir con los anuncios de Musk en redes sociales.

¿Por qué el tren de alta velocidad de California es un desastre presupuestario?

Para entender por qué la propuesta de Musk genera tracción mediática, hay que mirar el proyecto que critica. El California High-Speed Rail fue aprobado por los votantes en 2008 con un presupuesto estimado de 33.000 millones de dólares. En 2026, esa cifra ha escalado hasta los 126.000 millones, y la fecha de finalización se ha aplazado repetidamente. El tramo que está en construcción activa conecta Merced con Bakersfield, dos ciudades del Valle Central que nadie asocia con el glamour del corredor LA-SF.

Los problemas son múltiples: adquisición de terrenos más costosa de lo previsto, litigios medioambientales, inflación en materiales de construcción y una burocracia estatal que multiplica los plazos. Para contextualizar, China ya comenzó pruebas con su Hyperloop en 2023, avanzando con prototipos funcionales mientras California sigue debatiendo trazados.

Este desastre de gestión es lo que convierte a Musk en un crítico creíble para muchos californianos, a pesar de que sus propias promesas de transporte tienen un historial de incumplimiento igualmente notable. El Loop de Las Vegas, por ejemplo, debía funcionar a 240 km/h y opera a poco más de 50 km/h.

¿Tiene The Boring Company la capacidad técnica para un proyecto así?

Aquí es donde la propuesta se complica. The Boring Company ha demostrado que puede excavar túneles más baratos que la competencia. Su tuneladora Prufrock ha reducido costes a una fracción de lo habitual en el sector, y la empresa tiene contratos activos en Las Vegas, Austin y San Antonio. Pero hay una diferencia abismal entre excavar un túnel urbano de 3 kilómetros y construir una infraestructura de transporte de 600 kilómetros entre dos metrópolis.

La historia del transporte de alta velocidad demuestra que la excavación es solo una parte del coste. Las estaciones, los sistemas de señalización, la seguridad, las pruebas de certificación y, sobre todo, la adquisición de derechos de paso subterráneos representan un porcentaje enorme del presupuesto total. Musk, que ya propuso en 2017 la posibilidad de unir España y Marruecos con Hyperloop, tiene la costumbre de anunciar proyectos que luego no se materializan o se reformulan drásticamente.

Por otro lado, hay que reconocer que la innovación en transporte necesita voces disruptivas, incluso cuando exageran. Sin la presión mediática de propuestas como la de Musk, proyectos gubernamentales como el tren de California difícilmente recibirían el escrutinio público que merecen. Es un equilibrio incómodo: el provocador que dice verdades a medias puede ser más útil para el debate público que el burócrata que dice verdades completas pero no genera ninguna conversación.

¿Qué dice la ingeniería sobre la viabilidad real del Hyperloop?

Más allá de las declaraciones de Musk, la comunidad de ingeniería civil tiene una opinión relativamente consensuada: el Hyperloop es técnicamente posible pero económicamente cuestionable a escala intercity. Mantener un vacío parcial en un tubo de cientos de kilómetros requiere una infraestructura de bombeo y sellado extraordinariamente costosa. Cualquier fisura o incidente de presurización plantea riesgos de seguridad que no tienen equivalente en el transporte ferroviario convencional.

Los trenes maglev, como el prototipo chino que alcanza 800 km/h mediante levitación magnética, representan una alternativa probada que logra velocidades similares sin las complejidades del vacío. Japón opera su Chuo Shinkansen maglev desde hace décadas y China tiene proyectos avanzados con velocidades que superan lo que Musk propone.

La realidad más probable es que ni el Hyperloop de Musk ni el tren de alta velocidad de California se completen según lo prometido. California probablemente terminará un sistema ferroviario más modesto y costoso de lo planificado, mientras que Musk seguirá proponiendo alternativas llamativas que mantienen la conversación viva pero que rara vez se concretan fuera de contextos controlados como Las Vegas. Mientras tanto, el debate sirve para poner de manifiesto algo que ambas partes prefieren ignorar: Estados Unidos ha perdido la capacidad de construir infraestructura de transporte eficiente, y recuperarla requerirá mucho más que túneles baratos o presupuestos inflados.

Multitarea en el móvil: cómo usar dos apps a la vez en Android y iPhone

Estás en una videollamada y necesitas consultar un documento. O sigues una receta mientras ves un vídeo. O copias datos de un correo a una hoja de cálculo. En un ordenador abres dos ventanas y ya está; en el móvil, la mayoría de la gente cierra una app para abrir otra y viceversa, perdiendo tiempo y contexto en cada salto. Pero tanto Android como iOS llevan años ofreciendo funciones de multitarea que permiten usar dos apps en pantalla a la vez. El problema es que están escondidas y casi nadie las conoce.

Continúa leyendo «Multitarea en el móvil: cómo usar dos apps a la vez en Android y iPhone»

Claude llega a Microsoft Word como add-in: Anthropic pone su IA a revisar contratos legales dentro del propio documento

Anthropic acaba de dar el paso que el sector legal lleva meses pidiendo: Claude, su modelo de lenguaje más avanzado, ahora vive directamente dentro de Microsoft Word como un add-in —una extensión instalable dentro de Office— que coloca un panel lateral completo junto a tu documento. No es un chatbot en una pestaña aparte. No es copiar y pegar entre ventanas. Es la inteligencia artificial integrada en la herramienta donde millones de profesionales ya trabajan cada día.

Continúa leyendo «Claude llega a Microsoft Word como add-in: Anthropic pone su IA a revisar contratos legales dentro del propio documento»

Un hacker solitario usó Claude y ChatGPT para comprometer nueve agencias del gobierno de México: así funciona el ciberataque con IA

Un solo individuo. Dos herramientas de inteligencia artificial —Claude, de Anthropic, y ChatGPT, de OpenAI—. Nueve agencias del gobierno de México comprometidas. Cientos de millones de registros robados. Esto no es el argumento de una película de hackers: es lo que acaba de ocurrir, según informaciones publicadas hoy en foros especializados de ciberseguridad.

Continúa leyendo «Un hacker solitario usó Claude y ChatGPT para comprometer nueve agencias del gobierno de México: así funciona el ciberataque con IA»