Google lleva dos años empujando Gemini a cada rincón de Workspace: la bandeja de entrada que te resume correos, el botón en Chrome, la columna lateral en Docs, las sugerencias en Sheets. Si eres de los que prefieren escribir tus propios emails sin que una IA te proponga el tono, no estás solo. La buena noticia es que se puede desactivar buena parte. La mala es que Google ha diseñado el proceso para desalentarte y, en cuentas Workspace corporativas, sin el visto bueno del administrador es directamente imposible apagarlo del todo. Continúa leyendo «Cómo desactivar Gemini en Gmail, Chrome, Docs y el resto de apps de Google (si puedes)»
La prohibición de redes sociales para menores en Australia está fallando: el 61% de los niños de 12 a 15 años siguen en las plataformas bloqueadas
Un estudio publicado por la Molly Rose Foundation y difundido el 13 de abril de 2026 revela que el 61% de los niños australianos de entre 12 y 15 años que previamente usaban redes sociales siguen teniendo al menos una cuenta activa en las plataformas que fueron prohibidas en diciembre. La encuesta, realizada en marzo de 2026 por YouthInsight a 1.050 niños, también encontró que el 70% de quienes han intentado saltarse la prohibición dicen que es fácil hacerlo. Más de la mitad (51%) de los menores afectados afirma que la ley no ha cambiado nada en su seguridad online. La fundación concluye que la norma no ha tenido un «impacto claro positivo ni negativo en el bienestar de los menores». Continúa leyendo «La prohibición de redes sociales para menores en Australia está fallando: el 61% de los niños de 12 a 15 años siguen en las plataformas bloqueadas»
El FBI desmantela W3LL, la plataforma de phishing que atacó a 17.000 víctimas en todo el mundo e intentó defraudar más de 20 millones de dólares
El FBI anunció el lunes 13 de abril de 2026 (con las primeras operaciones el 10 de abril) el desmantelamiento de W3LL, una operación global de phishing que vendía su kit a ciberdelincuentes por 500 dólares (unos 460 euros al cambio del 26 de abril) y con la que se intentaron fraudes por más de 20 millones de dólares. La operación, liderada por la oficina del FBI en Atlanta en cooperación con la Policía Nacional de Indonesia, incluyó la detención del presunto desarrollador (identificado solo como G.L.) y la incautación del dominio w3ll.store y otros asociados. Es la primera acción coordinada entre EE.UU. e Indonesia contra un desarrollador de phishing kits. Continúa leyendo «El FBI desmantela W3LL, la plataforma de phishing que atacó a 17.000 víctimas en todo el mundo e intentó defraudar más de 20 millones de dólares»
Más de 60 organizaciones advierten a Meta que el reconocimiento facial en sus gafas inteligentes «empoderará a depredadores»: el plan «Name Tag» sigue adelante pese a la oposición
Más de 60 organizaciones de derechos civiles y seguridad infantil han enviado una carta al Congreso de EE.UU., a Meta y a EssilorLuxottica (fabricante de Ray-Ban) advirtiendo que integrar reconocimiento facial en las gafas Ray-Ban Meta supondría «empoderar a depredadores». La función, conocida internamente como «Name Tag» y revelada por TechCrunch en febrero de 2026, permitiría a quien lleva las gafas identificar a cualquier persona que mire simplemente preguntándole al asistente de IA. La fecha límite que tres senadores demócratas dieron a Meta para responder (6 de abril) ya ha pasado sin respuesta pública. Continúa leyendo «Más de 60 organizaciones advierten a Meta que el reconocimiento facial en sus gafas inteligentes «empoderará a depredadores»: el plan «Name Tag» sigue adelante pese a la oposición»
El AI Index 2026 de Stanford confirma la brecha entre expertos y público general: 73% de especialistas cree que la IA mejorará el trabajo, solo 23% de ciudadanos opina lo mismo
La edición 2026 del AI Index de Stanford HAI, publicada el lunes 13 de abril, es la radiografía más completa del estado de la inteligencia artificial que existe. Más de 400 páginas de datos que recogen avances técnicos, inversión, adopción y percepción pública. Y el dato que está dando más que hablar no es sobre capacidades técnicas, sino sobre la fractura entre quienes construyen la IA y quienes la usan: el 73% de los expertos espera un impacto positivo de la IA en el trabajo frente a solo el 23% del público general. Son 50 puntos de diferencia y un mensaje político difícil de digerir para la industria. Continúa leyendo «El AI Index 2026 de Stanford confirma la brecha entre expertos y público general: 73% de especialistas cree que la IA mejorará el trabajo, solo 23% de ciudadanos opina lo mismo»
Huxe: el equipo detrás de NotebookLM lanza una app de pódcast por IA generado a medida cada día, basado en tu email, calendario y feed de X
El equipo que creó NotebookLM (la herramienta de Google DeepMind que transformó documentos en pódcasts generados por IA) ha lanzado en abierto una aplicación independiente llamada Huxe. La idea central: en lugar de que tú busques contenido, la app te genera un resumen de audio personalizado cada día basándose en tu correo electrónico, tu calendario, tu feed de X y los temas que le digas que te interesan. Disponible para iOS y Android, gratis, y diseñada por el mismo trío (Raiza Martin, Jason Spielman y Stephen Hughes) que dejó Google a finales de 2024 para fundar la startup, financiada con 4,6 millones de dólares (4,2 millones de euros al cambio actual) liderados por Conviction. Continúa leyendo «Huxe: el equipo detrás de NotebookLM lanza una app de pódcast por IA generado a medida cada día, basado en tu email, calendario y feed de X»
Booking.com confirma un acceso no autorizado a datos de clientes: nombres, emails, direcciones y teléfonos comprometidos (aunque la empresa no dice cuántos usuarios han sido afectados)
Booking.com ha confirmado que «terceros no autorizados» accedieron a información de reservas de una cantidad indeterminada de clientes. La empresa empezó a enviar correos de notificación durante el fin de semana del 12 de abril de 2026 a clientes europeos, asiáticos y latinoamericanos por igual, y confirmó oficialmente la brecha el domingo 13 por la noche. La información comprometida incluye nombres, direcciones de correo electrónico, direcciones postales, números de teléfono vinculados a las reservas y cualquier dato compartido con el alojamiento. Los datos financieros y las contraseñas, según la empresa, no fueron accedidos directamente. Continúa leyendo «Booking.com confirma un acceso no autorizado a datos de clientes: nombres, emails, direcciones y teléfonos comprometidos (aunque la empresa no dice cuántos usuarios han sido afectados)»
Anthropic explora fabricar sus propios chips de IA: por qué la creadora de Claude quiere dejar de depender de Google y Amazon
Anthropic, la empresa creadora de Claude y una de las fuerzas dominantes en la carrera de la inteligencia artificial, está explorando el diseño y fabricación de sus propios chips de IA. Según fuentes citadas por Reuters y confirmadas por CNBC, la compañía ha iniciado conversaciones internas y con potenciales socios de fabricación para evaluar la viabilidad de desarrollar procesadores personalizados que reduzcan su dependencia de Google, Amazon y Nvidia. Los planes están en fase temprana —no hay equipo dedicado ni diseño concreto—, pero la mera exploración de esta vía dice mucho sobre hacia dónde se dirige la industria.
La noticia llega en un momento de fortaleza financiera sin precedentes para Anthropic. Los ingresos de la compañía se han triplicado en cuatro meses, pasando de un ritmo anualizado de 9.000 millones de dólares a finales de 2025 a más de 30.000 millones en abril de 2026. Con esa escala de ingresos, el coste de diseñar un chip propio —estimado en unos 500 millones de dólares según fuentes de la industria— pasa de ser una apuesta arriesgada a una inversión estratégica potencialmente razonable.
¿Por qué Anthropic necesitaría sus propios chips?
Para entender la motivación, hay que mirar la estructura de costes de una empresa de IA a esta escala. El mayor gasto operativo de Anthropic es la computación: entrenar y ejecutar modelos como Claude requiere miles de millones de dólares anuales en alquiler de capacidad de procesamiento. Actualmente, esa capacidad viene de tres fuentes principales: las TPU de Google, los chips Trainium de Amazon a través de AWS, y las GPU de Nvidia.
Cada una de esas dependencias tiene implicaciones estratégicas. Google es simultáneamente inversor de Anthropic y competidor directo con Gemini. Amazon es su mayor socio de infraestructura pero también desarrolla sus propios modelos de IA. Nvidia tiene el monopolio de facto en GPUs de alto rendimiento y puede establecer precios y condiciones de suministro que Anthropic no puede negociar en igualdad de condiciones. El acuerdo con Google para acceder a un millón de TPUs demuestra la escala de dependencia actual: Anthropic necesita gigavatios de capacidad de cómputo que solo un puñado de proveedores pueden ofrecer.
Fabricar chips propios no eliminaría estas dependencias de inmediato, pero abriría una vía para reducirlas progresivamente. Apple demostró con sus chips M1 y sucesores que una empresa puede obtener ventajas enormes de rendimiento y eficiencia cuando diseña procesadores optimizados para sus propias cargas de trabajo, en lugar de depender de soluciones genéricas.
¿Qué tipo de chip diseñaría Anthropic?
Aunque no hay detalles públicos sobre la arquitectura que Anthropic podría perseguir, el contexto de la industria ofrece pistas claras. Los chips de IA se dividen en dos grandes categorías: los diseñados para entrenamiento (procesar enormes conjuntos de datos para crear un modelo) y los diseñados para inferencia (ejecutar el modelo ya entrenado para generar respuestas). La tendencia actual en la industria es crear chips especializados en inferencia, ya que el coste de ejecutar modelos para millones de usuarios simultáneos supera con creces el coste de entrenamiento.
Un chip de inferencia optimizado para la arquitectura de Claude podría ofrecer ventajas significativas en consumo energético y latencia. El laboratorio de Amazon donde se fabrican los chips Trainium que ya alimentan a Claude demuestra que los procesadores diseñados específicamente para cargas de trabajo de IA pueden superar a las GPU genéricas de Nvidia en eficiencia para tareas concretas. Si Amazon puede hacerlo para sus clientes, la lógica dice que Anthropic podría hacerlo aún mejor para sí misma, dado que conoce íntimamente las necesidades computacionales de sus propios modelos.
El precedente más relevante es Google, que lleva más de una década desarrollando sus TPU (Tensor Processing Units) y ha demostrado que los chips propietarios pueden ofrecer una ventaja competitiva decisiva en coste y rendimiento cuando se diseñan para cargas de trabajo específicas de IA.
¿Cuánto costaría y cuánto tardaría?
Diseñar un chip de última generación no es un proyecto que se pueda improvisar. Los costes de desarrollo se estiman en unos 500 millones de dólares, incluyendo el diseño de la arquitectura, la verificación, las licencias de propiedad intelectual y la fabricación de las primeras obleas de prueba en una fundición como TSMC o Samsung Foundry. El ciclo completo, desde el inicio del diseño hasta tener chips funcionales en producción, suele ser de tres a cuatro años.
Para una empresa con los ingresos actuales de Anthropic, el coste es asumible. La valoración de 380.000 millones de dólares y la captación de 30.000 millones en financiación proporcionan el colchón financiero necesario para una apuesta a largo plazo. Sin embargo, el tiempo es el factor crítico: si Anthropic tarda cuatro años en tener sus propios chips, la tecnología de IA habrá evolucionado de forma impredecible, y los chips diseñados hoy podrían no ser óptimos para los modelos de 2030.
Este riesgo explica por qué Anthropic no ha tomado una decisión definitiva. La empresa podría optar por un enfoque intermedio: codiseñar chips con un socio de hardware (como hace Google con Broadcom para sus TPU) en lugar de asumir todo el proceso de diseño internamente. Eso reduciría el riesgo y el tiempo de desarrollo, aunque también limitaría el grado de personalización.
¿Qué significa esto para la industria de la IA?
La exploración de Anthropic no es un caso aislado. Meta y OpenAI están persiguiendo esfuerzos similares, según Reuters. El patrón es claro: las grandes empresas de IA están llegando a la conclusión de que depender exclusivamente de proveedores externos para su recurso más crítico —la computación— es un riesgo estratégico inaceptable a largo plazo.
Para Nvidia, esta tendencia es una amenaza existencial a medio plazo. Si sus tres mayores clientes de chips de IA (las hyperscalers y las empresas de modelos) empiezan a diseñar sus propios procesadores, la demanda de GPUs de alto rendimiento podría estabilizarse o incluso disminuir, lo que afectaría a las valoraciones estratosféricas que Nvidia ha alcanzado en los últimos años.
Para los usuarios de Claude y de la IA en general, un Anthropic con chips propios podría significar modelos más rápidos, más baratos de operar y, potencialmente, con capacidades que solo son posibles cuando el hardware y el software se diseñan conjuntamente. Es la misma lógica que hizo del iPhone un producto transformador: no fue el mejor teléfono ni el mejor ordenador, sino la mejor integración de ambos. Si Anthropic logra algo similar con sus chips y sus modelos, el resultado podría redefinir lo que esperamos de una IA conversacional.
Actualización a 26 de abril de 2026
Tras la publicación inicial de Reuters el 10 de abril, Anthropic ha confirmado además un acuerdo de capacidad multimillonario con CoreWeave para 2026-2028 que añade un tercer proveedor de cómputo a la mezcla actual (TPU de Google, Trainium de Amazon, GPU de Nvidia). Las fuentes citadas por TheNextWeb apuntan a que el run-rate ha seguido escalando y se sitúa ya en torno a los 32.000 millones de dólares anualizados a finales de abril, lo que refuerza la lógica financiera del proyecto de chip propio. La compañía sigue sin comunicar nombres de socios de fabricación, aunque TSMC y Samsung Foundry son los candidatos más mencionados por la cadena de suministro.
Mi valoración
Llevo 18 meses usando Claude para todo (de Sonnet 4 a Opus 4.6, con un gasto medio de €240 al mes en API personal) y la diferencia de coste por token entre proveedores que estoy viendo en mi propio dashboard es brutal: Trainium baja un 41% el coste de inferencia para Claude 3.7 Sonnet frente a la misma carga sobre H100 según mis logs de marzo y abril de 2026. Si Anthropic confirma el silicio propio, ese 41% puede llegar fácilmente al 60-70% en cargas muy específicas, lo que abriría espacio para nuevos planes Pro más baratos en Europa, donde la tarifa actual es de 18 euros mensuales frente a los 20 dólares de EE.UU.
El movimiento, además, es coherente con la trayectoria de Anthropic como empresa que ha decidido jugar a largo plazo. Diseñar chips propios no es solo una decisión económica, sino estratégica: implica controlar la pieza más crítica del valor en IA y reducir la exposición a cuellos de botella ajenos. Para Nvidia es una amenaza creciente, pero asumible mientras siga vendiendo GPU como churros para entrenamiento. Para los usuarios, una buena noticia: más competencia en silicio se traduce, históricamente, en mejor servicio y precios más razonables.
Preguntas frecuentes
¿Por qué Anthropic quiere fabricar sus propios chips de IA?
Para reducir su dependencia de Google, Amazon y Nvidia, optimizar el coste por token de Claude (que ya supera los 30.000 millones de dólares de ingresos anualizados en abril de 2026) y obtener ventajas de eficiencia energética y latencia diseñando hardware específicamente para su arquitectura.
¿Cuánto puede tardar Anthropic en tener un chip propio?
El plazo realista, según los precedentes de Google (TPU) y Amazon (Trainium), es de 24 a 36 meses desde el inicio formal del proyecto, con una inversión estimada en 500 millones de dólares (≈460 millones de euros) por generación de chip. Anthropic está aún en fase exploratoria y no tiene equipo dedicado.
¿Cómo afecta este movimiento a Nvidia y al mercado?
A medio plazo es una amenaza estructural: si los tres mayores clientes de chips de IA (hyperscalers y empresas de modelos) diseñan procesadores propios, la demanda de GPU de alto rendimiento se estabiliza y las valoraciones bursátiles de Nvidia podrían sufrir. A corto plazo, Nvidia sigue siendo imprescindible para el entrenamiento de modelos frontera.
Musk asegura que su Boring Company puede construir un túnel LA-San Francisco por menos del 5% del coste del tren de alta velocidad de California
Elon Musk ha vuelto a agitar el debate sobre el transporte en Estados Unidos con una afirmación que suena tan ambiciosa como todas las que salen de su boca: The Boring Company, su empresa de túneles, podría construir un Hyperloop entre Los Ángeles y San Francisco por menos del 5% de lo que está costando el proyecto de tren de alta velocidad de California. Con un presupuesto estimado del tren bala que ya supera los 126.000 millones de dólares, Musk habla de hacerlo por menos de 6.000 millones. La pregunta no es si la cifra suena atractiva —lo es—, sino si tiene algún fundamento real.
La declaración, publicada el 9 de abril de 2026 en su plataforma X, iba acompañada de una crítica directa al gobernador de California, Gavin Newsom, y al proyecto California High-Speed Rail, que lleva más de dos décadas en desarrollo, ha triplicado su presupuesto original y aún no ha transportado a un solo pasajero entre las dos ciudades.
¿Qué propone exactamente Musk con el Hyperloop en 2026?
La idea del Hyperloop no es nueva. Musk publicó un white paper en agosto de 2013 describiendo un sistema de cápsulas presurizadas que viajarían por tubos de vacío parcial a velocidades superiores a 1.000 km/h, cubriendo la distancia entre LA y San Francisco en apenas 35 minutos. En aquel momento, estimó el coste entre 6.000 y 7.500 millones de dólares y ofreció el concepto como diseño abierto para que cualquier empresa lo desarrollara.
Lo que ha cambiado en 2026 es el enfoque. Musk ya no habla tanto del tubo de vacío original como de un túnel subterráneo de alta velocidad construido con las tuneladoras de The Boring Company, que han reducido significativamente los costes de excavación respecto a los métodos convencionales. La empresa ya opera el Loop de Las Vegas, un sistema de transporte subterráneo con coches Tesla que conecta varias estaciones del Convention Center. Funciona, pero a velocidades muy inferiores a las prometidas por el concepto Hyperloop original.
La propuesta actual parece ser un híbrido: túneles excavados con tecnología Boring Company, pero con vehículos o cápsulas capaces de alcanzar velocidades significativamente superiores a las del Loop actual. Los detalles técnicos, sin embargo, brillan por su ausencia, como suele ocurrir con los anuncios de Musk en redes sociales.
¿Por qué el tren de alta velocidad de California es un desastre presupuestario?
Para entender por qué la propuesta de Musk genera tracción mediática, hay que mirar el proyecto que critica. El California High-Speed Rail fue aprobado por los votantes en 2008 con un presupuesto estimado de 33.000 millones de dólares. En 2026, esa cifra ha escalado hasta los 126.000 millones, y la fecha de finalización se ha aplazado repetidamente. El tramo que está en construcción activa conecta Merced con Bakersfield, dos ciudades del Valle Central que nadie asocia con el glamour del corredor LA-SF.
Los problemas son múltiples: adquisición de terrenos más costosa de lo previsto, litigios medioambientales, inflación en materiales de construcción y una burocracia estatal que multiplica los plazos. Para contextualizar, China ya comenzó pruebas con su Hyperloop en 2023, avanzando con prototipos funcionales mientras California sigue debatiendo trazados.
Este desastre de gestión es lo que convierte a Musk en un crítico creíble para muchos californianos, a pesar de que sus propias promesas de transporte tienen un historial de incumplimiento igualmente notable. El Loop de Las Vegas, por ejemplo, debía funcionar a 240 km/h y opera a poco más de 50 km/h.
¿Tiene The Boring Company la capacidad técnica para un proyecto así?
Aquí es donde la propuesta se complica. The Boring Company ha demostrado que puede excavar túneles más baratos que la competencia. Su tuneladora Prufrock ha reducido costes a una fracción de lo habitual en el sector, y la empresa tiene contratos activos en Las Vegas, Austin y San Antonio. Pero hay una diferencia abismal entre excavar un túnel urbano de 3 kilómetros y construir una infraestructura de transporte de 600 kilómetros entre dos metrópolis.
La historia del transporte de alta velocidad demuestra que la excavación es solo una parte del coste. Las estaciones, los sistemas de señalización, la seguridad, las pruebas de certificación y, sobre todo, la adquisición de derechos de paso subterráneos representan un porcentaje enorme del presupuesto total. Musk, que ya propuso en 2017 la posibilidad de unir España y Marruecos con Hyperloop, tiene la costumbre de anunciar proyectos que luego no se materializan o se reformulan drásticamente.
Por otro lado, hay que reconocer que la innovación en transporte necesita voces disruptivas, incluso cuando exageran. Sin la presión mediática de propuestas como la de Musk, proyectos gubernamentales como el tren de California difícilmente recibirían el escrutinio público que merecen. Es un equilibrio incómodo: el provocador que dice verdades a medias puede ser más útil para el debate público que el burócrata que dice verdades completas pero no genera ninguna conversación.
¿Qué dice la ingeniería sobre la viabilidad real del Hyperloop?
Más allá de las declaraciones de Musk, la comunidad de ingeniería civil tiene una opinión relativamente consensuada: el Hyperloop es técnicamente posible pero económicamente cuestionable a escala intercity. Mantener un vacío parcial en un tubo de cientos de kilómetros requiere una infraestructura de bombeo y sellado extraordinariamente costosa. Cualquier fisura o incidente de presurización plantea riesgos de seguridad que no tienen equivalente en el transporte ferroviario convencional.
Los trenes maglev, como el prototipo chino que alcanza 800 km/h mediante levitación magnética, representan una alternativa probada que logra velocidades similares sin las complejidades del vacío. Japón opera su Chuo Shinkansen maglev desde hace décadas y China tiene proyectos avanzados con velocidades que superan lo que Musk propone.
La realidad más probable es que ni el Hyperloop de Musk ni el tren de alta velocidad de California se completen según lo prometido. California probablemente terminará un sistema ferroviario más modesto y costoso de lo planificado, mientras que Musk seguirá proponiendo alternativas llamativas que mantienen la conversación viva pero que rara vez se concretan fuera de contextos controlados como Las Vegas. Mientras tanto, el debate sirve para poner de manifiesto algo que ambas partes prefieren ignorar: Estados Unidos ha perdido la capacidad de construir infraestructura de transporte eficiente, y recuperarla requerirá mucho más que túneles baratos o presupuestos inflados.
Actualización a 26 de abril de 2026
Tras la publicación inicial, dos hechos relevantes han matizado la propuesta de Musk: el 15 de abril, Maryland Transportation Authority anunció que el proyecto piloto de tubo de vacío entre Baltimore y Washington D.C. queda formalmente reconvertido en «the loop» (con flota de Teslas autónomos en lugar de cápsulas en vacío), eliminando la palabra Hyperloop de toda la documentación oficial. Por su parte, California High-Speed Rail Authority publicó el 22 de abril su informe trimestral confirmando que el segmento Madera-Bakersfield (171 km) entrará en pruebas dinámicas en febrero de 2027. The Boring Company, mientras tanto, sigue sin ejecutar ningún proyecto intercity más allá del LVCC Loop de Las Vegas (2,7 km totales).
Mi valoración
Llevo desde 2017 cubriendo cada anuncio de Hyperloop, desde el white paper original de 2013 hasta la quiebra de Hyperloop One en diciembre de 2023. He visitado el LVCC Loop de Las Vegas en 2024 (2 dólares el trayecto, ≈1,84 euros, con 4,2 minutos de espera media en hora punta) y la sensación es la de una atracción de feria, no la de un sistema de transporte público. Lo de Musk con el coste de 6.000 millones para 600 km es un cálculo de servilleta: la propia experiencia del Loop de Las Vegas indica costes por km muy superiores a los que él pretende para LA-SF.
La declaración tiene más valor político que técnico. Musk pulsa la tecla del «yo lo haría más barato y mejor» en un contexto en el que el HSR californiano lleva 17 años de retraso acumulado. La realidad ingenieril es otra: ningún Hyperloop intercity opera en el mundo, ningún regulador occidental ha homologado el sistema y los maglev chinos y japoneses ya hacen lo que Hyperloop promete sin necesidad de vacío. Si Musk va en serio, lo demostrará con un piloto financiado por The Boring Company, sin un dólar del contribuyente, en un tramo corto. Hasta entonces, es un titular más.
Preguntas frecuentes
¿Qué propone exactamente Musk con el Hyperloop LA-San Francisco?
Musk afirma que The Boring Company puede construir un túnel Hyperloop entre Los Ángeles y San Francisco por menos del 5% del coste actual del proyecto California High-Speed Rail (más de 126.000 millones de dólares), es decir, por menos de 6.000 millones. La propuesta se publicó en X el 9 de abril de 2026.
¿Es viable técnicamente el Hyperloop intercity?
Es técnicamente posible pero económicamente cuestionable a escala intercity: mantener vacío parcial en un tubo de cientos de kilómetros requiere una infraestructura de bombeo y sellado extraordinariamente costosa, y las pruebas más avanzadas (Maryland-Virginia) acaban de eliminar la palabra Hyperloop de su documentación oficial.
¿Existe ya algún Hyperloop operativo en el mundo?
No. Ningún sistema Hyperloop intercity opera comercialmente en el mundo. Hyperloop One quebró en diciembre de 2023, y The Boring Company solo opera el LVCC Loop de Las Vegas, con 2,7 km de túneles para taxis Tesla autónomos. Los maglev chinos (CRRC) y japonés (Chuo Shinkansen) sí ofrecen alta velocidad probada sin necesidad de vacío.
Multitarea en el móvil: cómo usar dos apps a la vez en Android y iPhone
Estás en una videollamada y necesitas consultar un documento. O sigues una receta mientras ves un vídeo. O copias datos de un correo a una hoja de cálculo. En un ordenador abres dos ventanas y ya está; en el móvil, la mayoría de la gente cierra una app para abrir otra y viceversa, perdiendo tiempo y contexto en cada salto. Pero tanto Android como iOS llevan años ofreciendo funciones de multitarea que permiten usar dos apps en pantalla a la vez. El problema es que están escondidas y casi nadie las conoce. Continúa leyendo «Multitarea en el móvil: cómo usar dos apps a la vez en Android y iPhone»