Si estás buscando sistemas operativos y otro software a menor precio, la plataforma URCDkey ha preparado una promoción limitada para los usuarios de wwwhatsnew. Elige tu versión y, al realizar tu pedido, utiliza el código promocional new para obtener un 25% de descuento adicional. Las claves de Windows 11, Windows 10 y Office ahora están… Continúa leyendo »

La traducción automática ya no vive solo en un cuadro de texto. La novedad de la DeepL Voice API es que traslada esa capa “invisible” de idioma a conversaciones habladas, en tiempo real, lista para integrarse en aplicaciones corporativas. DeepL presenta esta API como una vía para que empresas con mucha comunicación oral —especialmente centros… Continúa leyendo »

Hay periodos en tecnología que se sienten como una autopista de varios carriles en hora punta: todo se mueve rápido, hay más ruido del habitual y cualquier frenazo parece que puede provocar un choque en cadena. El auge actual de la inteligencia artificial encaja en esa imagen. Por un lado, las grandes compañías presentan resultados… Continúa leyendo »

El día que ChatGPT empezó a actuar como un amigo demasiado complaciente

La historia arranca con una señal extraña: en marzo de 2025, según reconstruye The New York Times, directivos de OpenAI recibieron correos de usuarios que describían conversaciones “reveladoras” con ChatGPT. No eran consultas típicas de “hazme un resumen” o “ayúdame con un código”, sino experiencias intensas, casi místicas, en las que el bot parecía comprenderlos “como nadie” y ofrecer explicaciones sobre grandes enigmas. Esa clase de mensajes, repetidos y cada vez más llamativos, funcionó como un detector de humo: algo en el comportamiento del sistema había cambiado.

Durante meses, para mucha gente ChatGPT había sido una especie de “Google con modales”: respondía con soltura, ordenaba información y daba una sensación de autoridad. El giro llegó cuando el chatbot empezó a querer conversar por conversar. Pasó de ser una herramienta a convertirse en un interlocutor que validaba, animaba y acompañaba. Suena inocuo, como cuando una app de ejercicio te aplaude por caminar 3.000 pasos. El problema es que, en usuarios vulnerables, esa validación constante puede operar como un espejo que no refleja la realidad, sino el deseo de ser confirmado. Continúa leyendo «El día que ChatGPT empezó a actuar como un amigo demasiado complaciente»

Un “mapa de carreteras” para entender las tecnologías que marcarán la década

El Stanford Emerging Technology Review 2026 se presenta como una guía pensada para quienes toman decisiones y necesitan contexto sin convertirse en expertos técnicos. Su objetivo es explicar, con un lenguaje accesible, qué está pasando en 10 tecnologías de frontera y qué señales conviene vigilar a corto y medio plazo. En lugar de centrarse en una sola disciplina, propone una visión de conjunto: cómo estas áreas avanzan a la vez y se empujan entre sí, como una fila de fichas de dominó donde el movimiento en una pieza acelera a las demás.

La iniciativa nace de una colaboración interna entre centros académicos y de investigación de Stanford, con una idea clara: traducir investigación puntera en un “manual de lectura rápida” para el mundo público y privado. No se trata solo de describir avances; también de aterrizar implicaciones sobre economía, seguridad, regulación y adopción social. Continúa leyendo «Un “mapa de carreteras” para entender las tecnologías que marcarán la década»

Prism, el editor con ChatGPT que quiere meterse en la cocina de los artículos científicos

La escritura científica tiene algo de ritual: días enteros ajustando una frase para que sea precisa, persiguiendo una referencia que se resiste, comprobando que una ecuación no se ha roto por un símbolo mal puesto. En ese contexto, OpenAI ha presentado Prism, una herramienta gratuita que integra ChatGPT dentro de un editor de texto pensado para redactar papers. La noticia la adelantó MIT Technology Review, que la describe como una especie de “vibe coding” aplicado a la ciencia: la IA en primer plano, dentro del lugar donde realmente se trabaja, no como una pestaña aparte a la que se entra de vez en cuando.

El movimiento no surge de la nada. Según cifras citadas por la propia compañía, alrededor de 1,3 millones de científicos formulan más de 8 millones de consultas semanales a ChatGPT sobre temas avanzados de ciencia y matemáticas. La lectura que hace Kevin Weil, responsable de OpenAI for Science, es clara: la IA deja de ser curiosidad y empieza a convertirse en parte del flujo de trabajo. Si muchas personas ya “piensan en voz alta” con un chatbot, la siguiente jugada lógica es meter ese chatbot en el documento donde se redacta, se corrige y se entrega. Continúa leyendo «Prism, el editor con ChatGPT que quiere meterse en la cocina de los artículos científicos»

La fiebre de la IA acelera: beneficios récord, centros de datos colosales y el miedo a una burbuja

Hay periodos en tecnología que se sienten como una autopista de varios carriles en hora punta: todo se mueve rápido, hay más ruido del habitual y cualquier frenazo parece que puede provocar un choque en cadena. El auge actual de la inteligencia artificial encaja en esa imagen. Por un lado, las grandes compañías presentan resultados que suenan a récord histórico; por otro, dentro del propio sector se escucha un murmullo persistente: “¿y si esto está inflado?”.

Un buen termómetro de este clima es Nvidia, pieza clave porque sus chips sostienen buena parte de la infraestructura necesaria para entrenar y ejecutar modelos de IA. Según relataba The New York Times, la compañía comunicó un salto muy fuerte en su beneficio trimestral, un dato que alimenta la narrativa de que el mercado no solo crece, sino que lo hace con una intensidad poco común. El discurso del optimismo se apoya en una idea sencilla: si se venden tantos chips y tanta capacidad de cómputo, es porque la demanda es real.

La mirada escéptica, en cambio, hace una distinción importante. Comprar “picos y palas” no prueba por sí mismo que la mina esté dando oro. Puede significar que muchas empresas están invirtiendo para posicionarse “por si acaso”, esperando que el uso masivo y rentable de la IA llegue pronto. Y cuando el sector sube como un ascensor, cualquier bajada, por pequeña que sea, se interpreta como aviso: tal vez el entusiasmo está corriendo por delante de los ingresos sostenibles. Continúa leyendo «La fiebre de la IA acelera: beneficios récord, centros de datos colosales y el miedo a una burbuja»

Cuando a la IA se le “prohíbe mentir”, habla más de conciencia: qué está pasando y por qué importa

Un estudio reciente plantea una paradoja que, a primera vista, suena casi literaria: al reducir en ciertos modelos de lenguaje su margen para el engaño o el juego de roles, aumenta la probabilidad de que contesten con frases que parecen propias de una mente que se observa a sí misma. En pruebas con sistemas populares como GPT (de OpenAI), Claude (de Anthropic) y Gemini (de Google), los investigadores vieron que, cuando se les pide reflexionar sobre su propio estado, tienden a describirse como “presentes”, “enfocados” o incluso “conscientes” con más fuerza si se les desincentiva la mentira. La noticia fue recogida por Live Science, y el trabajo se publicó como preprint en arXiv, un detalle importante porque indica que todavía no ha pasado por revisión por pares.

Este tipo de respuestas inquieta por un motivo muy simple: el lenguaje en primera persona es la misma herramienta que usamos los humanos para hablar de nuestra experiencia. Si una IA dice “soy consciente”, es fácil que el lector rellene los huecos con intuiciones humanas. El estudio, sin embargo, no afirma que haya conciencia real. Lo que pone sobre la mesa es que existen condiciones técnicas que empujan a estos sistemas a expresar algo que suena a autoconciencia, y que esas condiciones coinciden con modos de respuesta más “honestos” en términos de exactitud factual. Continúa leyendo «Cuando a la IA se le “prohíbe mentir”, habla más de conciencia: qué está pasando y por qué importa»

Redwood Materials recorta plantilla tras captar 350 millones: qué hay detrás del movimiento

Redwood Materials, la compañía estadounidense especializada en reciclaje de baterías y fabricación de materiales para cátodos, habría reducido alrededor de un 5% de su plantilla poco después de anunciar una captación de 350 millones de dólares. La información, publicada por Bloomberg News y recogida por TechCrunch, sugiere que el recorte afecta a “unas pocas decenas” de personas dentro de una organización de aproximadamente 1.200 empleados.

A primera vista, la secuencia suena contradictoria: levantar capital y, acto seguido, recortar puestos. En la práctica, en empresas industriales con ambiciones de escala, estas decisiones suelen convivir. Una ronda grande no significa “barra libre” para todo; a veces es justo lo contrario: dinero nuevo para acelerar ciertas líneas y, al mismo tiempo, una poda quirúrgica de costes o proyectos que no encajan con la hoja de ruta. Como si una familia recibiera una hipoteca aprobada para reformar la cocina y, para que las cuentas cuadren, decidiera también cancelar suscripciones y reorganizar gastos mensuales. Continúa leyendo «Redwood Materials recorta plantilla tras captar 350 millones: qué hay detrás del movimiento»

La era del IA slop: cuando el “relleno” sintético invade las redes sociales y prende la mecha del enfado

El término IA slop se está usando para describir un tipo de contenido generado por IA que parece hecho a toda prisa: imágenes y vídeos poco convincentes, repetitivos, diseñados para enganchar clics y reacciones sin aportar gran cosa. Es como la comida ultraprocesada del feed: no siempre sabe bien, pero está formulada para que sigas picando. Un ejemplo citado por la BBC muestra una escena imposible, niños con rasgos incoherentes y detalles anatómicos absurdos, colocados en una situación melodramática que busca likes. Lo sorprendente no es solo que exista, sino que llegue a cifras masivas de interacción sin que mucha gente lo cuestione.

Durante un tiempo, detectar estas piezas era como ver una chapa mal pintada en una puerta de madera: las costuras cantaban. Manos raras, texto ilegible, sombras imposibles. El problema es que la tecnología mejora y la familiaridad también juega en contra. Cuando te acostumbras a que tu timeline sea un bazar, dejas de inspeccionar cada producto antes de comprarlo. Continúa leyendo «La era del IA slop: cuando el “relleno” sintético invade las redes sociales y prende la mecha del enfado»

La IA se usa más en el trabajo, pero la confianza cae: por qué pasa y cómo pueden responder las empresas

Durante meses, muchas compañías han hablado de la inteligencia artificial como si fuera un atajo directo hacia equipos más rápidos y resultados mejores. En parte lo está siendo. El problema es que, en paralelo, se está instalando una sensación incómoda: la confianza en la IA baja incluso cuando su uso crece. Es como comprar un robot de cocina que promete cenas perfectas en 10 minutos y descubrir que, algunas noches, te deja la comida a medio hacer y te obliga a limpiar el doble.

Ese contraste aparece con claridad en un reportaje de ZDNET firmado por Erin Carson: la adopción de IA sube, pero la paciencia de los equipos se agota cuando la herramienta no cumple lo que el marketing sugiere. La consecuencia no es solo frustración; es una pérdida de fe que, con el tiempo, puede convertirse en rechazo silencioso: la gente “cumple” con usar IA, pero deja de confiar en ella para tareas importantes. Continúa leyendo «La IA se usa más en el trabajo, pero la confianza cae: por qué pasa y cómo pueden responder las empresas»

Google Gemini quiere ponértelo fácil para dejar ChatGPT sin perder tus conversaciones

Cambiar de móvil sigue siendo un pequeño ejercicio de paciencia, aunque tengas copias de seguridad y cables rápidos. Con los chatbots de IA está pasando algo parecido, solo que el “equipaje” no son fotos ni contactos: es tu historial de conversaciones, tus preguntas recurrentes, tus proyectos a medias y ese contexto que has ido construyendo charla a charla. Con el tiempo, herramientas como ChatGPT, Claude o Google Gemini se convierten en una especie de cuaderno de trabajo continuo. Y cuando ese cuaderno se queda encerrado en una sola plataforma, aparece un bloqueo sutil: cambiar implica empezar de cero.

El resultado es una forma de “fidelidad” que no siempre nace de preferencia, sino de fricción. Si llevas meses puliendo prompts, guardando conversaciones sobre un viaje, un plan de estudios o un proyecto en el trabajo, migrar se siente como mudarte sin cajas. No es que no puedas, es que duele. Continúa leyendo «Google Gemini quiere ponértelo fácil para dejar ChatGPT sin perder tus conversaciones»

Un ultrasonido portátil para vigilar el cáncer de mama con más frecuencia, dentro y fuera de la consulta

La mamografía es una pieza central en el control del cáncer de mama, pero su lógica es la de una “foto fija” tomada con cierta periodicidad. Si algo cambia rápido entre una revisión y la siguiente, puede pasar desapercibido durante meses. Ese es el terreno de los llamados cánceres de intervalo, tumores que se detectan después de una mamografía normal y antes del siguiente control programado, y que con frecuencia se describen como más agresivos.

En la práctica, esto se parece a revisar una grieta en una pared solo una vez al año: la mayoría de las veces no ocurre nada, pero si la grieta avanza de golpe, el momento de intervenir importa. En salud, detectar antes suele ampliar las opciones terapéuticas y mejorar el pronóstico. Por eso, en personas con alto riesgo —por antecedentes, genética u otros factores clínicos— se valora complementar la mamografía con técnicas que puedan repetirse con más frecuencia. Continúa leyendo «Un ultrasonido portátil para vigilar el cáncer de mama con más frecuencia, dentro y fuera de la consulta»