Cualquiera que haya trabajado con un modelo de lenguaje grande conoce esa sensación: el sistema da una respuesta convincente, pero cuando preguntas “¿por qué?”, empieza el misterio. A veces el problema se llama alucinaciones; otras, comportamientos difíciles de corregir que aparecen tras un ajuste fino; otras, sesgos y asociaciones que se cuelan como ruido en… Continúa leyendo »

La idea suena tentadora si se cuenta deprisa: instalar cámaras inteligentes por todas partes, leer matrículas en tiempo real y convertir cada calle en una especie de “alarma vecinal” automatizada. Eso es, en esencia, lo que vende Flock Safety, una empresa de vigilancia con IA que ha crecido al calor de los presupuestos municipales de… Continúa leyendo »

Intentar captar el movimiento del aire con una cámara suena tan imposible como fotografiar el olor del café. El aire es transparente, pero sus cambios de densidad, su velocidad y sus turbulencias determinan si un avión despega con eficiencia, si un cohete soporta cargas extremas o si una nave se comporta como se espera en… Continúa leyendo »

NotebookLM quiere que tus cuadernos se reconozcan “a simple vista” con banners e identidad visual

Cuando se acumulan proyectos en NotebookLM, el reto deja de ser “crear” y pasa a ser “encontrar”. Es parecido a esa estantería llena de libretas idénticas: sabes que una de ellas tiene las notas del viaje, otra el guion de una charla y otra la investigación de un producto, pero todas se ven igual desde fuera. En esa lógica, Google está preparando una función que no toca el “cerebro” de la IA, sino la “carátula” del contenido: la posibilidad de añadir una imagen de banner a cada cuaderno para darle personalidad y facilitar la identificación rápida. La información llega a partir de indicios detectados en versiones en desarrollo y compartidos por el filtrador TestingCatalog, recogidos por medios como Android Police, Android Authority y Digital Trends. Continúa leyendo «NotebookLM quiere que tus cuadernos se reconozcan “a simple vista” con banners e identidad visual»

Samsung Galaxy S26: más IA útil, una pantalla que protege miradas y un salto claro en cámara y rendimiento

Samsung ha presentado la familia Galaxy S26 con una idea muy concreta: que la IA en el móvil deje de sentirse como un truco puntual y empiece a comportarse como ese ayudante que organiza, sugiere y resuelve, mientras tú sigues con tu día. La compañía insiste en que esta generación trabaja más “en segundo plano”, reduciendo pasos entre lo que quieres hacer y el resultado final, y lo plantea como la tercera hornada de sus “teléfonos con IA”. La serie llega con tres modelos, Galaxy S26, Galaxy S26+ y Galaxy S26 Ultra, y pone el foco en tres pilares que se apoyan entre sí: rendimiento, cámara y Galaxy AI, con una capa de seguridad y privacidad diseñada para que esa personalización no se convierta en un peaje. Continúa leyendo «Samsung Galaxy S26: más IA útil, una pantalla que protege miradas y un salto claro en cámara y rendimiento»

ChatGPT en un caso de asesinatos en Corea del Sur: lo que revela sobre la seguridad de la IA

La policía surcoreana sostiene que una mujer de 21 años, identificada por su apellido Kim, utilizó ChatGPT como apoyo para calibrar riesgos antes de presuntamente drogar a sus víctimas. La acusación se centra en dos muertes ocurridas tras encuentros en moteles de Seúl: en ambos episodios, Kim habría suministrado bebidas mezcladas con benzodiacepinas —fármacos sedantes que, según los investigadores, tenía prescritos por un trastorno de salud mental— y se habría marchado sola poco después. En el primer caso, la secuencia situada por la policía comienza el 28 de enero y termina con el hallazgo del cuerpo al día siguiente; el segundo se habría producido el 9 de febrero con un patrón similar.

Lo que convierte este caso en una noticia global no es solo la crudeza de los hechos, sino el rastro digital que, según las autoridades, ayudaría a sostener la intención de matar. De acuerdo con The Korea Herald y reportes recogidos por otros medios, los investigadores habrían encontrado consultas relacionadas con la combinación de somníferos y alcohol, con preguntas del tipo “¿podría ser mortal?” o “¿qué cantidad se considera peligrosa?”. Ese tipo de búsqueda no es una “receta” paso a paso, pero sí funcionaría como quien pregunta a un semáforo cuánto tarda en ponerse rojo: no conduce el coche por ti, pero puede influir en decisiones con consecuencias irreparables. Continúa leyendo «ChatGPT en un caso de asesinatos en Corea del Sur: lo que revela sobre la seguridad de la IA»

Acme Weather: el regreso de los creadores de Dark Sky con una app que enseña la incertidumbre del pronóstico

Quien mira el tiempo en el móvil suele buscar una respuesta sencilla: “¿llueve o no llueve?”. El problema es que la atmósfera no funciona como un semáforo, sino como una mesa llena de canicas en movimiento: un pequeño empujón, una corriente distinta o una capa de nubes que aparece antes de lo previsto puede cambiarlo todo. Acme Weather, la nueva aplicación creada por parte del equipo que estuvo detrás de Dark Sky, abraza esa realidad en lugar de esconderla. Su apuesta principal es mostrar no solo una predicción, sino varias posibilidades para el mismo día, para que el usuario entienda cuándo el pronóstico es sólido y cuándo conviene dejar margen de maniobra.

La idea tiene un punto pedagógico: la meteorología cotidiana se consume como si fuera una certeza, pero en realidad es una estimación con grados de confianza. En lugar de darte una frase tajante, Acme Weather te enseña el “abanico” de escenarios. Si todos se parecen, la previsión tiende a ser fiable. Si se dispersan, es como cuando varias personas te dan indicaciones distintas para llegar a un lugar: no es que alguien mienta, es que el camino admite variantes. Continúa leyendo «Acme Weather: el regreso de los creadores de Dark Sky con una app que enseña la incertidumbre del pronóstico»

Steerling-8B, el LLM que quiere “explicar sus deberes” token a token

Cualquiera que haya trabajado con un modelo de lenguaje grande conoce esa sensación: el sistema da una respuesta convincente, pero cuando preguntas “¿por qué?”, empieza el misterio. A veces el problema se llama alucinaciones; otras, comportamientos difíciles de corregir que aparecen tras un ajuste fino; otras, sesgos y asociaciones que se cuelan como ruido en una conversación aparentemente neutra. El resultado es parecido a pedirle a un estudiante que te muestre el procedimiento y que solo te entregue el número final.

En ese contexto, Guide Labs, una startup de San Francisco fundada por Julius Adebayo (CEO) y Aya Abdelsalam Ismail (chief science officer), ha presentado lo que describe como una nueva vía para la interpretabilidad: un modelo abierto de 8.000 millones de parámetros, Steerling-8B, cuyo diseño pretende que cada token generado pueda rastrearse hasta su origen en los datos de entrenamiento. La noticia se dio a conocer en TechCrunch, que detalla la propuesta como un intento de convertir la interpretabilidad en algo menos parecido a “neurociencia” y más a ingeniería. Continúa leyendo «Steerling-8B, el LLM que quiere “explicar sus deberes” token a token»

La batalla silenciosa de la IA contra los PDF: por qué el formato más común sigue siendo un dolor de cabeza

El PDF es ese formato que casi nadie elige con ilusión, pero que todo el mundo usa. Sirve para enviar contratos, facturas, informes, escaneos, formularios y expedientes completos. Funciona como una caja de zapatos: lo metes todo dentro y, desde fuera, parece ordenado. El problema llega cuando intentas encontrar algo concreto sin vaciarla entera. Para una persona, abrir un documento y leerlo es rutinario. Para una IA que pretende resumir, indexar, buscar, relacionar y estructurar datos, el PDF puede convertirse en una trampa.

En una investigación publicada por The Verge, el periodista Josh Dzieza describía un caso muy ilustrativo: miles de páginas y millones de archivos en PDF publicados por el gobierno de Estados Unidos en el contexto de documentos relacionados con Jeffrey Epstein, con un OCR aplicado, pero tan deficiente que los archivos quedaban casi inutilizables para búsquedas fiables. The Verge contaba cómo Luke Igel y otras personas intentaban seguir hilos de conversación en cadenas de emails confusas dentro de visores “toscos” y sin un índice que ayudara. La situación suena familiar: tienes el archivo, pero no tienes “la llave” para sacarle partido. Continúa leyendo «La batalla silenciosa de la IA contra los PDF: por qué el formato más común sigue siendo un dolor de cabeza»

LinkerBot y la nueva generación de manos robóticas que quieren imitar la destreza humana

Cuando pensamos en robots humanoides, solemos imaginar piernas que caminan o cabezas que giran. El verdadero cuello de botella suele estar más abajo: en la mano robótica. La diferencia entre un robot que mueve cajas y otro que puede abotonar una camisa, manipular una placa electrónica o tocar una melodía al piano está en la finura del control, en esa “sensación” de movimiento que los humanos damos por hecha. Según ha contado Interesting Engineering, la startup china LinkerBot se ha propuesto atacar justo ese punto con una familia de manos diseñadas para tareas delicadas con un nivel de precisión cercano al humano.

La empresa, con sede en Pekín y fundada en 2023 por Alex Zhou Yong, se presenta con una ambición que suena casi como un lema de artes marciales aplicado a la robótica: fabricar muchas manos, aprender muchas habilidades y, con ello, acercar el comportamiento de una mano artificial al repertorio cotidiano de una mano real. Es una idea sencilla de explicar y compleja de ejecutar: no basta con que la mano tenga “dedos”; esos dedos deben coordinarse como una orquesta, con tempos distintos y microajustes constantes. Continúa leyendo «LinkerBot y la nueva generación de manos robóticas que quieren imitar la destreza humana»

Claude Code Security: cuando la IA deja de “buscar patrones” y empieza a pensar como un investigador

Durante años, gran parte del análisis de vulnerabilidades ha funcionado como un perro rastreador: excelente siguiendo olores ya identificados, menos útil cuando el rastro es nuevo. Herramientas como CodeQL (y lo que se apoya en ella, incluido GitHub Advanced Security) son potentes detectando clases de fallos bien descritas: patrones de código, flujos de datos típicos, llamadas peligrosas y reglas que se van refinando con el tiempo. El giro que plantea Anthropic con Claude Code Security es otro: pasar de un enfoque “catálogo de reglas” a uno de análisis por razonamiento, donde el sistema intenta entender la intención del código, sus precondiciones y sus consecuencias, como lo haría un investigador humano.

Según lo publicado por VentureBeat, Anthropic tomó su modelo más avanzado, Claude Opus 4.6, lo puso frente a bases de código open source en producción y detectó más de 500 vulnerabilidades de alta severidad que habían sobrevivido décadas de revisión experta y millones de horas de fuzzing. Quince días después, esa capacidad se convirtió en producto: Claude Code Security, lanzado el 20 de febrero en una vista previa limitada para clientes Enterprise y Team.

La cifra impresiona, sí, pero lo realmente incómodo para los responsables de seguridad es la idea que subyace: si “apuntar” un modelo razonador a un repositorio puede destapar fallos profundos, un atacante con acceso a herramientas equivalentes podría recorrer esa misma ruta. La conversación que hoy se abre en comités y consejos no es solo “¿cuántas vulnerabilidades encontramos?”, sino “¿qué tipo de vulnerabilidades estamos dejando fuera por diseño?”. Continúa leyendo «Claude Code Security: cuando la IA deja de “buscar patrones” y empieza a pensar como un investigador»

OpenAI impulsa Frontier Alliances: el plan para llevar la IA empresarial del piloto a la rutina diaria

En los últimos dos años, muchas compañías han probado herramientas de IA generativa como quien instala una app nueva para ver “qué hace”. Funciona en demostraciones, redacta correos, resume documentos y hasta ayuda a programar. El problema llega cuando se intenta convertir ese entusiasmo en una capacidad estable del negocio. OpenAI reconoce que el cuello de botella ya no es disponer de modelos potentes, sino conseguir que esa inteligencia encaje con la estrategia, con los datos reales de la empresa, con los sistemas heredados y con la forma en que trabaja la gente. En su anuncio oficial, la compañía describe ese salto como el paso de la experimentación a la producción: que la IA deje de ser un experimento aislado y se convierta en parte del flujo de trabajo. Fuente: OpenAI.

Aquí es donde muchas organizaciones se frenan. Hay silos de datos, permisos difíciles, procesos que llevan años sin tocarse y equipos que no tienen claro quién decide qué puede hacer la IA y qué no. Es parecido a comprar una cafetera profesional para la oficina: no basta con tenerla, hay que instalarla bien, decidir quién la mantiene, ajustar hábitos y, sobre todo, lograr que el café salga igual de bien cada día. Continúa leyendo «OpenAI impulsa Frontier Alliances: el plan para llevar la IA empresarial del piloto a la rutina diaria»

Un cuadrado de vidrio que promete guardar dos millones de libros durante 10.000 años

Guardar fotos, vídeos, correos, historiales médicos o registros públicos parece fácil hasta que se plantea la pregunta incómoda: ¿durante cuánto tiempo? Los discos duros fallan, las cintas magnéticas se degradan, los formatos cambian y los centros de datos consumen energía de forma constante para mantener todo vivo. La paradoja es clara: lo digital se percibe eterno, pero su soporte físico es frágil.

En ese contexto aparece una propuesta que suena casi como una cápsula del tiempo: un sistema capaz de escribir datos en vidrio común y leerlos con fiabilidad tras milenios. Microsoft Research lo llama Silica, y un trabajo publicado en Nature (firmado por el equipo de investigación) describe una demostración integral de esta tecnología, con pruebas de envejecimiento acelerado que apuntan a una legibilidad superior a 10.000 años. Continúa leyendo «Un cuadrado de vidrio que promete guardar dos millones de libros durante 10.000 años»