Cuando alguien publica una buena imagen en Internet lo más probable es que cientos de sitios web comiencen a republicarla, haciéndose, en algunos casos, extremadamente viral. Llega un momento en el que nadie sabe cuál fue el origen de dicha imagen, y ahí es cuando entra whereonthe.net en acción.
Se trata de una aplicación web que rastrea Internet en busca de la imagen que indiquemos. Solo tenemos que informar la url de una foto, dibujo o montaje y pulsar el botón, la aplicación se encargará de buscar dicha imagen y ofrecer un resumen con el resultado de la búsqueda, indicando dónde apareció por primera vez y cómo se ha ido distribuyendo por la red de redes.
Con bastante frecuencia encontramos noticias de alguien que ha encontrado, por casualidad o no, a alguien que, físicamente, se parece mucho. Estos doble, «gemelos desconocidos», existen, repartidos por todo el mundo, pero existen.
Hoy mismo, sin ir más lejos, se está divulgando por las redes sociales el caso de dos irlandeses que se encontraron en el mismo vuelo. Después de los minutos de perplejidad, compartieron un selfie allí mismo:
Aquí tenemos la mayor foto ya realizada del espacio, imagen disponible en gds.astro.rub.de en forma de aplicación interactiva, ya que sería imposible mostrar los 194 GB de la fotografía en una sola página.
Llega desde el observatorio de la Universidad Ruhr de Bochum, en el desierto de Atacama de Chile, donde han estado capturando «pedazos» de nuestra galaxía durante los últimos cinco años, buscando objetos de todo tipo. Todo el espacio capturado ha sido dividido en 268 secciones, con cada sección fotografiada en intervalos de varios días, y «cosido» para crear el mayor mosaico de la Vía Láctea jamás creado.
El año pasado, la NASA publicó una imagen de 20 mil millones de píxeles de la Vía Láctea, resultado de juntar 2 millones de imágenes individuales, ahora tenemos una fotografía con más de dos veces ese tamaño.
En la web podemos hacer zoom y movernos por el «escenario», siendo siempre posible ver las coordenadas y buscar objetos, tanto por coordenadas como por nombre o número de catálogo. Aunque por causa del filtro de banda estrecha no se permite disfrutar de grandes colores, sí se obtiene una lectura más precisa de las variables de luz, ayudando así a descubrir nuevos objetos.
Podéis obtener más información en cnet.com, o ir directamente a gds.astro.rub.de y comenzar a navegar por nuestra propia galaxia.
Robots en Twitter respondiendo a todo tipo de cuestiones de forma automática los hay de todos los tamaños y colores, pero hasta ahora no había visto ninguno que editara imágenes.
Se trata de @pixelsorter, un robot presentado en glitchet.com, capaz de recibir una fotografía (solo hay que ponerla en Twitter mencionando @pixelsorter y esperar algunas horas) y enviar, también vía Twitter, el resultado modificado.
El tipo de edición que realiza no es espectacular, pero sí técnicamente interesante. Tiene varios algoritmos que realiza de forma aleatorio, modificando las lineas o columnas de píxeles de nuestra imagen para alterar varias variables (luz, contraste, tono, etc.). Se pueden ver los detalles técnicos en su página, donde indican que, indicando la palabra preset[] con el número de la edición deseada, podremos solicitar una operación específica en la imagen deseada.
Aquí tenéis un par de ejemplos de alteraciones:
Ha sido creado con Ruby, usando EVA-01/pxlsrt y mispy/twitter_ebooks, y aunque pueda parecer una mera curiosidad inútil, tiene bastante valor. Me explico.
Estamos acostumbrados a usar los robots de Twitter para obtener información, pero este puede ser un primer paso para algo más sofisticado, para servicios que sean capaces de realizar alteraciones sofisticadas en imágenes. Hoy solo son órdenes aleatorios en píxeles, pero podría llegar un momento en el que existiera un robot automático que eliminase un objeto de una fotografía, o que mejorase los contrastes en pocos segundos.
Sin duda, es interesante ver cómo evoluciona el software dentro de una red social.
Cámaras de visión nocturna hay muchas, pero la mayoría de ellas usan infrarrojos. Lo que Canon lanza ahora es una cámara con un ISO impresionantemente alto, para que sea posible grabar y capturar en la oscuridad generando imágenes realmente espectaculares, «viendo» mucho mejor que el propio ojo humano.
La MH20F-SH tiene un sensor de solo 2,26 megapixels, pero cada uno de ellos es enorme, de 19 micras, según leemos en la nota (los móviles prácticamente nunca pasan de 2 micras). De esa forma, se captura mucha más luz, permitiendo mejores fotos con menos tiempo de exposición.
Un ISO de 4 millones, eso es lo que consiguen, permitiendo grabar en colores normales un vídeo de 1080p en 24, 30 o 60 fps.
Publican en la nota un vídeo mostrando las posibilidades de esta tecnología, vídeo creado en 2013, cuando aún estaba desarrollándose, pero no muestran nada publicitario por un motivo bastante triste: no estará disponible para la mayoría de los consumidores, costará unos 30.000 dólares y se venderá para uso únicamente comercial a partir de diciembre de este año.
Por lo visto el objetivo es que lo usen para hacer documentales, vigilancia nocturna y demás, aunque está claro que con el tiempo se conseguirá reducir el precio y, quien sabe, meter un sensor así dentro de los móviles y cámaras del futuro.
No faltan opciones para hacer collages de fotos, ni en el móvil ni en Internet, pero no todas ellas son «exactamente» lo que estamos buscando.
Algunas abusan de adornos, otras no permiten hacer zoom en cada cuadrante, otras son muy limitadas en plantillas o formatos… por eso siempre es importante destacar las novedades en esta categoría, para ayudar a encontrar la solución que se adapta exactamente a lo que necesitamos, ya sea para crear postales o para publicar contenido atractivo en las redes sociales.
La que os mostramos hoy es fotojet.com, solución que no requiere registro para crear imágenes de todo tipo. Solo tenemos que seleccionar el formato con el menú de la izquierda e indicar la foto víctima del montaje, aunque no puede hacer mosaicos, ya que ninguna de las plantillas permite subir más de dos imágenes.
Las grandes fotografías que solemos divulgar en WWWhatsnew representan impresionantes exteriores, panorámicas sorprendentes que realizan desde lugares que llaman la atención, ya sea desde lo alto de una montaña o capturando grandes ciudades.
Queremos ahora destacar una fotografía en 360 grados realizada en la biblioteca del Strahov Monastery, en Praga, foto de 40 gigas tan impresionante que, realizando zoom, es posible leer hasta los títulos de los libros que allí se encuentran.
El Monasterio de Strahov fue fundado por Vladislao II en 1143, aunque el aspecto actual es del siglo XVII. La biblioteca de la fotografía tiene dos salas, con más de doscientos mil libros y más de tres mil manuscritos de la Edad Media, ilustraciones y globos terráqueos, detalles que pueden contemplarse con tiempo y paciencia.
Cuenta con una de las pinacotecas más importantes de Europa Central en su género, y su bliblioteca ha aparecido ya en varias películas ( Desde el Infierno, con Johny Depp, o en Casino Royal, de James Bond).
Seguimos hablando de reconocimiento de imágenes y llegamos ahora a word.camera, una aplicaicón en la que solo debemos subir una fotografía (o dar acceso a nuestra webcam) y dejar que el sistema reconozca su contenido y se invente una historia con lo que entiende.
No necesita registro, y tarda algunos minutos en crear la historia (toda ella en inglés), pero el resultado vale la pena. La historia no es extremadamente entretenida, pero sí usa todo lo que encuentra en la foto, siendo realmente impresionante el sistema de reconocimiento utilizado.
Con código fuente en github, y con licencia que permite usarlo en nuestros proyectos (siempre y cuando esté bajo los mismos términos), su autor deja claro que se trata de un ejercicio para desarrollar técnicas de programación, no pretende (de momento) ser todo un mito en el mundo de la ingeniería, motivo por el cual se podrían encontrar varios errores.
Por desgracia no indica detalles sobre el método de reconocimiento utilizado, por lo que tendréis que navegar por el código para descubrirlo.
Desde 500px nos hablan de cómo se ha creado la mayor foto panorámica ya tomada en una montaña, en este caso la que veis en la captura: el Mont Blanc.
70.000 fotos capturadas durante 35 horas a una altitud de 3,5 km, 2 meses de post-producción, una foto de un tamaño de 3.000 metros cuadrados a 300dpi, 46 teras, 1,2 millones de píxeles de ancho por 305.000 píxeles de alto… un trabajo de Filippo Blengini y su equipo de profesionales que han dejado disponible en in2white.com, donde es posible realizar zoom de los detalles que la fotografía es capaz de mostrar. Esta versión web del trabajo realizado no tiene un tamaño de 46 teras, aunque sí lo tiene el original, tal y como vemos en la infografía del trabajo.
Hace unos meses os comentamos algunos «récords» que se estaban batiendo en esta categoría: una foto aérea de París de 26 Gigas, una de Praga de 18 gigas, otra de Barcelona de 60 gigas, la de Londres de 320 gigas… de hecho no hace mucho hablamos con la empresa Noupunt sobre la creación de fotografías gigantes, una sección que no deja de impresionar, y lo demostramos una vez más con esta maravilla que han conseguido realizar.
Seguramente todos recordaréis la web que Microsoft lanzó algunas semanas con una aplicación que adivinaba nuestra edad después de analizar nuestro rostro. Se trata de How Old, y ya tiene versiones para móviles.
Como era de imaginar, la aplicación generó un efecto viral en las redes sociales: miles de persnoas mostrando al mundo lo buena o mala que es la aplicación, probando con famosos, con objetos, con animales… El problema es que para probarla había que entrar a un navegador web, subir una foto del objetivo… demasiado complejo para los que quieren probarlo con un rápido selfie.
Con ese objetivo nace la versión iOS y android, aplicación que promete que solo usa las fotos para realizar el cálculo, no guarda los rostros en ninguna base de datos online, como muchos han ido imaginando, y devuelve el resultado de forma inmediata, tanto si se sube la imagen como si se indica directamente con la cámara.
Su funcionamiento se basa en la API que tienen en projectoxford.ai/demo/face, aunque aún tienen mucho trabajo por realizar antes de poder afirmar que es prácticamente perfecto.