Hay buscadores de inmuebles, de coches, de artículos usados, listas de artículos con datos estructurados.. a menudo que navegamos por la web encontramos más y más sitios que generan información ordenada de los más diversos temas, datos que podríamos querer extraer para crear una base de datos local y analizarla con calma.
Sería interesante, por ejemplo, extraer los precios de todos los artículos que cumplan una determinada condición en una tienda online, o crear un informe con datos que llegan desde diferentes sitios de forma frecuente.
Lo que hace import.io es precisamente facilitar esa extracción. Se trata de un programa, para Windows, Linux y Mac, que puede rastrear cualquier url (una o varias) para encontrar patrones que pueda usar para obtener datos. A medida que usamos el sistema vamos definiendo la zona de cada web que nos interesa, así como los datos que queremos construir, permitiendo crear un enlace entre nuestro import.io y la fuente de los datos, enlace que se actualizará cuando la fuente de información cambie.
En el vídeo inferior podéis ver un ejemplo de su uso, donde dejan claro que el sistema aún está en desarrollo y que, aunque aún no han definido un modelo de negocio, siempre existirá una versión gratuita.