Google añade novedades en BigQuery, para anlizar datos usando su infraestructura

Ya conocemos al servicio BigQuery de Google, que permite a las empresas el análisis de grandes volúmenes de datos usando la propia infraestructura de Google. Pues bien, hoy nos trae una serie de novedades, comenzando por su nueva capacidad de cargar y analizar los datos en tiempo real gracias a una simple llamada a la API. La idea consiste en introducir los datos conforme se vayan disponiendo, en lugar de crear lotes de datos para su carga.

Los nuevos datos estarán disponibles para realizar consultas de forma instantánea, siendo esta nueva caracterí­stica ideal para aquellos casos de uso de tiempo sensibles, como los análisis de registros y la generación de alertas, apunta Google en su propio anuncio. Esta nueva capacidad es gratis hasta el 1 de Enero de 2014, facturando después una tarifa de 1 centavo por cada 10.000 filas incluidas.

Otra de las novedades es la posibilidad de realizar consultas en un rango de tiempo en las últimas 24 horas, de manera que en lugar de realizar una exploración de columna completa al consultar los datos, ahora permite centrarse sólo en un subconjunto especí­fico de los datos más recientes. Esto originarí­a menores costes de consultas, permitiendo a modo de ejemplo la consulta de datos de la última hora o la consulta de los datos disponibles antes de esa hora.

También se incluyen nuevas ventanas y nuevas funciones estadí­sticas, así­ como una nueva herramienta para el navegador que permite ver las consultas anteriores.

Netvibes cumple 8 años y nos resume sus novedades

Netvibes, un panel de control de información que los más veteranos seguramente recordarán con cariño, ya que hace 8 años que nos acompaña en la web.

Este proyecto, uno de los primeros de la fiebre 2.0, cumple años esta semana y lo hace en su blog recordando las últimas novedades incorporadas en el servicio, mostrando que no solo no han perdido fuerzas sino que también están luchando al máximo posible para continuar marcando la diferencia entre una web cada vez más dominada por los gigantes.

En Netvibes (netvibes.com) han incluido funciones para atraer a los usuarios de iGoogle y Google Reader, dos formas de consultar información que han muerto en manos de Google y que pueden encontrar atractivas alternativas en esta plataforma. Pero no solo han permitido una migración sencilla a quienes apuesten por ellos, también han trabajado en barras de navegación para móviles y tabletas, nuevas funciones de búsqueda para encontrar información en varios buscadores al mismo tiempo, nueva estética con más aplicaciones integradas, más formas de compartir contenido en redes sociales, más opciones para filtrar información en los widgets instalados, posibilidad de comparar datos y monitorizar a la competencia…

netvibes

Netvibes ofrece la creación de paneles de control de información de forma gratuita para usuarios particulares, a veces preparan paneles especialmente diseñados para seguir eventos populares, ahorrando tiempo a la hora de configurar lo que queremos monitorizar, aunque su principal objetivo es atraer la atención de agencias y empresas que quieran usar el sistema para crear paneles especí­ficos con la información de su compañí­a.

8 años son muchos años para un proyecto web hoy en dí­a, en Netvibes han sabido adaptarse a las necesidades de la nueva generación, y solo por eso merecen muchos años más ofreciendo un servicio donde la información es la protagonista.

Marinexplore, los datos de los oceanógrafos en un Google Map

marinexplore

Como sabéis es tendencia, y más todavia gracias a la tecnologí­a que nos ofrece Google Maps, mapear todo lo que nos rodea y no sólo en lo que refiere a la geolocalización sino también a la recolección de datos. Centrándose en esto último, Marinexplore ha creado un Google Map que justamente nos desplega los datos captados por los oceanógrafos de todo el mundo.

Partiendo de un total de 1.2 mil millones de unidades de datos recogidas de instrumentos posicionados en el océano como plataformas, satélites, boyas, etcétera el mapa recoge todo tipo de datos que pueden filtrarse por localización y fecha, de forma que rápidamente podamos visualizar, por ejemplo, que datos fueron captados en el Océano írtico hace dos dí­as.

Para empezar tenemos dividida la información dependiendo si ha sido recogida en mares, océanos, golfos, bahí­as u otros, y una vez localizada nuestra zona acuática de interés podremos ampliar distintos parámetros a mostrar, como niveles de quí­micos, atmósfera, radiación, datos biológicos (como pigmentos de plantas, presencia de fitoplancton o presencia de clorofila).

La filtración y localización de datos va mucho más allá, pues en este mismo menú podremos dividir la información por instituciones (decenas de ellas, entre las cuales encontramos el Bermuda Institute of Social Sciences o el National Coastal Data Development Center) y por proyectos o plataformas (sección en la que podemos seleccionar la información recogida por tipos de aparatos en concreto).

Import.io lanza su beta pública, con nuevo rediseño y nuevas caracterí­sticas

Hace escasas semanas que os presentamos a Import.io, un servicio que nos permite la extracción de los datos estructurados de cualquier web que le indiquemos, lo que nos permitirá su análisis con posterioridad, empleando el tiempo que necesitemos. Hoy nos encontramos con un comunicado del propio servicio, el cual nos indica que ayer salió como beta pública y que dicho lanzamiento, se acompaña con un rediseño visual del sitio web y la incorporación de nuevas caracterí­sticas.

A través del post del blog oficial, podemos leer las palabras del CDO de Import.io, Andrew Fogg:

Creemos que la información es poder, y queremos que todos tengan la misma proporción de ese poder. Junto con empresas como Tableau estamos muy contentos de estar haciendo el poder de los datos al alcance de todos

.

También, en dicha publicación indican que tanto él como su CEO, David Blanco, se encuentran en el TechCrunch Disrupt SF, mostrando lo que son capaces de hacer, y en el comunicado por correo electrónico, nos pide a los usuarios nuestra votación para ganar el premio del Startup Alley Audience Choice.

Recordemos que Import.io funciona a través de aplicaciones de escritorio, con lo que deberemos comenzar con la instalación de la aplicación correspondiente a nuestro sistema operativo, disponiendo de versiones para Windows, Mac OS X, y Linux, tanto en 32 bits como en 64 bits. Después tan sólo tenemos que indicar las URL´s a rastrear, para que la aplicación nos encuentre los patrones que nos permitan obtener los datos.

En su web podemos encontrar toda la información necesaria tanto a través de los tutoriales como los ví­deos que tienen a nuestra disposición. Debemos tener en cuenta que siempre contaremos con una opción gratuita para la obtención de datos estructurados de sitios web, incluso cuando incorporen opciones premium.

Manual de Periodismo de datos, libro gratuito y online

Periodismo de datos

Justo comentábamos el otro dí­a algunas razones para desconfiar de las estadí­sticas y de los estudios en la web especialmente porque se trataban los datos y los resultados de sus análisis como algo sin mayor importancia que cualquiera podrí­a hacer por sólo tener facultades de lectoescritura en medios masivos. Eso sólo muestra falta de ética y de respeto por los lectores mucho más cuando a diario aumenta la cantidad de datos relevantes capturados y circulando en la red.

En fin, hace falta documentarse y aprender para generar confianza en lo que se escribe, especialmente para quienes lo hacen de forma profesional, y para eso hoy compartimos este brillante Manual de Periodismo de datos (primera edición) que sirve como un primer acercamiento a esta poderosa materia enfocada a valerse de las herramientas de la ciencia estadí­stica para fortalecer el periodismo en su afán de obtener, entender y difundir los datos.

El manual nació por idea del European Journalism Centre y la Open Knowledge Foundation para luego extenderse y recoger la colaboración de brillantes exponentes del Periodismo de datos en diferentes partes del mundo. El resultado es un libro gratuito llamado The Data Journalism Handbook, publicado mediante una licencia Creative Commons, cuyo contenido ha venido circulando desde hace varios meses en su versión web traducida a diferentes idiomas, entre ellos, el español.

En sus artí­culos se incluyen ejemplos ilustrativos, casos de estudio, guí­as para trabajar de forma gráfica (visualizaciones) en la difusión de los datos, las legalidades relacionadas, los portales más usados como fuentes de datos, la forma de capturar los datos directamente desde el código fuente de ciertos sitios, las herramientas web que facilitan el trabajo, consejos de expertos, métodos para interactuar con los consumidores de la información y mucho más contenido interesante de gran valor.

Enlace: Manual de Periodismo de datos

Import io – Para extraer datos estructurados de cualquier sitio web

import

Hay buscadores de inmuebles, de coches, de artí­culos usados, listas de artí­culos con datos estructurados.. a menudo que navegamos por la web encontramos más y más sitios que generan información ordenada de los más diversos temas, datos que podrí­amos querer extraer para crear una base de datos local y analizarla con calma.

Serí­a interesante, por ejemplo, extraer los precios de todos los artí­culos que cumplan una determinada condición en una tienda online, o crear un informe con datos que llegan desde diferentes sitios de forma frecuente.

Lo que hace import.io es precisamente facilitar esa extracción. Se trata de un programa, para Windows, Linux y Mac, que puede rastrear cualquier url (una o varias) para encontrar patrones que pueda usar para obtener datos. A medida que usamos el sistema vamos definiendo la zona de cada web que nos interesa, así­ como los datos que queremos construir, permitiendo crear un enlace entre nuestro import.io y la fuente de los datos, enlace que se actualizará cuando la fuente de información cambie.

En el ví­deo inferior podéis ver un ejemplo de su uso, donde dejan claro que el sistema aún está en desarrollo y que, aunque aún no han definido un modelo de negocio, siempre existirá una versión gratuita.
Continúa leyendo «Import io – Para extraer datos estructurados de cualquier sitio web»

Twitter adquiere Trendrr, compañí­a especializada en el análisis de datos de fuentes sociales en tiempo real

Trendrr

Dentro de la lista de las 100 herramientas para monitorizar la web social, se encuentra Trendrr, que como os reseñamos en la misma, permite rastrear la popularidad y consistencia de una variedad de informaciones procedentes desde distintas fuentes, incluidas las redes sociales. Pues bien, esta misma herramienta, muy usada por compañí­as de diversas industrias, incluidas las del entretenimiento, ya se encuentra en manos de Twitter, quien la acaba de adquirir, como bien comenta Trendrr en su blog oficial.

Según el comunicado, se sienten contentos con la adquisición, lo que les otorgará de oportunidades más grandes para impulsar una mejor experiencia para los usuarios, para los medios de comunicación y para los vendedores, a través de Twitter, y a nivel mundial. También destacan a Twitter como la plataforma única e integral por su conexión con el momento actual, ya que los usuarios comparten lo que está pasando al resto del mundo, de manera que creen que pueden ayudar a ampliar el poder de esa conexión formando parte de Twitter.

Hacen referencia a su herramienta Curatorr, producto certificado por Twitter, indicando que trabajará con las compañí­as de medios y vendedores, y se mostrará a los socios del ecosistema para crear atractivas experiencias de usuario. En el propio comunicado indican que honrarán los contratos con los socios existentes, pero que no tienen planes para establecer otros nuevos en el futuro.

Todo son declaraciones de buenas intenciones, indicando el rumbo que tendrán tras la adquisición por parte de Twitter, pero no han indicado los detalles del acuerdo, ni en el aspecto económico ni el del personal que está detrás de la propia herramienta. En cualquier caso, Twitter pretende reforzarse en el ámbito de los contenidos televisivos, como vemos en algunas de sus últimas adquisiciones y movimientos realizados, a pesar de que, como informó semanas atrás AllThingsD, ya hay un estudio en el que indican que en Facebook se generan cinco veces más interacciones sobre programas de televisión que en Twitter.

Indicar además que Trendrr posee una patente por la tecnologí­a que implica el sistema y método para la recopilación y procesamiento de datos a través de una red de comunicaciones, otorgado en septiembre de 2012.

Ví­a: Comunicado oficial

Google mejora la seguridad de Cloud Storage con el cifrado de datos del lado del servidor

Cloud StorageGoogle informa a través del blog de la plataforma en la nube que va a reforzar la seguridad en su servicio Google Cloud Storage, del lado del servidor, de manera que desde ahora, cifrará todos los datos antes de ser escritos en los discos duros, de manera que todos los datos que se vayan subiendo desde ahora, ya serán automáticamente cifrados.

Según el anuncio:

Google Cloud Storage ahora cifra automáticamente todos los datos antes de que se escribe en el disco, sin costo adicional. No hay ninguna instalación o configuración requerida, sin necesidad de modificar la forma de acceder a los servicios y sin impacto en el rendimiento visible. Los datos es automática y transparente descifra cuando leí­da por un usuario autorizado.

El mismo anuncio prosigue indicando que manejan las claves de cifrado en nombre de los usuarios utilizando los mismos sistemas de gestión endurecidos que la misma Google utiliza para sus propios datos cifrados, con estrictos controles de acceso a las claves y auditorias. Eso sí­, si hay usuarios que desean gestionar por sí­ mismos sus propias claves, también pueden hacerlo, teniendo que cifrar los datos por ellos mismos antes de escribirlos en Cloud Storage.

El cifrado del lado del servidor ya está activo para los nuevos datos escritos en Cloud Storage, tanto para los nuevos objetos creados como para aquellos existentes que se hayan sobrescritos, estando los objetos antiguos pendientes de migración y cifrado en los próximos meses.

Finalmente, muestran estar contentos al dar este paso en su compromiso para desarrollar capacidades de seguridad en la plataforma.

Ví­a: Anuncio oficial

FullContact añade servicio de transcripción humana de tarjetas de empresa fotografiadas mediante iPhone

FullContact Card Reader

FullContact es un servicio, disponible en fase beta privada, que nos permite centralizar la gestión de nuestros contactos en un mismo lugar, donde entre otras caracterí­sticas, nos permite la fusión de varias entradas de un mismo contacto en una sola, la actualización de sus datos automáticamente, o incluso la posibilidad de crear listas compartidas y privadas de contactos.

La novedad que ofrece el propio servicio permite a los usuarios de iPhone, mediante la aplicación Card Reader y la cámara del terminal, tomar capturas de las tarjetas de visita de las propias empresas, tanto de una cara como de dos caras, cuyas transcripciones de datos la realizarán otras personas, verificando toda la información y completando la que falta, para que todos los datos disponibles pasen a formar parte de la lista de contactos del propio iPhone o incluso llevarlo al servicio Salesforce, trabajando desde Salesforce Enterprise Edition en adelante, e incluso también estar disponible dentro del propio servicio.

De manera gratuita, los usuarios tendrán la transcripción de hasta 10 tarjetas, y por 9,99 dólares al mes o 99,99 dólares al año, la transcripción de tarjetas será ilimitada. Visto lo cual, este servicio está más bien orientado a las empresas, con la idea de ayudarles a tener toda la información de otras compañí­as con las que trabaja de manera centralizada.

Enlace: FullContact Card Reader | Ví­a: TNW

Viz para iOS, o una forma fácil de crear y compartir gráficas

viz

Tanto para realizar analí­ticas de una forma fácil y elegante como para crear gráficos o infografí­as, decenas de plataformas móviles y para PC nos ofrecen aplicaciones de este tipo. Si lo que buscamos, en concreto, son aplicaciones para crear gráficas de forma fácil y rápida a partir de una simple introducción de datos, podemos contemplat Viz como posible opción.

Desde ya mismo disponible en AppleStore, creada por el Ministry of Simplification, Viz nos permite insertar una serie de datos (los que queramos desplegar en la gráfica) simplemente escribiendo los parámetros y eligiendo si queremos ver los datos desplegados en barras, circunferencia, nube de datos, etc., pudiendo seleccionar al mismo tiempo el rango de colores que queremos en caso de que necesitemos ofrecer un aspecto determinado (disponemos de hasta cinco paletas de colores así­ como de cinco estilos de despliegue de datos).

Finalmente y una vez tengamos creado el gráfico, podremos compartirlo en redes sociales como Twitter, Facebook o Instagram, enviárselo por email a contactos o, en caso de que queramos insertarlo en un documento, guardarlo en formato JPG para posteriores usos.

Podéis bajar Viz de este enlace a iTunes para crear los mencionados gráficos en los dispositivos iOS, aunque eso sí­, la app nos costará un precio de 1,99 dólares (algo que puede merecer la pena o no depende del uso que le demos).