Es probable que pocos hayan oído hablar de la paradoja del cumpleaños. Esta hace referencia a un planteamiento matemático el cual establece que dentro de un conjunto de 23 personas la probabilidad de que dos de estas cumplan años el mismo día es de 50,7%.
Este porcentaje tiende a ser mayor en la medida que el número de personas es mayor, llegando a ser prácticamente del 100% en el caso de un grupo formado por 365 o 366 personas (tomando en cuenta si es un año bisiesto).
Analizar el gráfico de evolución con los años de determinados eventos es una actividad que puede resultar muy interesante y educativa para muchos. Podemos ver la cantidad de accidentes de coche en un país específico cada año, o la cantidad de películas realizadas por un actor determinado… podemos analizar prácticamente todo, y además podemos comparar los gráficos entre ellos. Continúa leyendo «Una web para reírse de algunas estadísticas»
Yahoo Finance, uno de los referentes mundiales en lo que a noticias, artículos especializados, análisis, datos históricos e información en tiempo real de los mercados financieros se refiere, ha renovado la interfaz de su sitio web para hacer más cómoda y personal la distribución de dichos contenidos junto a los seguimientos y análisis que cada usuario puede permitirse con ayuda de las herramientas proporcionadas por el servicio. Continúa leyendo «El nuevo diseño de Yahoo Finance: más personal e interactivo»
Si sois usuarios de Buffer, la herramienta que nos permite enviar y programar publicaciones a varias redes sociales al mismo tiempo, a partir de ahora podréis disfrutar de un nuevo módulo de estadísticas ideal para saber, por ejemplo, cuáles han sido las publicaciones con más éxito de las últimas enviadas.
Solo tenemos que pulsar en este enlace para ver lo que ofrecen, disponible tanto para cuentas awesome como para cuentas business. Como veis en la captura, es posible filtrar por varias variables, obteniendo información sobre los posts que reciben más clicks o que fueron más marcados como «favoritos», por ejemplo.
Podemos también hacer lo contrario, ver los posts que no han tenido ninguna repercusión, ayudando así a determinar lo menos popular entre nuestros lectores.
En el informe podemos mostrar el formato del post publicado, ayudando también a determinar si las imágenes tienen más éxito que los textos, por ejemplo, algo que muchos analizamos constantemente. Este filtro puede combinarse con los anteriores, obteniendo listas como «los tweets con imágenes que más veces han sido retuiteados».
Por supuesto, es posible elegir la fecha de análisis, y podemos exportar los datos para analizarlos con calma fuera de la aplicación.
Una fantástica nueva funcionalidad que ayudará mucho a los que trabajamos con información en redes sociales.
En vidooly.com tenemos un proyecto que, sin necesidad de registro, nos permite obtener estadísticas básicas sobre cualquier canal de youtube.
Solo tenemos que indicar el nombre del canal que queremos analizar y ver datos como los vídeos más vistos de todos (en la imagen izquierda tenéis los más populares del canal youtube.com/wwwhatsnew), el crecimiento de usuarios, la previsión de crecimiento (hace una media de número de usuarios y tiempo de existencia, por lo que no utiliza ningún sistema extremadamente inteligente), los seguidores con más influencia, las ganancias estimadas, los canales relacionados… datos que se irán guardando para que se muestre un histórico después de un tiempo (no mostrará mucha información si es la primera vez que se analiza).
Aunque en este tipo de proyectos siempre es importante coger la información con pinzas, puede ayudar a conocer la magnitud de un canal que nos interese, así como comparar varios y verificar el interés que despierta entre su comunidad.
En el menú superior tenemos acceso a un ranking y a los vídeos que más están creciendo en este momento, semejante a lo que ya hace youtube con su proyecto www.youtube.com/trendsdashboard
Si queréis saber si existe alguna relación entre el consumo de queso y el número de divorcios, o entre los peatones atropellados por trenes y el número de abogados, tylervigen.com es vuestro sitio web ideal, presentado hace pocas horas en theverge.
Se trata de una aplicación en la que podemos seleccionar decenas de variables y buscar su correlación con otras muchas, encontrando semejanzas que pueden servir de inspiración para las más disparatadas teorías.
Son datos reales obtenidos de fuentes fiables que, guardados en una base de datos, sirven como alimento para que cada usuario pueda realizar gráficos de su evolución durante los últimos años. En la página principal tenemos algunas de las relaciones más extrañas, aunque pulsando en «encuentra una nueva correlación» podemos jugar con las variables que deseemos.
Al crear una nueva relación podemos seleccionar la categoría original y esperar a que muestre las variables relacionadas. La segunda categoría estará directamente relacionada con la primera, por lo que siempre veremos gráficos con una correlación alta.
Ideal para crear temas de discusión para un domingo por la noche.
Si eres un fanático del cine seguramente alguna vez habrás oído o leído sobre IMDb, the internet movie database, un completo portal con información y contenido multimedia (imágenes, videos, estadísticas, etc.) sobre películas, TV y artistas de todo el mundo.
Algo incómodo con el material multimedia que es gestionado en el portal es que es mostrado con reproductores propios que le hacen parecer bastante limitado si se compara a opciones como Dailymotion o YouTube. Es entendible que lo hagan para tratar de combatir las copias ilegales pero un tráiler el único efecto que consigue es ganar aun más seguidores así que no es algo aceptable, se debe buscar una solución que facilite la experiencia.
En fin, para esto ha sido creada IMDB Watch Trailer on YouTube, una extensión para Google Chrome que no reemplazará los trailers incrustados en IMDB sino que permitirá revisar los mismos tráilers en YouTube con apenas dar un clic sobre Watch trailer on YouTube, un nuevo icono que aparecerá junto a los de siempre: Watchlist y WatchLater.
Seguramente aparecerá en inglés el video resultante, pero ya en YouTube será posible activar los subtítulos o valerse de los videos recomendados para encontrar resultados en el idioma preferido.
Amit Agarwal de Labnol comparte esta interesante guía que incluye los archivos de configuración suficientes para enlazar una cuenta de Gmail con una cuenta de Google Analytics a través de Google Drive. La idea es valerse de una hoja de cálculo especial que añade imágenes invisibles de tamaño 1×1 (en pixeles) y tras esas imágenes está un código de seguimiento de GAnalytics. Así pues, tan pronto sea visualizado el texto del mail y de paso el archivo (y no esté bloqueada la carga de imágenes), se registrará simultáneamente el momento, el destinatario y el mensaje para asegurarse con un alto porcentaje de confianza que el email ha sido leído. En fin, así funciona:
1. Abre Gmail, escribe un nuevo mensaje y déjalo guardado en borradores (Gmail los crea automáticamente cada pocos segundos), nada más, no des clic en Enviar. No olvides indicar el destinatario y el Asunto pues serán importantes para después segmentar los seguimientos.
2. Crea una copia de esta hoja de cálculo de Google Drive. Para ello da clic sobre el enlace y tan pronto aparezca, da clic en «Sí, hacer una copia».
Son miles los flamantes titulares que se encuentran en la red donde se destacan llamativos estudios e investigaciones realizados también a través de ésta, el problema es que con palabras bonitas y en especial un mal manejo de las estadísticas, muchos tratan de ocultar la falta de rigurosidad en la obtención de sus resultados o tratan de dar fe de una veracidad inexistente. Los siguientes son algunos consejos para tratar de detectar ese tipo de estudios que sólo generan desconfianza:
1. Números cerrados (30%, 40%, 50%)
Esto tiene sentido si son exactamente 10 personas las estudiadas, pero con estudios cuya muestra son 1553 usuarios, qué clase de cálculos hace falta realizar para llegar a resultados como «exactamente un 20% de personas cree que…» o «el 50% de las personas opina que…».
El primer motivo para desconfiar de un estudio o un titular en la web es que haya tantas cifras cerradas; la razón: los números son infinitos y es poco probable (aunque posible) que todos los resultados siempre se limiten a apenas 10 (10%, 20%, 30%,… 100%) ó 20 (5%, 10%, 15%, 20%…) porcentajes.
2. Fuentes tan confiables como el que las cita
Causa pena que hasta los diarios prestigiosos con versiones en línea publiquen los resultados amarillistas de estudios que hicieron quién sabe dónde sin información sobre los datos técnicos que les permitieron llegar a esos resultados. Así pues, si ves en algún sitio que se publiquen comentarios sobre resultados o estudios de este estilo sin un enlace a una fuente confiable en la que se encuentren explicaciones detalladas de los métodos utilizados, prescinde de creer en lo publicado, en la fuente y en quien la enlaza. Por ejemplo, hace unos días compartí una investigación del SEO en 2013 que aunque parecía cometer el error de redondear algunas correlaciones, contaba con un completo documento de 70 páginas que le fundamentaba y le daba bastante credibilidad.
3. Muestras elegidas por conveniencia
Algunos dirán que el tamaño de muestra no importa pero tal vez en pocas excepciones (p.e., si hago sopa para dos personas o para 500 personas la pruebo para ver si está bien de sal con la misma cuchara en ambos casos), pero sí importa, tanto como la forma de selección de la muestra que a veces se realiza por conveniencia, esto es, controlando todas las variables que le afectan. En la vida real se suele hacer para ahorrar costos (encuestas telefónicas, encuestas en sólo determinados lugares de la ciudad, etc.) y en la web se suele hacer lo mismo incluso de forma inconsciente. Por ejemplo, si se pone una larga encuesta en Google Drive, sólo gente que tenga el suficiente tiempo libre la llenará por completo, de esa forma se sesga automáticamente la muestra y el estudio a la opinión exclusiva de tales «desocupados» -en el buen sentido de la palabra-.
4. Métodos de captura de datos igualmente dudosos
Por ejemplo, si el estudio lo hicieron mediante encuestas, qué programa utilizaron para recoger las respuestas, ¿acaso fue a través de Google Drive o quizá con alguna herramienta basada en Flash o JavaScript? Si es el segundo caso, qué pasa con los usuarios que no tienen JavaScript o Flash habilitado en su navegador, ¿se eliminan automáticamente del estudio y no son tenidos en cuenta? Finalmente, ¿el sistema de captura de datos contó con alguna medida para evitar trolls? Son muchas las preguntas que surgen en torno a los métodos y herramientas de captura de respuestas, y entre más grande sea el número de dudas sin resolver, más desconfiable será el estudio.
5. Bonitos y coloridos gráficos con efectos 3D
No hace falta ser un especialista en Microsoft Excel para crear gráficos en 3D con decenas de filtros de colores, transparencias, reflexiones, traslaciones, etc., el lío es que por querer llamar la atención se pueden afectar terriblemente los resultados. Como ejemplo, gira un diagrama de pastel en 3D y mira como cambia la percepción de estos, y lo mismo sucede con gráficos de barras tridimensionales que a veces incluyen cosas raras en los ejes o en las escalas. Entre más colores y más efectos tengan los gráficos de un estudio en la web (o en cualquier otro lugar), trata de ser más desconfiado pues podría tratarse simplemente de contenido basura, basura en un muy bonito envoltorio.
6. Resultados e interpretaciones sesgadas
¿Cómo es posible que especialistas y profesionales salgan a decir que el público mundial de Internet tiene determinados comportamientos si han utilizado en su «estudio» una muestra con apenas 100 personas ubicadas en New York, USA -lo peor es que hasta en TV lo hacen-? Eso se hace simplemente para ser amarillistas («consumir café produce blablabla», «dar 10 besos al día causa blablabla», etc.). Mucho peor es cuando se tratan de ajustar forzosamente las estadísticas a los resultados, y no al contrario. De ese modo, si el candidato político que sigue quien publica las conclusiones del estudio obtuvo un 13% de favorabilidad en las investigaciones, es bastante probable que se traten de hacer subjetivas las interpretaciones con comentarios bonitos para hacer que parezca que tal candidato realmente ha conseguido un 61%. Aplica tu criterio y decide si creer o no en tales interpretaciones.
7. Mucho texto técnico, poco texto práctico
Las estadísticas web están enfocadas a ser consumidas, o al menos sus interpretaciones, por un público general, con conocimientos básicos mas no avanzados. Así pues, empezar a enunciar conceptos y cosas complejas que sólo el redactor entenderá, sólo muestra el ánimo de éste de engatusar a los lectores junto a su ineficacia para entender los resultados e interpretarlos.
8. No sólo por ser periodista se poseerán facultades estadísticas
Periodistas de grandes diarios y populares portales creen que su fama les da automáticamente las facultades académicas para leer cualquier tipo de gráfico estadístico o tabla con datos. Por supuesto, habrá varios que tendrán el fundamento matemático suficiente para hacerlo, pero no cualquiera puede permitírselo ya que es algo tan grave como recetar medicamentos sin ser médico.
9. En promedio…
Mi vecino gana 100 dólares al mes y yo gano 600 dólares también al mes, en promedio ambos ganamos 350 dólares al mes. Ahora bien, ¿qué tal que se cobraran los impuestos usando promedios? Desviaciones estándar, modas, mínimos, máximos, valores atípicos, porcentajes, promedios ponderados (en el ejemplo no es aplicable) son medidas simples que dicen muchísimo más sobre los datos, especialmente que la Estadística, incluyendo las estadísticas web, no trata sólo de promedios aritméticos.
10. La Estadística tiene sus limitaciones
Llevándole la contraria a Homero Simpson, no todo se puede demostrar con estadísticas y no por hablar de porcentajes y promedios se dará mágicamente el valor de verdad a determinados argumentos, especialmente a los falaces. La Estadística es un conjunto de métodos que tratan de llevar a otro plano los problemas, tratarlos con herramientas basadas en matemáticas, y devolverlos a la realidad para ver si se ha obtenido algo interesante. Y todo ese proceso está limitado por aproximaciones porque simplemente la Estadística no es exacta y no en todos los casos sus métodos son aplicables. Por ejemplo, una limitación importante en la web es que todos los estudios son tan veraces como lo quieran los sujetos estudiados, y las únicas opciones que hay son confiar o no confiar en sus respuestas.
Desde el blog de Twitter confirman los rumores de los últimos días: Han comprado Bluefin Labs, una de las principales empresas de análisis de TV que generan datos para anunciantes, agencias y cadenas de televisión. La idea es permitir obtener los conocimientos y la experiencia de los profesionales de esta empresa para crear nuevos productos publicitarios y mejorar la integración entre el mundo Twitter y el mundo de la Televisión.
Esta adquisición refleja nuestro compromiso con el mercado de la televisión social, compromiso demostrado con nuestra asociación exclusiva con Nielsen para desarrollar la Nielsen Twitter TV Rating,, una nueva forma de medir la forma de actuar la gente delante de la televisión.
Van a seguir cumpliendo con los contratos de los clientes de Bluefin Labs, pero dejarán de vender sus productos para concentrarse en el desarrollo de nuevos proyectos con sus actuales colaboradores.
En la Super Bowl del domingo, igual que en años pasados, se demostró que la gente aumentaba su actividad en Twitter de forma espectacular. Esos datos pueden ser de mucha utilidad en el mundo de la publicidad, así como en el de la sociología o incluso en el más teórico mundo estadístico de previsión de resultados deportivos. Tener gente que sepa obtener y analizar datos pueden ayudarnos a entender mejor la sociedad en la que vivimos y ofrecer exactamente lo que necesita, ni más ni menos.