Hablamos con Ivan Zoratti, de Neo4j, sobre Inteligencia Artificial

En el último DataOps de Barcelona tuvimos la oportunidad de hablar con Ivan Zoratti, parte del equipo de gestión de productos en Neo4j. Comenzó su carrera en Digital Equipment Corporation, siguiendo su pasión por el núcleo de las máquinas PdP 11 y más tarde con la programación y la creación de redes VAX / VMS Macro. Autor y emprendedor, fue fundador de Dianomic Systems (una startup de IoT basada en Silicon Valley), CTO en SkySQL (ahora MariaDB) y dirigió equipos de Ingeniería de Sistemas y Ventas en MySQL, Sun y Oracle.

En la charla hablamos sobre Inteligencia Artificial y Machine LEarning, disfrutad de su experiencia: Continúa leyendo «Hablamos con Ivan Zoratti, de Neo4j, sobre Inteligencia Artificial»

Un juego que usa redes neuronales de Google para reconocer emojis en el mundo real

Emoji Scavenger Hunt

Con frecuencia os hablamos acerca de los experimentos con los que Google pretende dar a conocer el potencial de tecnologí­as como la realidad aumentada o las redes neuronales. En esta ocasión ampliamos la lista hablando acerca de Emoji Scavenger Hunt, un juego que usa las redes neuronales de Google para reconocer emojis en el mundo real.

Tal y como afirman sus creadores, se trata de un juego basado en el navegador que aprovecha el potencial del machine learning, las redes neuronales y la cámara de nuestro dispositivo móvil para funcionar. En concreto, Emoji Scavenger Hunt nos pedirá que busquemos el emoji que nos muestra en pantalla, por lo que tendremos que ir desplazándonos usando la cámara de nuestro smartphone hasta encontrar el emoji sugerido en la vida real.

Continúa leyendo «Un juego que usa redes neuronales de Google para reconocer emojis en el mundo real»

Google lanza enormes bases de datos para mejorar el «machine learning»

youtube

Como sabréis, con frecuencia os hablamos acerca de diferentes proyectos relacionados de una forma u otra con con el conocido como machine learning. A pesar de ello, crear algoritmos capaces de reconocer y predecir patrones en nuestros datos es algo extremadamente complicado. La razón es que es necesario proporcionar a los algoritmos información etiquetada que puedan analizar y recordar. Gracias al más reciente lanzamiento de Google, de ahora de adelante se convertirá en una tarea algo más sencilla.

Tal y como la compañí­a ha anunciado en su blog de investigación oficial, Open Images y YouTube-8M será de gran utilidad a la hora de mejorar el machine learning, encargándose de proporcionar millones de enlaces con anotaciones y etiquetas que los investigadores podrán utilizar para entrenar a sus sistemas inteligentes. Si nos centramos en Open Images, se trata de una herramienta con nueve millones de entradas distintas etiquetadas por ordenadores y posteriormente corregidas por personas. Según Google, contiene la información suficiente para entrenar a una red neuronal desde cero. Podéis estudiar su funcionamiento desde aquí­.

Continúa leyendo «Google lanza enormes bases de datos para mejorar el «machine learning»»

Yahoo libera 13.5 TB de datos de navegación para investigadores de Inteligencia Artificial

Para investigadores académicos en el campo del aprendizaje de máquinas, he aquí­ un regalo de Yahoo: 13.5 TB de datos anónimos de usuario conseguidos de quienes navegan en sus sitios de noticias temáticos.

yahoo noticias feed

Es información de más de 20 millones de usuarios recopilada durante cuatro meses (febrero a mayo de 2015) de sitios como Yahoo Deportes, Yahoo Finance y Yahoo Noticias, e incluye datos de interacción en cada portal junto a realizaciones de variables demográficas relevantes aunque no tan detalladas como para identificar personas especí­ficas: rango de edad, género y datos de localización geográfica general. Continúa leyendo «Yahoo libera 13.5 TB de datos de navegación para investigadores de Inteligencia Artificial»

Extraen modelos de temas en farsi mediante APIs

¿Cómo encajar las exigencias de diseño de una API REST con el Machine Learning y, en concreto, con la modelización de temas? El advenimiento de la era Machine Learning va a cambiar para siempre la forma en que diseñamos, estructuramos y escribimos nuestro código. Este auge se debe a la optimización de la tecnologí­a y a su traslado desde mundo académico a la industria, lo cual tendrá su lógico impacto en el futuro de la informática y del software en general.

Ali Kheyrollahi de ASOS nos invitó en APIdays Mediterranea a unirnos a él en el análisis de un caso de Machine Learning en el que se toma un gran corpus de documentos en farsi y se intenta encontrar los temas que se tratan en ellos. Se exploró Latent Dirichlet Allocation como técnica no supervisada de modelización de temas, ya que permite habilitar búsquedas y construir una matriz de similitud documento a documento. Se repasaron también brevemente los retos del procesamiento de textos en farsi, que es el vigésimotercer idioma más hablado en el mundo y, lo que es más impactante, el décimocuarto más usado en internet, por delante del coreano o el sueco.

Finalmente Ali presentó un nuevo concepto denominado Mills: una nueva forma de sacar a la luz las capacidades del Machine Learning a través de APIs. Este modelo, al contrario que los recursos convencionales, define un endpoint especializado, seguro e idempotente, que extrae el modelo de Machine Learning al mundo exterior. Más información en su presentación.

Fotografí­a de Mariano Cuesta.