La Inteligencia Artificial (IA) ha sido una de las tecnologías más revolucionarias de la última década. Desde su llegada, ha transformado numerosas industrias y sectores, y uno de los campos que ha comenzado a experimentar su influencia es el de las apps y sitios web para adultos.
Las nuevas herramientas de IA permiten crear imágenes de personas falsas que parecen reales. Este avance en la tecnología está dando lugar a nuevos debates éticos en este sector, no solo cuando se genera una imagen falsa de una mujer, también cuando se usa el rostro de una en el cuerpo de otra. Continúa leyendo «Creación de imágenes falsas en apps para adultos, una nueva tendencia en IA»
Hace muy poco comentamos la entrevista que el CEO y fundador de OnlyFans, Tim Stokely, dio al Financial Times, exponiendo las razones tras el comentado anuncio de giro editorial en su plataforma, alegando que la decisión se fundó en la búsqueda de una salida de dificultades que han tenido últimamente para acceder a servicios financieros.
Tras remecer parte de Internet, generando con el anuncio de esta decisión una variada ola de muestras de asombro, incertidumbre y hasta molestia, la plataforma de micromecenazgo para creadores de contenidos anunció que darán pie atrás con su bullada decisión, removiendo el veto que iban a aplicar sobre el contenido explícito para adultos.
Aunque la premisa tras OnlyFans es la generación de un nexo monetizado entre creadores de contenido —en el amplio sentido de la palabra— y sus seguidores, en lo concreto gran parte del contenido que circula por la plataforma es pornografía.
Recientemente, la plataforma anunció un giro hacia el contenido apto para todo público, comunicando incluso el lanzamiento de una app. Tras estos radicales cambios, Tim Stokely, fundador de OnlyFans, comentó que fue una decisión forzada a causa de su relación con los bancos.
Internet es un universo complejo, que comprende áreas que van mucho más allá de lo que superficialmente se conoce de la red. La darknet alberga contenidos de todo tipo que, por su naturaleza ilegal o cuestionable, por lo menos, no circulan en sitios visibles o de fácil acceso.
Cuando alguien sube una fotografía en una red social, se ponen en funcionamiento los sistemas de detección de porno de cada plataforma, sistemas que pueden ser más o menos exactos, motivo por el cual ocurren tantos errores de eliminación de imágenes que no entran dentro de esa categoría.
Recientemente, Microsoft ha anunciado el lanzamiento de PhotoDNA Cloud Service, una versión basada en la nube de PhotoDNA, el servicio con el que el gigante informático se encarga de ayudar a las autoridades y determinadas empresas y organizaciones a localizar imágenes ilegales, entre las que se encuentran todas aquellas relacionadas con la pornografía infantil. En WWWhatsnew ya hemos hablado con anterioridad acerca de PhotoDNA. De hecho, en 2011 os anunciábamos la decisión de Facebook de implementar esta tecnología en su red social y en 2013 era Twitter quien hacía lo propio.
Desde el lanzamiento de PhotoDNA en el año 2009, el servicio ha sido ampliamente utilizado por un gran número de compañías y organizaciones distintas con el objetivo de luchar contra un problema de la magnitud de la pornografía infantil. A pesar de ello, el uso de la herramienta implica una gran cantidad de tiempo, dinero y experiencia. Es por ello por lo que, gracias a la sencilla configuración y puesta en marcha gratuita de PhotoDNA Cloud Service desde la plataforma Azure de Microsoft, el gigante informático espera un aumento de uso de dicha herramienta. Microsoft ha aprovechado la ocasión para compartir una serie de cifras con las que motivar a todo tipo de empresas y organizaciones a luchar contra la pornografía infantil. Concretamente, la compañía afirma que cada segundo se suben a Internet alrededor de 500 imágenes de pornografia infantil. Dado que a diario subimos a la red alrededor de 1,8 mil millones de imágenes, puede resultar muy complicado para las empresas dar con este tipo de fotografías si no cuentan con herramientas como PhotoDNA Cloud Service. Gracias a la herramienta de la que os hablamos se facilita también la localización de imágenes de menores que puedan estar circulando en distintos sitios web, evitando así que sean distribuidas sin posibilidad de detenerlas. Esto es posible dado que la tecnología de PhotoDNA se encarga de otorgar algo así como una especie de huella digital a cada fotografía. De esta forma, es posible localizar una imagen en concreto aunque esta haya sido editada o manipulada (añadiendo una marca de agua o modificando su tamaño) para evitar este tipo de sistemas.
Sin duda, estamos ante un movimiento realmente interesante por parte de Microsoft. Es posible consultar toda la información referente a esta herramienta gratuita a través de la página web oficial del proyecto.
La persecución de la pornografía infantil y las prácticas de pedofilia esté, probablemente, siendo más activa ahora que nunca. Vimos hace muy poco cómo una ONG creaba una niña virtual con el objetivo de capturar pederastas utilizando Internet, y ahora grandes empresas como Google se ponen también las pilas para ayudar con dichas investigaciones.
Leemos pues en DailyMail sobre las declaraciones de Eric Schmidt en relación al bloqueo de la pornografía infantil por parte de Google. Hace años que compañías como Google o Microsoft trabajan codo a codo con la ley para ayudar a perseguir este tipo de prácticas e impedir, de forma definitiva, que los pedófilos realizen prácticas ilegales por Internet y compartan material relacionado con a pornografía infantil.
En este contexto ha sido cuando, en los últimos tres meses, Google ha puesto en práctica un equipo de más de 200 personas dedicado a trabajar en nuevas tecnologías que permitan eliminar, o como mínimo aplacar, este problema social. A partir de ahora Google Search evitará que se compartan enlaces sobre abuso sexual infantil, y no sólo eso, sino que se han eliminado hasta ahora gracias a estos nuevos algoritmos unas 100.000 búsquedas que mostraban contenido ilegal. Poco a poco irán implementando estas medidas en distintos idiomas para que estas nuevas herramientas tengan un alcance lo más global posible.
Adicionalmente, ahora se muestran advertencias desde Google y desde ONGs alertando de contenido ilegal, y también crece el trabajo de organizaciones expertas en el tema que se dedican enteramente a combatir el abuso infantil online, a las cuales Google ofrece, paralelamente, soporte técnico para que puedan evolucionar lo más rápido posible.
Paso a paso, esperamos que sea posible que de aquí a no demasiado tiempo puedan localizar y censurar este tipo de prácticas online.
Vimos en 2011 como Facebook anunció que usaría la tecnología PhotoDNA de Microsoft para evitar la publicación de imágenes relacionadas con pornografía infantil en su red social.
Ahora, según The Guardian, es Twitter quien se une al proyecto. La idea es procesar y filtrar las imágenes subidas a la plataforma antes de terminar de año, utilizando una serie de algoritmos matemáticos para que se verifique si alguna foto o región de una imagen coincide con una lista de imágenes conocidas, reconociendo imágenes ofensivas, incluso si han sido alteradas.
Explican en The Verge que PhotoDNA fue desarrollado en conjunto con el National Center for Missing and Exploited Children (Centro Nacional para Niños Desaparecidos y Explotados), siendo ya un estándar para controlar las fotos publicadas en la web.
Aún así, como podéis leer en mmadrigal.com, aún falta mucho camino para que realmente sea una tecnología eficiente al 100%. No se trata solo de detectar las imágenes, se trata de tener un sistema eficaz en el que un gran equipo humano se encargue de obtener los resultados, eliminarlos y tomar las acciones necesarias para que no se vuelva a producir el problema.