Etiquetas de Contenido generado por IA en Youtube

Después de ver lo que se acerca (hablo de VLOGGER), está claro que los vídeos del futuro podrán estar hechos al 100% por máquinas (imagina lo que podrá hacerse si juntamos VLOGGER con Sora).

Las plataformas digitales se encuentran en una carrera constante por adaptarse y proteger a sus usuarios de potenciales desinformaciones, y ahora es YouTube quien mueve ficha con una medida significativa en este sentido, que considero merece una mirada detallada.

Continúa leyendo «Etiquetas de Contenido generado por IA en Youtube»

VLOGGER, lo nuevo de Google para hacer que una fotografía hable

Proyectos de Inteligencia Artificial que cogen una imagen y la transforman en un vídeo, hay muchos, pero hasta ahora no había visto ninguno así en las manos de Google.

Se trata de VLOGGER (curioso nombre), y llega de las manos de un equipo de investigadores de Google que han decidido dar vida a fotografías estáticas, transformándolas en videos realistas de personas hablando y gesticulando.

Continúa leyendo «VLOGGER, lo nuevo de Google para hacer que una fotografía hable»

Microsoft toma medidas contra imágenes explícitas generadas por IA

Recientemente, se ha revelado que Microsoft ha implementado un sistema de bloqueo de palabras clave en Copilot Designer, su herramienta de diseño asistida por inteligencia artificial (IA). Este movimiento busca prevenir la generación de imágenes de naturaleza violenta o sexual, una preocupación creciente entre las plataformas de tecnología digital. La decisión de Microsoft se produce tras incidentes donde se crearon deepfakes explícitos de la artista Taylor Swift, lo que sin duda encendió alarmas sobre el potencial mal uso de estas herramientas avanzadas.

Continúa leyendo «Microsoft toma medidas contra imágenes explícitas generadas por IA»

AutoveriFAI, una práctica forma de identificar contenido creado por Inteligencia Artificial

Ya os he comentado en varias ocasiones que es realmente difícil identificar si un contenido ha sido creado con IA o no, principalmente cuando hablamos de texto. Con las imágenes es más sencillo, aunque las últimas versiones de Midjourney están poniendo complicado el tema.

Con el texto pueden crearse estructuras que después pueden alterarse a mano, y eso es prácticamente imposible de identificar, pero si lo encontramos puro, recién salido de ChatGPT, hay varios puntos que pueden ser detectados fácilmente.

Continúa leyendo «AutoveriFAI, una práctica forma de identificar contenido creado por Inteligencia Artificial»

WhatsApp se arma contra los deepfakes con una innovadora línea de ayuda

La desinformación se ha convertido en una amenaza constante, complicada aún más por la evolución de la inteligencia artificial y los deepfakes. Estos últimos, imágenes o videos generados por IA que imitan la realidad de manera convincente, pueden distorsionar la verdad y difundir falsedades con rapidez. En este contexto, WhatsApp y la Misinformation Combat Alliance (MCA) han tomado una medida proactiva en India, anunciando la creación de una línea de ayuda especializada para combatir esta problemática.

Continúa leyendo «WhatsApp se arma contra los deepfakes con una innovadora línea de ayuda»

Cómo se puede prohibir lo que le han hecho a Taylor Swift

El reciente caso de Taylor Swift, víctima de imágenes explícitas generadas por inteligencia artificial (IA) sin su consentimiento, ha desencadenado una ola de preocupación y acción legislativa, destacando la necesidad urgente de leyes más estrictas para combatir esta práctica invasiva y perjudicial.

Los deepfakes, imágenes o videos manipulados mediante IA para hacer parecer que una persona dice o hace algo que en realidad no ha hecho, han cobrado notoriedad en los últimos años, especialmente en la forma de contenido pornográfico no consensuado. Estas imágenes, que pueden ser extremadamente realistas, representan un grave riesgo para la privacidad y la reputación de las personas, afectando desproporcionadamente a las mujeres​​​​.

Continúa leyendo «Cómo se puede prohibir lo que le han hecho a Taylor Swift»

Project Mockingbird para la detección de Deepfakes de audio

En un reciente anuncio que ha captado la atención de la comunidad tecnológica, McAfee presentó su Project Mockingbird, una iniciativa que promete ser un hito en la lucha contra los deepfakes de audio. Este proyecto, revelado en el CES 2024, uno de los eventos más prestigiosos del mundo tecnológico, tiene como objetivo principal proteger a los consumidores de los crecientes engaños y estafas impulsados por la inteligencia artificial.

Continúa leyendo «Project Mockingbird para la detección de Deepfakes de audio»

Microsoft presenta herramienta de creación de «deepfakes»

El evento Ignite 2023 estuvo lleno de sorpresas, y una de ellas llegó cuando Microsoft presentó una herramienta capaz de crear avatares fotorrealistas y animarlos para que digan cosas que la persona real no dijo. Este desarrollo, conocido como Azure AI Speech text-to-speech avatar, está disponible en vista pública y plantea preguntas éticas fundamentales.

Continúa leyendo «Microsoft presenta herramienta de creación de «deepfakes»»

Es posible detectar DeepFakes si los humanos colaboran con las máquinas

La veracidad del contenido que consumimos es fundamental para la toma de decisiones informadas, de eso no hay duda (creo que estamos todos de acuerdo). El caso es que con la llegada de los deepfakes, esta veracidad se ha visto comprometida, desdibujando la línea entre la realidad y la ficción.

Voy a hablar ahora sobre la naturaleza de los deepfakes y su impacto en la sociedad, así como la batalla en curso entre la detección humana y la automatizada de estos contenidos falsificados. Continúa leyendo «Es posible detectar DeepFakes si los humanos colaboran con las máquinas»