Google impulsa la seguridad en la inteligencia artificial: nuevo marco de seguridad SAIF

Con el crecimiento acelerado de la inteligencia artificial (IA), también crecen los riesgos asociados a su uso, desde la generación de contenido perjudicial hasta la posibilidad de ataques malintencionados. Ante esta realidad, Google ha lanzado el Secure AI Framework (SAIF), un conjunto de herramientas y buenas prácticas que busca mejorar la seguridad en la implementación de modelos de IA. Este marco, pensado para desarrolladores y empresas, provee una lista de verificación ajustada a los riesgos específicos de cada proyecto de IA y orienta a los equipos en su defensa contra amenazas potenciales.

Continúa leyendo «Google impulsa la seguridad en la inteligencia artificial: nuevo marco de seguridad SAIF»

Google, OpenAI, Microsoft y más: La nueva coalición para una IA Segura

Hace apenas unos días, Google anunció la formación de una nueva coalición, la Coalition for Secure AI (CoSAI), en el Foro de Seguridad de Aspen. En esta iniciativa se han unido grandes jugadores del mundo de la tecnología como Microsoft, OpenAI, Amazon, Intel y muchos más. La idea es sencilla: abordar los riesgos de seguridad que trae consigo la inteligencia artificial (IA). Ahora, esto suena genial, pero ¿qué significa realmente?

Continúa leyendo «Google, OpenAI, Microsoft y más: La nueva coalición para una IA Segura»