OpenAI y Anthropic han acordado permitir al gobierno de los Estados Unidos el acceso a sus principales nuevos modelos de inteligencia artificial antes de su lanzamiento al público, con el objetivo de mejorar su seguridad. Esta colaboración se formalizó a través de memorandos de entendimiento firmados con el Instituto de Seguridad de la IA de EE. UU., tal como anunció la agencia este jueves.
El acuerdo permitirá que las agencias gubernamentales evalúen los riesgos de seguridad asociados con estos modelos y trabajen en conjunto para mitigar posibles problemas. El gobierno de EE. UU. señaló que proporcionará retroalimentación sobre mejoras de seguridad, en colaboración con su agencia homóloga en el Reino Unido.
Un paso significativo en un momento clave
Compartir el acceso a los modelos de inteligencia artificial es un avance importante en un momento en que los legisladores federales y estatales están considerando qué tipos de salvaguardas deben aplicarse a esta tecnología sin frenar la innovación. Esta semana, los legisladores de California aprobaron la Ley de Innovación Segura y Segura para Modelos de Inteligencia Artificial de Frontera (SB 1047), que exige a las empresas de IA en California tomar medidas de seguridad específicas antes de entrenar modelos avanzados. Esta ley ha encontrado resistencia por parte de empresas como OpenAI y Anthropic, que advierten que podría perjudicar a los desarrolladores de código abierto más pequeños, aunque desde entonces ha sido modificada y está pendiente de la firma del gobernador Gavin Newsom.
Mientras tanto, la Casa Blanca ha trabajado para obtener compromisos voluntarios de las principales empresas sobre medidas de seguridad en IA. Varias firmas líderes han aceptado compromisos no vinculantes para invertir en investigación sobre ciberseguridad y discriminación, así como para trabajar en la marca de agua de contenido generado por IA.
El compromiso con la seguridad de la IA
Elizabeth Kelly, directora del Instituto de Seguridad de la IA de EE. UU., declaró que estos nuevos acuerdos son «solo el comienzo, pero son un hito importante mientras trabajamos para ayudar a gestionar de manera responsable el futuro de la IA.»
Este esfuerzo conjunto para compartir y evaluar modelos de inteligencia artificial refleja un enfoque proactivo para abordar los riesgos de seguridad mientras se promueve la innovación en un campo que avanza rápidamente. Desde WWWhat’s New, seguiremos de cerca cómo estos acuerdos influyen en el desarrollo y regulación de la inteligencia artificial en los próximos años.