Hackeo a OpenAI: ¿Un riesgo para la seguridad Internacional?

Publicado el

Una representación abstracta de la ciberseguridad y la inteligencia artificial, mostrando elementos como una red digital, líneas de código, un candado y símbolos futuristas de IA. Los colores oscilan entre azules oscuros, negros y luces de neón brillantes, transmitiendo una sensación de tecnología y seguridad.

El año pasado, OpenAI, la empresa detrás de ChatGPT, sufrió un hackeo que reveló información interna sobre el diseño de sus tecnologías de inteligencia artificial. Aunque el hacker no accedió a los sistemas donde se desarrollan y alojan estas tecnologías, sí logró obtener detalles de discusiones en un foro en línea utilizado por los empleados.

El Incidente y la Reacción Interna

En abril de 2023, los ejecutivos de OpenAI informaron a sus empleados sobre el incidente en una reunión en San Francisco. Decidieron mantener el asunto en secreto, ya que no se comprometió información sobre clientes o socios. Tampoco consideraron que el hackeo representara una amenaza para la seguridad nacional, ya que el hacker parecía ser un individuo sin vínculos con gobiernos extranjeros. No se notificó al FBI ni a ninguna otra autoridad.

Preocupaciones Internas

El incidente generó inquietudes entre algunos empleados de OpenAI sobre la posibilidad de que adversarios extranjeros, como China, pudieran robar tecnologías de IA que eventualmente podrían amenazar la seguridad de Estados Unidos. Leopold Aschenbrenner, un gestor de programas técnicos, envió un memorándum al consejo de administración argumentando que OpenAI no estaba haciendo lo suficiente para prevenir estos robos. Aschenbrenner fue despedido posteriormente, alegando que su despido fue políticamente motivado.

La Perspectiva de la Industria

La posibilidad de que un hackeo a una empresa tecnológica estadounidense tenga vínculos con China no es descabellada. Recientemente, Brad Smith, presidente de Microsoft, testificó en el Capitolio sobre cómo hackers chinos usaron sistemas de Microsoft para atacar redes del gobierno federal.

OpenAI no puede impedir que personas trabajen en la empresa por su nacionalidad, debido a las leyes federales y de California. Matt Knight, jefe de seguridad de OpenAI, destacó la necesidad de contar con las mentes más brillantes en esta tecnología, pese a los riesgos.

Compartir o No Compartir

OpenAI no está sola en el desarrollo de IA. Empresas como Meta comparten libremente sus diseños como software de código abierto, creyendo que los peligros actuales de las tecnologías de IA son mínimos. Estas empresas implementan medidas de seguridad en sus aplicaciones antes de lanzarlas, para prevenir el uso indebido.

Aunque no hay evidencia significativa de que las tecnologías de IA actuales representen un riesgo serio para la seguridad nacional, algunos creen que eventualmente podrían usarse para crear nuevas armas biológicas o infiltrarse en sistemas gubernamentales.

Medidas de Seguridad y Regulaciones

OpenAI y otras empresas están tomando medidas para asegurar sus operaciones técnicas y explorar cómo manejar los riesgos futuros. OpenAI creó un Comité de Seguridad para evaluar los riesgos de sus tecnologías. Este comité incluye a Paul Nakasone, exgeneral del ejército y líder de la NSA y Cyber Command.

Perspectivas Futuras

Funcionarios federales y estatales están impulsando regulaciones que prohíban la liberación de ciertas tecnologías de IA y multen a las empresas si causan daño. Estas medidas buscan prevenir riesgos a largo plazo, aunque algunos expertos consideran que estos peligros están aún a años o décadas de distancia.

La Competencia Internacional

China también está desarrollando sistemas de IA avanzados. Según algunos métricos, China ha superado a EE.UU. como el mayor productor de talento en IA, generando casi la mitad de los investigadores más destacados del mundo. Clément Delangue, CEO de Hugging Face, cree que no es descabellado pensar que China pronto superará a Estados Unidos en este campo.

La Responsabilidad de las Empresas de IA

Algunos investigadores y líderes de seguridad nacional argumentan que los algoritmos matemáticos actuales, aunque no peligrosos hoy, podrían serlo en el futuro. Susan Rice, exasesora de seguridad nacional, afirmó que es nuestra responsabilidad tomar en serio incluso los escenarios de baja probabilidad pero alto impacto.

Podéis leer más sobre este tema en The New York Times

Comparte en: