El rol de los hackers éticos ante el desarrollo de la inteligencia artificial

Publicado el

hacker

Ante el acelerado desarrollo de la inteligencia artificial durante los últimos años, se han abierto distintos tipos de análisis sobre el rumbo que esta tecnología está tomando, incluyendo su eventual potencial de daño.

Un equipo internacional de expertos en riesgo y aprendizaje automático, liderado por investigadores del Centro para el Estudio del Riesgo Existencial (CSER) de la Universidad de Cambridge, sugirió la creación de una comunidad global de hackers éticos y moderadores que aseguren un nivel de confianza apto para utilizar estos sistemas en espacios gubernamentales y para fines de uso general.

La IA necesita moderación para ser segura, según expertos

Este “llamado a la acción” de los profesionales del CSER de Cambridge fue recientemente publicado en la revista Science.

En su mensaje, los expertos señalan que las empresas que desarrollan tecnologías vinculadas a la IA deben estar abiertos a auditar sus creaciones, ofreciendo recompensas por revelar fallas éticas y así garantizar un nivel de integridad. Esta práctica ya se conoce en otras áreas digitales, como en ciertos tipos de software y servicios.

Actualmente, la IA se encuentra sometida a una crisis de confianza a nivel social. Este escepticismo se ha visto alimentado por el agresivo cambio de paradigma que plantean ciertos avances sobre las dinámicas laborales e incluso cotidianas.

De manera contrapuesta a las presiones propias de la industria y el mercado, los expertos argumentan que los incentivos para aumentar la confiabilidad no deben limitarse a la regulación, sino que también deben provenir de una industria que aún no comprende completamente que la confianza pública es vital para su propio futuro. Hoy, este indicador se manifiesta con una tendencia decreciente.

Sahan Avin, investigador titular de este equipo, comentó algunas medidas concretas presentadas en sus propuestas para los desarrolladores de IA. Una de las primeras recomendaciones es la aplicación adecuada de filtros. «Los gobiernos y el público deben poder distinguir fácilmente entre los confiables, los vendedores de aceite de serpiente y los despistados», comentó. «Una vez que puedes hacer eso, hay un incentivo real para ser confiable. Pero si bien no puedes distinguirlos, hay mucha presión para cortar esquinas», agregó.

Como uno de los pilares del apoyo necesario para robustecer la confianza requerida, Avin apunta hacia los hackers éticos, aquellos expertos en seguridad informática que, como la antítesis de los ciberdelincuentes, ponen su conocimiento al servicio de la seguridad digital colectiva. «Los equipos rojos son hackers éticos que desempeñan el papel de agentes externos malignos», señaló. «Serían llamados para atacar cualquier nueva IA, o estrategia sobre cómo usarla con fines maliciosos, con el fin de revelar cualquier debilidad o potencial de daño». Algunas empresas ya cuentan con su propio “equipo rojo”. No obstante, por un asunto de rigurosidad ética, se recomienda traspasar esta tarea a una comunidad de terceros.

Haydn Belfield, coautor del texto e investigador del CSER, agregó: «La mayoría de los desarrolladores de IA quieren actuar de manera responsable y segura, pero no ha estado claro qué pasos concretos pueden tomar hasta ahora. Nuestro informe llena algunos de estos vacíos».

Dada la penetración que esta clase de tecnología está logrando en distintas áreas, atender estos aspectos de su desarrollo es necesario, antes de que resulte ser demasiado tarde. «Las vidas y los medios de subsistencia dependen cada vez más de la IA que está cerrada al escrutinio, y esa es una receta para una crisis de confianza. Es hora de que la industria vaya más allá de los principios éticos bien intencionados e implemente mecanismos del mundo real para abordar esto», comentó Belfield.