Un grupo de líderes de la industria de la inteligencia artificial ha hecho una declaración impactante. Advierten que la tecnología que están construyendo podría representar una amenaza existencial para la humanidad.
Para ellos, la inteligencia artificial debe ser considerada un riesgo social tan importante como las pandemias y las guerras nucleares.
Firmas destacadas y líderes de la industria respaldan la declaración
Más de 350 ejecutivos, investigadores e ingenieros que trabajan en IA han firmado una declaración pública y abierta, de acuerdo con lo reportado por el New York Times, en un intento por concientizar sobre los peligros que podrían surgir en el futuro.
Entre los firmantes de la carta abierta se encuentran altos ejecutivos de tres de las principales empresas de IA. Sam Altman, director ejecutivo de OpenAI; Demis Hassabis, director ejecutivo de Google DeepMind; y Dario Amodei, director ejecutivo de Anthropic. Además, Geoffrey Hinton y Yoshua Bengio, dos de los tres investigadores que ganaron un Premio Turing, han respaldado la declaración. Estos líderes de la industria se han unido en la preocupación de que la IA pueda convertirse en una tecnología peligrosa si no se regula adecuadamente.
En el último tiempo, ha surgido una creciente preocupación sobre los daños potenciales de la inteligencia artificial. Los avances en los modelos de lenguaje extenso, como los utilizados por ChatGPT, han generado temores sobre la propagación de información errónea y propaganda.
Además, existe la preocupación de que la IA pueda reemplazar numerosos puestos de trabajo en el ámbito administrativo. Aunque los investigadores no han proporcionado una explicación detallada sobre cómo podría ocurrir esto, creen que la IA podría causar trastornos a gran escala en un futuro cercano si no se toman medidas para regularla.
Un «despertar» en la industria de la IA
No deja de ser llamativo que los líderes de la industria, quienes están compitiendo entre sí para desarrollar y mejorar la IA, estén argumentando a favor de una regulación más estricta. Recientemente, Sam Altman, Demis Hassabis y Dario Amodei se reunieron con el presidente estadounidense Joe Biden y la vicepresidenta Kamala Harris, para discutir la regulación de la IA. Altman advirtió sobre los riesgos graves de los sistemas avanzados de IA y solicitó la intervención del gobierno para regularla y prevenir posibles daños.
La carta abierta representa un «despertar» en la industria de la IA, ya que muchos líderes han expresado preocupaciones en privado, pero ahora están haciendo públicas sus inquietudes. Dan Hendrycks, director ejecutivo del Center for AI Safety, afirmó que existe una idea errónea de que solo unos pocos están preocupados por estos problemas, pero la realidad es que muchas personas en privado expresan sus preocupaciones.
Hay quienes argumentan que la tecnología de la IA aún es demasiado inmadura para ser una amenaza existencial. Sin embargo, otros señalan que la IA está avanzando rápidamente y ya ha superado el rendimiento humano en algunas áreas. Esto genera preocupaciones sobre la posibilidad de que se desarrolle una «inteligencia general artificial» (AGI), que podría igualar o superar el rendimiento humano en una amplia variedad de tareas. Por lo tanto, es necesario establecer medidas de regulación y control adecuadas.
Propuestas para una gestión responsable de la IA
En una publicación de blog reciente, Sam Altman y otros ejecutivos de OpenAI propusieron formas de gestionar responsablemente los sistemas de IA poderosos. Llamaron a la cooperación entre los principales fabricantes de IA, a más investigación técnica en modelos de lenguaje extenso y a la creación de una organización internacional de seguridad de IA, similar a la Agencia Internacional de Energía Atómica. Además, Altman expresó su apoyo a las reglas que requerirían una licencia gubernamental para los fabricantes de modelos de IA avanzados.
El llamado a una pausa de seis meses en el desarrollo de los modelos de IA más grandes ha ganado apoyo. Elon Musk y otros líderes tecnológicos conocidos han firmado una carta abierta que destaca la necesidad de frenar el desarrollo de sistemas de IA cada vez más poderosos. Aunque la carta no contó con la participación de los principales laboratorios de IA, está claro que existe una creciente preocupación sobre los riesgos asociados con la IA sin regulación adecuada.
Un mensaje claro y conciso
Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear.
La declaración del Centro para la Seguridad de la IA fue breve y directa, con solo 22 palabras en su redacción original en inglés. Esto permitió unir a expertos en IA que pueden tener diferencias de opinión sobre los riesgos y las soluciones específicas, pero que comparten preocupaciones generales sobre los sistemas de IA poderosos.
La urgencia de las advertencias de los líderes de la IA ha aumentado a medida que la tecnología de IA se utiliza cada vez más en aplicaciones de entretenimiento, compañía y productividad. Es importante tomar medidas ahora para evitar posibles consecuencias negativas en el futuro.