Masiva carta abierta de líderes tecnológicos solicita pausar el entrenamiento de sistemas de IA potentes

Publicado el

Inteligencia Artificial

Más de 1,100 personas ligadas al sector tecnológico, incluidos Elon Musk y Steve Wozniak, han firmado una carta abierta pidiendo a todos los laboratorios de inteligencia artificial (IA) que detengan inmediatamente el entrenamiento de sistemas de IA más potentes que GPT-4 durante al menos seis meses.

La carta argumenta que los sistemas de IA contemporáneos se están volviendo cada vez más competitivos en tareas generales y que es importante considerar los efectos potenciales de permitir que las máquinas inunden nuestros canales de información con propaganda y falsedad, así como la automatización de todos los trabajos, incluyendo los de cumplimiento. Los firmantes también cuestionan si deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más inteligentes y obsoletas, y reemplazarnos, y si deberíamos arriesgarnos a perder el control de nuestra civilización.

De qué tienen miedo los firmantes

Las personas que firman el documento tienen miedo de los posibles riesgos y peligros que los sistemas de inteligencia artificial más avanzados y poderosos puedan representar para la sociedad y la humanidad.

Existen varias preocupaciones que han sido expresadas en el documento, tales como:

  • El potencial riesgo de perder el control sobre los sistemas de inteligencia artificial, lo que podría resultar en consecuencias impredecibles y peligrosas para la sociedad.
  • La posibilidad de que los sistemas de inteligencia artificial sean utilizados para fines malintencionados, tales como propagar información errónea o propaganda.
  • La posibilidad de que los sistemas de inteligencia artificial reemplacen a los humanos en el trabajo y resulten en una mayor tasa de desempleo y desigualdad.
  • La posibilidad de que los sistemas de inteligencia artificial superen la capacidad humana de comprensión y conocimiento, y eventualmente puedan reemplazar a los humanos en la toma de decisiones importantes, lo que podría tener consecuencias impredecibles e indeseadas.

Si compartes los miedos, firma el documento con ellos (el enlace está al final de este artículo).

Inteligencia artificial versus talento humano, una carrera fuera de control

La carta también destaca la falta de planificación y gestión en el desarrollo de sistemas de IA, señalando que los laboratorios de IA se han «encerrado en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera confiable». Los firmantes argumentan que el desarrollo de sistemas potentes de IA debe ser llevado a cabo solo cuando estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables.

Una pausa pública y verificable

El mensaje colectivo pide además que la pausa solicitada sea «pública y verificable, e incluya a todos los actores clave». Si dicha pausa «no se puede promulgar rápidamente, los gobiernos deberían intervenir e instituir una moratoria», se señala también. Algunos de los firmantes de la carta son expertos en inteligencia artificial, pero también incluye a personas que no están directamentente ligados al rubro de la tecnología.

La falta de firmas de OpenAI y Anthropic

Bajo el contexto de esta carta, cabe señalar señalar que nadie de OpenAI, el equipo detrás del modelo de lenguaje grande GPT-4, firmó el mensaje, así como tampoco lo hizo nadie de Anthropic, cuyo equipo se separó de OpenAI para construir un chatbot de IA «más seguro». Aunque algunos de los firmantes de la carta trabajan en empresas de tecnología líderes, la ausencia de firmas de OpenAI y Anthropic indica que hay un debate interno en la comunidad de IA sobre la necesidad de una pausa en el desarrollo de sistemas de IA más potentes que GPT-4.

El futuro de la IA

La carta abierta plantea preguntas importantes sobre el futuro de la IA y el papel que deberíamos desempeñar en su desarrollo. Aunque la IA tiene el potencial de mejorar nuestras vidas de muchas maneras, también plantea riesgos significativos. La falta de comprensión y control sobre el desarrollo de sistemas de IA más potentes que GPT-4 es un riesgo real, y es importante que la comunidad de IA reflexione cuidadosamente sobre cómo avanzar en este campo, dimensionando el potente poder de influencia que ha quedado patentado en los últimos tiempos.

El texto completo de esta solicitud abierta puede consultarse en el portal del Future Of Life Institute, donde cualquier visitante puede endosar su adherencia sumándose a los firmantes.