Carta abierta de Elon Musk y expertos sobre la pausa en el desarrollo de la IA es criticada por exageración y tergiversación

Publicado el

inteligencia artificial

Elon Musk, CEO de Tesla, junto a cientos de expertos en tecnología, firmaron esta semana una carta abierta pidiendo una pausa de seis meses en el desarrollo de sistemas de IA de alta potencia.

Los firmantes argumentaron que una pausa permitiría la regulación y garantizaría la seguridad de los sistemas. Sin embargo, la carta ha sido criticada por tergiversar un artículo académico y por exagerar los riesgos de la IA.

Científicos criticaron la carta de expertos sobre los riesgos de la IA

El artículo académico citado en la carta fue escrito por Timnit Gebru y Emily Bender. Gebru escribió en Twitter que la carta exagera los riesgos de la IA y que su artículo en realidad advierte contra hacer afirmaciones infladas sobre la IA. Bender también criticó la carta, diciendo que estaba llena de entusiasmo por la IA y que se centraba en los riesgos equivocados. Según Bender, los riesgos de la IA no están relacionados con el poder de la IA en sí, sino con la concentración del poder en manos de las personas, la reproducción de sistemas de opresión y el daño al ecosistema de la información.

Uno de los signatarios, Emad Mostaque, jefe de la empresa emergente británica Stability AI, se retractó rápidamente de una de las demandas centrales de la carta. Mostaque escribió en Twitter que no creía que una pausa de seis meses fuera la mejor idea, pero que la carta generaría un debate interesante. Otro signatario, el profesor de psicología Gary Marcus, discutió en Twitter con críticos que lo acusaron de participar en una «distracción tonta». Marcus argumentó que los sistemas de IA existentes perpetúan el sesgo del pasado y que debemos preocuparnos por ello.

Grandes empresas de tecnología como Google, Meta y Microsoft han trabajado en sistemas de IA durante años para ayudar con las traducciones, la búsqueda y la publicidad dirigida. Pudimos ver a fines del año pasado, cuando la firma OpenAI lanzó ChatGPT, un bot muy popular hoy en día, que puede generar reglas de texto en lenguaje natural a partir de una orden breve. OpenAI presentó recientemente GPT-4, una versión más potente de su chatbot. Esto provocó la carta abierta de Musk y más de 1000 expertos en IA.

Los riesgos de la IA son un tema de debate importante. Algunos argumentan que los sistemas de IA con inteligencia humana y competitiva pueden plantear riesgos profundos para la sociedad y la humanidad. Otros argumentan que los riesgos están relacionados con la forma en que las personas utilizan la IA y no con la IA en sí misma. Además, hay preocupaciones sobre la concentración del poder en manos de pocas empresas de tecnología y la falta de regulación en este campo.

Lo importante es que, dado el punto actual de desarrollo de esta tecnología y las proyecciones ya conocidas sobre su uso, crecimiento y potencial impacto, la discusión ya está instalada y de una manera abierta, en la que la sociedad en general puede tomar parte.