La inteligencia artificial (IA) es un tema candente en el mundo de la tecnología, con debates sobre su seguridad y potencial para cambiar la vida tal como la conocemos. Recientemente, se rumoreaba que OpenAI estaba desarrollando su sucesor de GPT-4, llamado GPT-5. Sin embargo, en una discusión sobre las amenazas que plantean los sistemas de IA, el CEO de OpenAI, Sam Altman, confirmó que actualmente la empresa no está entrenando a GPT-5.
La controversia sobre la seguridad de la IA
La noticia llega en medio de una creciente preocupación en la industria sobre la seguridad de la IA. Un grupo de expertos y científicos de renombre ha emitido una carta abierta instando a las empresas de IA a detener el desarrollo de sistemas más poderosos que GPT-4 hasta que se aborden las preocupaciones de seguridad. Si bien algunos en la industria han respaldado la idea, otros la han criticado por no tener en cuenta las complejidades técnicas involucradas en el desarrollo de la IA.
Altman se hizo eco de esta crítica, señalando que la carta «carecía de la mayor parte de la sutileza técnica sobre dónde necesitamos la pausa». También enfatizó que OpenAI no está entrenando a GPT-5 actualmente, y que «no lo haremos por un tiempo». Sin embargo, aclaró que la compañía todavía está trabajando en la mejora de las capacidades de GPT-4, y que hay muchas cuestiones de seguridad que deben abordarse.
La falacia de los números de versión
La negación de Altman sobre el desarrollo de GPT-5 también pone de relieve una cuestión más amplia en el debate sobre la seguridad de la IA: la dificultad de medir y rastrear el progreso. Los números de versión a menudo se consideran como una medida de progreso, pero esto puede ser engañoso.
La idea de que las actualizaciones numeradas reflejan mejoras definidas y lineales en la capacidad es una ilusión que ha sido nutrida en el mundo de la tecnología de consumo durante años. Esto se debe a que los números asignados a nuevos teléfonos o sistemas operativos aspiran a la rigurosidad del control de versiones, pero en realidad son solo herramientas de marketing. «Por supuesto que el iPhone 13 es mejor que el iPhone 12», dice la lógica de este sistema. «El número es más grande, por lo tanto, el teléfono es mejor».
Esta lógica también se aplica a menudo a los sistemas de la IA, lo que puede llevar a la confusión. El hecho de que OpenAI no esté desarrollando actualmente GPT-5 no significa que la compañía no esté trabajando en otras capacidades de la IA que planteen preocupaciones de seguridad. En lugar de centrarse en los números de versión, deberíamos enfocarnos en las capacidades reales de la IA y en cómo pueden cambiar con el tiempo.
¿Un alivio para la seguridad de la IA?
Aunque la noticia de que OpenAI no está actualmente desarrollando GPT-5 puede parecer un alivio para aquellos preocupados por la seguridad de la IA, todavía hay mucho trabajo por hacer en este campo. El desarrollo de la IA es un proceso continuo y los sistemas actuales siguen siendo imperfectos y requieren mejoras. Además, la IA se está utilizando cada vez más en una variedad de campos, lo que significa que la seguridad de la IA es más importante que nunca.
Es importante abordar las preocupaciones de seguridad de la IA de manera efectiva para garantizar que la tecnología se use de manera responsable y segura. Los expertos han destacado la importancia de una gobernanza efectiva de la IA, que incluya un enfoque en la transparencia, la rendición de cuentas y la ética. También se necesitan regulaciones sólidas para garantizar que los sistemas de IA sean seguros y responsables.