¿Puede una inteligencia artificial decidir qué es moralmente correcto o incorrecto? OpenAI cree que sí, o al menos quiere explorar esa posibilidad. La organización ha destinado fondos para investigaciones en torno a la creación de algoritmos capaces de predecir juicios morales humanos. Este esfuerzo, liderado por académicos de la Universidad de Duke, plantea preguntas profundas sobre cómo las máquinas pueden interactuar con conceptos tan abstractos y subjetivos como la moralidad.
Un proyecto ambicioso financiado por OpenAI
OpenAI, conocida por desarrollar herramientas como ChatGPT, ha otorgado una subvención a los investigadores Walter Sinnott-Armstrong y Jana Borg. Este equipo, especializado en ética práctica, trabaja en un proyecto denominado «AI Morality», con un presupuesto de un millón de dólares durante tres años, según un comunicado oficial. El objetivo principal es entrenar algoritmos para que puedan predecir juicios morales humanos en contextos complejos, como conflictos en medicina, derecho o negocios.
Sin embargo, el equipo de investigación se ha mantenido hermético sobre los detalles de su trabajo, posiblemente debido a la sensibilidad del tema y la controversia que genera.
¿Cómo puede una IA entender la moralidad?
La idea de un «GPS moral» para inteligencia artificial no es nueva. Otros proyectos similares han intentado abordar este reto, como Ask Delphi, desarrollado por el Instituto Allen de IA en 2021. Este sistema podía emitir juicios éticos básicos —como condenar el engaño en un examen— pero mostraba fallos significativos cuando se le planteaban dilemas más complejos o preguntas formuladas de manera diferente.
La razón detrás de estos fallos radica en la naturaleza misma de los sistemas de IA. Los modelos de aprendizaje automático, como los desarrollados por OpenAI, son esencialmente máquinas estadísticas que analizan patrones en grandes conjuntos de datos. Por tanto, carecen de una comprensión auténtica de los valores humanos, las emociones o los principios filosóficos que subyacen a la moralidad.
Además, la cultura y los sesgos inherentes a los datos utilizados para entrenar estas IAs complican aún más el panorama. Por ejemplo, los algoritmos suelen reflejar valores dominantes en las culturas occidentales, dejando fuera perspectivas de otras comunidades menos representadas.
Las dificultades de crear un estándar moral universal
La moralidad no es una ciencia exacta; es un concepto moldeado por miles de años de debates filosóficos y diferencias culturales. Mientras algunos filósofos, como Kant, defienden principios éticos absolutos, otros, como los utilitaristas, priorizan el mayor beneficio para el mayor número de personas.
Cuando se intenta traducir esta complejidad a un sistema algorítmico, los problemas son evidentes. Un ejemplo práctico es el trabajo previo de Sinnott-Armstrong, que desarrolló un sistema para decidir quién debería recibir trasplantes de riñón. Aunque el algoritmo funcionaba como herramienta de apoyo, planteaba preguntas inquietantes sobre el papel de la tecnología en decisiones que afectan la vida humana.
¿Es este el camino correcto?
Desde wwwhatsnew.com, creemos que la investigación en este campo debe avanzar con transparencia y cuidado extremo. La posibilidad de que una máquina influya en decisiones morales podría tener enormes beneficios, como garantizar mayor equidad en áreas como la salud pública. Sin embargo, también plantea riesgos éticos, como la perpetuación de sesgos o la delegación irresponsable de decisiones críticas en sistemas tecnológicos.
Además, la subjetividad inherente a la moralidad sugiere que nunca habrá un algoritmo perfecto. Incluso si las máquinas logran simular juicios éticos humanos, siempre existirán debates sobre si estas decisiones reflejan verdaderamente los valores de una sociedad diversa.
El futuro de la moralidad en la IA
OpenAI está dando un paso valiente al explorar este campo, pero los resultados podrían estar muy lejos de lo que el público espera. Como en otros avances tecnológicos, la clave estará en el equilibrio entre innovación y responsabilidad ética.
Las empresas tecnológicas, junto con académicos y legisladores, tendrán que colaborar para garantizar que la IA no solo sea eficiente, sino también justa y representativa de la diversidad humana.