Si has estado siguiendo el desarrollo de inteligencia artificial en los últimos años, es probable que estés al tanto de los modelos avanzados de openai. su más reciente lanzamiento, gpt-4o, no solo ha capturado la atención por sus capacidades mejoradas, sino también por las preocupaciones de seguridad que han surgido en torno a él. en mayo de 2024, openai presentó este modelo y recientemente compartió un documento conocido como el «system card», que detalla los riesgos asociados y las medidas tomadas para mitigarlos.
La persuasión y sus riesgos
Uno de los puntos más destacados en el system card es la clasificación de riesgo «medio» asignada a gpt-4o en relación con la persuasión. Durante las pruebas, se descubrió que los textos generados por este modelo pueden ser más efectivos en influir la opinión de los lectores que algunos textos escritos por humanos. En un contexto donde la información es poder, esto plantea serias preocupaciones, especialmente con una elección presidencial en EEUU en el horizonte. Aunque no siempre fue más convincente que un humano, los casos en los que lo fue han generado alarma.
Otros riesgos latentes
El system card también aborda otros riesgos, clasificados como de bajo nivel, pero que no son menos importantes. por ejemplo, existe la posibilidad de que gpt-4o genere contenido erótico o violento, reproduzca fragmentos de audio con derechos de autor o cree clones no autorizados de voces humanas. Openai ha implementado diversas salvaguardas, pero la naturaleza de la inteligencia artificial implica la existencia de áreas grises y posibles vulnerabilidades. Uno de los aspectos más preocupantes es la «antropomorfización» del modelo, donde los usuarios podrían desarrollar vínculos emocionales con la ia, similar a cómo nos apegamos a las mascotas o incluso a otros seres humanos.
La ética en la inteligencia artificial
Esto no solo es un tema de seguridad, sino también de ética. ¿hasta qué punto es aceptable que una máquina simule emociones humanas al punto de influir en nuestras interacciones sociales reales? Openai, consciente de estas preocupaciones, ha comenzado a implementar controles más estrictos en la capacidad de voz del modelo, limitando las voces preestablecidas y bloqueando cualquier salida que contenga lenguaje violento o inapropiado.
Transparencia y regulación
En mi opinión, uno de los aspectos más interesantes de esta situación es cómo openai está manejando la transparencia. a través de su system card, la compañía ha intentado ser lo más abierta posible sobre los riesgos asociados con gpt-4o y las medidas tomadas para mitigarlos. Sin embargo, no todos están convencidos de que esta transparencia sea suficiente. La presión pública y las críticas de diversos sectores, incluidos legisladores como la senadora elizabeth warren, reflejan la creciente demanda de una mayor regulación y supervisión en el desarrollo de ia.
El futuro de la inteligencia artificial
Este tema es aún más relevante cuando consideramos la posibilidad de que en un futuro cercano, leyes como la propuesta en california exijan que modelos como gpt-4o se sometan a evaluaciones de riesgo antes de ser lanzados al público. Si estas regulaciones se implementan, openai y otras compañías de IA tendrán que adaptarse a un entorno más estricto, lo que podría ralentizar la innovación pero también ofrecería una mayor protección contra el mal uso de la tecnología.
En wwwhatsnew.com, donde constantemente se discuten temas relacionados con tecnología y seguridad, esta conversación ya está en marcha, siendo un excelente recurso para mantenerse al día con estos desarrollos. A medida que avanzamos hacia un futuro cada vez más dominado por la inteligencia artificial, es crucial seguir evaluando y reevaluando nuestras prioridades y límites.