El Thayer School of Engineering de Dartmouth acogió un evento muy especial: una conversación con Mira Murati, CTO de OpenAI y destacada líder en inteligencia artificial. La sesión fue moderada por Jeff Blackburn, trustee de Dartmouth y ex vicepresidente senior de Amazon. Este artículo resume los puntos más destacados de la charla, ofreciendo una visión profunda de la experiencia de Murati y su impacto en el campo de la inteligencia artificial.
Bienvenida y Contexto Histórico
Alexis Abramson, decana de Thayer, inició la sesión dando la bienvenida a los asistentes y destacando la importancia histórica de Dartmouth en el ámbito de la inteligencia artificial. Desde la primera conferencia seminal sobre IA en 1956 hasta la investigación multidisciplinaria actual en modelos de lenguaje y salud de precisión, Dartmouth ha sido un pionero en este campo.
Trayectoria Profesional de Mira Murati
Mira Murati, graduada de la clase de 2012 de Thayer, comenzó su carrera en el sector aeroespacial, pero pronto se unió a Tesla. Allí trabajó en la construcción de modelos S y X, y se interesó profundamente en los autos autónomos y la visión computarizada. Sin embargo, su deseo de trabajar en desafíos más amplios la llevó a unirse a una startup centrada en la computación espacial. Eventualmente, su pasión por la IA la condujo a OpenAI, atraída por su misión de construir una inteligencia general artificial segura.
Innovación en OpenAI
En OpenAI, Murati ha liderado el desarrollo de modelos transformadores como ChatGPT y DALL-E. Estos modelos utilizan una combinación de redes neuronales, grandes cantidades de datos y poder computacional para lograr resultados sorprendentes en tareas generales. Según Murati, esta fórmula ha permitido avances significativos, aunque todavía no se comprende completamente cómo funcionan estos sistemas.
Evolución y Capacidades de GPT
Murati explicó que los modelos como GPT-3 inicialmente tenían una «inteligencia» comparable a la de un niño pequeño, mientras que GPT-4 ha alcanzado un nivel similar al de un estudiante de secundaria inteligente. Se espera que los futuros modelos alcancen niveles de inteligencia de doctorado en tareas específicas, lo que podría ocurrir en 2025.
Desafíos y Oportunidades en la Seguridad de la IA
Uno de los temas cruciales discutidos fue la seguridad de la IA. Murati subrayó la importancia de desarrollar capacidades y medidas de seguridad de manera simultánea. Un sistema más inteligente puede entender y seguir mejor las directrices de seguridad, lo que facilita su control y mitigación de riesgos.
Impacto de la IA en la Sociedad
Murati también abordó las preocupaciones sobre el impacto de la IA en el empleo. Aunque anticipa que muchos trabajos cambiarán o desaparecerán, también surgirán nuevos roles. Sin embargo, es esencial estudiar estos efectos de manera rigurosa para prepararse adecuadamente.
Aplicaciones Prácticas de la IA
Las aplicaciones prácticas de la inteligencia artificial son numerosas. Desde la redacción de borradores hasta el análisis de datos y el soporte al cliente, las herramientas de IA están transformando cómo trabajamos. Murati destacó que el uso de la IA para tareas repetitivas libera tiempo para enfoques más creativos y complejos, mejorando la productividad en múltiples industrias.
Futuro de la Educación con IA
Murati ve un futuro brillante para la educación con IA. La capacidad de personalizar el aprendizaje y ofrecer tutorías individuales puede revolucionar el sistema educativo, haciéndolo más accesible y efectivo. Dartmouth, con sus clases pequeñas y enfoque personalizado, podría beneficiarse enormemente de estas innovaciones.
Desafíos Éticos y Derechos Creativos
Durante la sesión, Joy Buolamwini planteó cuestiones sobre los derechos creativos y biométricos. Murati reconoció la complejidad de estos temas y subrayó la importancia de la transparencia, la compensación justa y la colaboración con creadores de contenido para abordar estos desafíos.
Para aquellos interesados en seguir los pasos de Murati, su consejo fue claro: estudiar con curiosidad y menos estrés. La educación debe ser una experiencia de inmersión y aprendizaje continuo, abierta a diversas disciplinas.
Transcripción de la entrevista
Aquí os dejo la transcripción:
Alexis Abramson: Buenas tardes a todos. Es genial ver una sala tan llena aquí en nuestro nuevo edificio. Mi nombre es Alexis Abramson, decana de la Escuela de Ingeniería Thayer en Dartmouth, y es un verdadero placer darles la bienvenida a todos a este evento tan especial, una conversación con Mira Murati, una de las principales líderes en inteligencia artificial de nuestra nación y también una exalumna de ingeniería de Dartmouth.
Antes de comenzar, quiero extender una bienvenida especial a una invitada especial, Joy Buolamwini, quien también es reconocida por su trabajo en IA, ética de la IA y justicia algorítmica. Ella también recibirá su título honorífico de Dartmouth mañana. Y una cálida bienvenida a Mira y a todos ustedes que forman parte de su familia ahora, o que formaron parte de su familia cuando estaba aquí en Dartmouth, incluyendo a su hermano, Ernel Murati, también exalumno de Thayer de la clase de 2016.
Gracias a nuestros socios en el Instituto Neukom para Ciencias Computacionales y el Departamento de Ciencias de la Computación. Desde la primera conferencia seminal sobre inteligencia artificial de Dartmouth en 1956 hasta nuestra investigación multidisciplinaria actual sobre modelos de lenguaje grande y salud de precisión, Dartmouth ha estado a la vanguardia de la innovación en IA. Así que estamos especialmente emocionados de tener a Mira, Directora de Tecnología en OpenAI y de la clase de ingeniería de 2012, con nosotros hoy. Ella es conocida por su trabajo pionero en algunas de las tecnologías de IA más comentadas de nuestro tiempo. En OpenAI, ha liderado el desarrollo de modelos transformadores como ChatGPT y DALL-E, estableciendo las bases para futuras tecnologías de IA generativa.
Durante su tiempo como estudiante en Thayer, aplicó sus habilidades de ingeniería para diseñar y construir autos de carrera híbridos con el equipo de carreras de Fórmula de Dartmouth. Mañana, en la ceremonia de graduación, recibirá un doctorado honorario en ciencias de Dartmouth.
Finalmente, moderando nuestra conversación hoy está Jeff Blackburn, de la clase de Dartmouth de 1991 y actual fideicomisario de Dartmouth. La extensa carrera de Jeff se centra en el crecimiento de los medios digitales globales y la tecnología. Se desempeñó como vicepresidente senior de Medios y Entretenimiento Global en Amazon hasta 2023 y ha ocupado varios puestos de liderazgo en la compañía. Sus conocimientos sobre la intersección de tecnología, medios y entretenimiento seguramente asegurarán que tengamos una conversación muy interesante hoy.
Sin más preámbulos, les entrego la conversación. Por favor, únanse a mí para dar la bienvenida a Mira Murati y Jeff Blackburn.
Jeff Blackburn: Gracias, Alexis. Y este hermoso edificio, es tan agradable. Mira, muchas gracias por venir aquí y pasar tiempo con nosotros. Solo puedo imaginar lo ocupados que deben ser tus días ahora mismo.
Mira Murati: Es genial estar aquí.
Jeff: Es muy amable de tu parte tomarte este tiempo para todos aquí.
Mira: Realmente feliz de estar aquí.
Jeff: Y quiero ir directo al grano porque sé que todos quieren escuchar lo que está pasando en tu vida y lo que estás construyendo porque es fascinante. Tal vez deberíamos comenzar contigo. Dejas Thayer, te vas a Tesla por un tiempo, luego a OpenAI. Si pudieras describir ese período y luego unirte a OpenAI en los primeros días.
Mira: Sí, bueno, justo después de Thayer, en realidad trabajé en aeroespacial brevemente, y luego me di cuenta de que el sector aeroespacial era un poco lento y me interesé mucho en la misión de Tesla y, por supuesto, en los desafíos realmente innovadores de construir un futuro sostenible para el transporte. Decidí unirme a ellos. Después de trabajar en el Model S y el Model X, pensé que no quería convertirme en una persona de autos. Quería trabajar en desafíos diferentes, en la intersección de avanzar realmente la sociedad de alguna manera, pero también haciendo estos desafíos de ingeniería muy difíciles.
En ese momento, cuando estaba en Tesla, me interesé mucho en los autos autónomos y en la intersección de estas tecnologías, la visión por computadora y la IA, aplicándolas a los autos autónomos. Pensé, está bien, me gustaría aprender más sobre IA, pero en diferentes dominios. Así que me uní a una startup donde lideraba ingeniería y producto para aplicar IA y visión por computadora en el dominio de la computación espacial, pensando en la próxima interfaz de la computación. En ese momento, pensé que iba a ser realidad virtual y aumentada. Ahora creo que es un poco diferente, pero pensé, ¿qué pasaría si pudieras usar tus manos para interactuar con información muy compleja, ya sean fórmulas, moléculas o conceptos en topología? Puedes aprender sobre estas cosas e interactuar con ellas de una manera mucho más intuitiva, y eso amplía tu aprendizaje.
Resultó que la realidad virtual estaba un poco adelantada a su tiempo en ese entonces, pero esto me dio suficiente para aprender sobre IA en un dominio diferente. Mi carrera siempre ha estado en la intersección de la tecnología y varias aplicaciones, y me dio una perspectiva diferente de lo avanzada que estaba la IA y a qué se podría aplicar.
Jeff: Entonces, la conducción autónoma en Tesla, viste el aprendizaje automático, el aprendizaje profundo. Podías ver hacia dónde iba esto.
Mira: Sí, pero no claramente.
Jeff: ¿Trabajaste con Elon?
Mira: Sí, especialmente en el último año.
Jeff: Pero no estaba totalmente claro hacia dónde iba.
Mira: En ese momento, todavía se aplicaba la IA a aplicaciones específicas, no de manera general. La aplicabas a problemas muy específicos y estrechos, y era lo mismo en la realidad virtual y aumentada. Desde allí, pensé que no quería solo aplicarla a problemas específicos. Quería aprender sobre la investigación y realmente entender lo que estaba pasando, y desde allí, luego aplicarla a otras cosas. Esto es cuando me uní a OpenAI, y la misión de OpenAI me resultaba muy atractiva. Era una organización sin fines de lucro en ese entonces, y la misión no ha cambiado. La estructura ha cambiado, pero cuando me uní hace seis años, era una organización sin fines de lucro orientada a construir una inteligencia general artificial segura, y era la única otra compañía que hacía esto, aparte de DeepMind. Ahora, por supuesto, hay muchas compañías construyendo alguna versión de esto.
Jeff: Un puñado, sí.
Mira: Sí. Y así comenzó el viaje hacia OpenAI.
Jeff: Entiendo. Has estado construyendo mucho desde que estuviste allí. Tal vez podríamos, para el grupo, cubrir algunos conceptos básicos de IA, aprendizaje automático, aprendizaje profundo y ahora IA. Todo está relacionado, pero es algo diferente. ¿Qué está pasando allí y cómo se manifiesta eso en un ChatGPT, o un DALL-E, o tu producto de video? ¿Cómo funciona?
Mira: No es algo radicalmente nuevo. En cierto sentido, estamos construyendo sobre décadas y décadas de esfuerzo humano. De hecho, comenzó aquí. Lo que ha sucedido en la última década es esta combinación de tres cosas: redes neuronales, una gran cantidad de datos y una gran cantidad de computación. Combinas estas tres cosas, y obtienes estos sistemas de IA realmente transformadores o modelos que resultan que pueden hacer estas cosas asombrosas, como tareas generales, pero no está realmente claro cómo. El aprendizaje profundo simplemente funciona. Estamos tratando de entender y aplicar herramientas e investigación para comprender cómo funcionan estos sistemas, pero sabemos que funciona porque lo hemos estado haciendo durante los últimos años. También hemos visto la trayectoria de progreso y cómo los sistemas han mejorado con el tiempo.
Cuando miras sistemas como GPT-3, modelos de lenguaje grande que desplegamos hace unos tres, tres años y medio, GPT-3 era capaz de… El objetivo de este modelo es simplemente predecir el siguiente token.
Jeff: Es realmente predicción de la siguiente palabra.
Mira: Sí, más o menos. Y luego descubrimos que si le das a este modelo este objetivo de predecir el siguiente token, y lo entrenas con una gran cantidad de datos, y usas mucha computación, lo que también obtienes es un modelo que realmente entiende el lenguaje a un nivel bastante similar al nuestro.
Jeff: Porque ha leído muchos libros. Ha leído todos los libros.
Mira: Básicamente todo el contenido en Internet. Pero no está memorizando lo que sigue. Está generando su propia comprensión del patrón de los datos que ha visto anteriormente. Luego descubrimos que, está bien, no es solo lenguaje. De hecho, si pones diferentes tipos de datos allí, como código, también puede codificar. Así que, en realidad, no le importa qué tipo de datos pones allí. Pueden ser imágenes, pueden ser videos, puede ser sonido, y puede hacer exactamente lo mismo.
Jeff: Oh, llegaremos a las imágenes. Pero sí, una solicitud de texto puede darte imágenes o videos, y ahora estás viendo incluso lo inverso.
Mira: Sí, exactamente. Entonces descubrimos que esta fórmula funciona realmente bien: datos, computación y aprendizaje profundo. Puedes poner diferentes tipos de datos, puedes aumentar la cantidad de computación, y luego el rendimiento de estos sistemas de IA mejora y mejora. Esto es lo que llamamos leyes de escalamiento. No son leyes reales. Es esencialmente como una predicción estadística de la capacidad del modelo mejorando a medida que pones más datos y más computación en él. Esto es lo que está impulsando el progreso de la IA hoy.
Jeff: ¿Por qué comenzaste con un chatbot?
Mira: Entonces, sí, en términos de producto, en realidad, comenzamos con la API. No sabíamos realmente cómo comercializar GPT-3. En realidad, es muy, muy difícil comercializar la tecnología de IA. Inicialmente, dimos esto por sentado, y estábamos muy enfocados en construir la tecnología y hacer investigación. Pensamos, aquí está este modelo asombroso, socios comerciales, tómalo y construye productos increíbles sobre él. Luego descubrimos que eso es realmente difícil. Por eso comenzamos a hacerlo nosotros mismos.
Jeff: Eso te llevó a construir un chatbot porque querías…
Mira: Sí, porque estábamos tratando de averiguar por qué era tan difícil para estas empresas realmente asombrosas y exitosas convertir esta tecnología en un producto útil.
Jeff: Eso lleva muy rápidamente a lo que acabas de describir allí, que es más datos, más computación, más inteligencia. ¿Cuán inteligente va a ser esto? Quiero decir, parece que tu descripción es que la escalabilidad de esto es bastante lineal, añades más de esos elementos y se vuelve más inteligente.
Mira: Sí, estos sistemas ya están al nivel humano en tareas específicas, y por supuesto en muchas tareas, no lo están. Si miras la trayectoria de mejora, sistemas como GPT-3, tal vez estamos, digamos, al nivel de inteligencia de un niño pequeño. Y luego, sistemas como GPT-4 son más como una inteligencia de estudiante de secundaria inteligente. Y en los próximos años, estamos viendo inteligencia a nivel de doctorado para tareas específicas.
Jeff: Como…
Mira: Así que las cosas están cambiando y mejorando bastante rápido.
Jeff: ¿Significa que en un año a partir de ahora, podrías tener una conversación con ChatGPT y parecería más inteligente que tú?
Mira: En algunas cosas, sí. En muchas cosas, sí.
Jeff: ¿Quizás a un año de distancia de eso?
Mira: Quiero decir, sí, podría ser.
Jeff: Bastante cerca.
Mira: Aproximadamente. Bueno, eso lleva a estas otras preguntas, y sé que has sido muy vocal en esto, lo cual me alegra y me enorgullece que lo estés haciendo sobre los aspectos de seguridad, pero quiero decir, la gente quiere escucharte sobre eso. Así que quiero decir, ¿qué pasa dentro de tres años cuando es increíblemente inteligente? Puede pasar todos los exámenes de abogacía en todas partes y cada prueba que hayamos hecho. Y luego decide que quiere conectarse a Internet por sí solo y comenzar a hacer cosas. ¿Es eso real, y es eso…? O, ¿es algo en lo que estás pensando como CTO y liderando la dirección del producto?
Mira: Sí, estamos pensando mucho en esto. Es definitivamente real que tendrás sistemas de IA que tendrán capacidades de agente, se conectarán a Internet, hablarán entre ellos, agentes conectándose entre ellos y realizando tareas juntos, o agentes trabajando con humanos y colaborando de manera fluida. Así que trabajando con IA como trabajamos entre nosotros hoy. En términos de seguridad, seguridad y los impactos sociales de este trabajo, creo que estas cosas no son una idea tardía. No puede ser que desarrolles la tecnología y luego tengas que averiguar cómo lidiar con estos problemas. Tienes que construirlos junto con la tecnología y, de hecho, de una manera profundamente integrada para hacerlo bien. Y para capacidades y seguridad, en realidad no son dominios separados. Van de la mano. Es mucho más fácil dirigir un sistema más inteligente diciéndole, «ok, simplemente no hagas estas cosas». Necesitan dirigir un sistema menos inteligente. Es como entrenar a un perro más inteligente frente a un perro más tonto, y así la inteligencia y la seguridad van de la mano.
Jeff: Entiende mejor las reglas de seguridad porque es más inteligente.
Mira: Correcto, sí, exactamente. Así que hay todo un debate ahora alrededor de, ¿haces más investigación de seguridad o haces más investigación de capacidad? Y creo que eso es un poco equivocado porque, por supuesto, tienes que pensar en la seguridad al desplegar un producto y las reglas de seguridad alrededor de eso. Pero en términos de investigación y desarrollo, en realidad van de la mano. Y desde nuestra perspectiva, la forma en que estamos pensando en esto es abordarlo de manera muy científica. Así que intentemos predecir las capacidades que estos modelos tendrán antes de que realmente terminemos el entrenamiento. Y luego, a lo largo del camino, preparemos las reglas de seguridad para cómo manejarlos. Eso no ha sido realmente el caso en la industria hasta ahora. Entrenamos estos modelos, y luego hay estas capacidades emergentes, las llamamos, porque emergen. No sabemos que van a emerger. Podemos ver el rendimiento estadístico, pero no sabemos si ese rendimiento estadístico significa que el modelo es mejor en traducción, o en hacer bioquímica, o codificación o algo más. Y desarrollar esta nueva ciencia de predicción de capacidades nos ayuda a prepararnos para lo que está por venir. Y eso significa…
Jeff: Estás diciendo que todo ese trabajo de seguridad, es consistente con tu desarrollo.
Mira: Sí, eso es correcto.
Jeff: Es un camino similar.
Mira: Sí, así que tienes que llevarlo junto y…
Jeff: Pero, ¿qué pasa con estos problemas, Mira, como el video de Volodymyr Zelensky diciendo, «Nos rendimos», el video de Tom Hanks, o un anuncio de un dentista? No recuerdo qué era. ¿Qué pasa con estos tipos de usos? ¿Está eso en tu esfera o necesita haber regulación alrededor de eso? ¿Cómo ves eso desarrollarse?
Mira: Sí, bueno, mi perspectiva sobre esto es que esta es nuestra tecnología. Así que es nuestra responsabilidad cómo se usa, pero también es una responsabilidad compartida con la sociedad, la sociedad civil, el gobierno, los creadores de contenido, los medios, y así sucesivamente, para averiguar cómo se usa. Pero para que sea una responsabilidad compartida, necesitas llevar a la gente junto, necesitas darles acceso, necesitas darles herramientas para entender y proporcionar reglas de seguridad. Y creo que…
Jeff: Esas cosas son un poco difíciles de detener, ¿verdad?
Mira: Bueno, creo que no es posible tener riesgo cero, pero es realmente una cuestión de cómo minimizas el riesgo. Y proporcionar a las personas las herramientas para hacerlo. Y en el caso del gobierno, por ejemplo, es muy importante llevarlos junto y darles acceso temprano a las cosas, educarlos sobre lo que está pasando.
Jeff: Gobiernos.
Mira: Sí, por supuesto, y reguladores. Y creo que quizás la cosa más significativa que hizo ChatGPT fue llevar la IA a la conciencia pública, dar a la gente una sensación real e intuitiva de lo que la tecnología es capaz y también de sus riesgos. Es una cosa diferente cuando lo lees en comparación con cuando lo pruebas y lo pruebas en tu negocio, y ves, está bien, no puede hacer estas cosas, pero puede hacer esta otra cosa asombrosa, y esto es lo que realmente significa para la fuerza laboral o para mi negocio. Y permite a la gente prepararse.
Jeff: Sí, no, ese es un buen punto. Quiero decir, solo estas interfaces que has creado, ChatGPT, están informando a las personas sobre lo que viene. Quiero decir, puedes usarlo. Ahora puedes ver lo que está debajo. ¿Crees que hay… Solo para terminar en el punto del gobierno. Quiero decir, hablemos solo de los EE. UU. ahora mismo. ¿Deseas que haya ciertas regulaciones que estemos implementando ahora mismo? Antes de que llegues a ese año o dos a partir de ahora.
Mira: Sí, hemos estado abogando por más regulación en los modelos de frontera que tendrán estas capacidades asombrosas que también tienen un lado negativo debido al mal uso. Y hemos sido muy abiertos con los formuladores de políticas y trabajando con los reguladores en eso. En los modelos más a corto plazo y más pequeños, creo que es bueno permitir una gran amplitud y riqueza en el ecosistema y no dejar que las personas que no tienen tantos recursos en computación o datos, no bloquear la innovación en esas áreas. Así que hemos estado abogando por más regulación en los sistemas de frontera donde los riesgos son mucho mayores. Y también, puedes adelantarte a lo que viene en lugar de intentar ponerte al día con los cambios que ya están ocurriendo muy rápidamente.
Jeff: Pero probablemente no quieras que Washington, D.C. regule el lanzamiento de GPT-5, como si puedes o no puedes hacer esto.
Mira: Quiero decir, depende, en realidad. Depende de la regulación. Así que hay mucho trabajo que ya hacemos que ahora ha sido codificado en los compromisos de la Casa Blanca, y esto…
Jeff: Así que está en marcha.
Mira: Trabajo que ya se ha hecho. Y, de hecho, informó los compromisos de la Casa Blanca o lo que la Comisión de la ONU está haciendo con los principios para los despliegues de IA. Y generalmente, creo que la forma de hacerlo es realmente hacer el trabajo, entender lo que significa en la práctica, y luego crear regulación basada en eso. Y eso es lo que ha sucedido hasta ahora. Ahora, adelantarse a estos sistemas de frontera requiere que hagamos mucha más previsión y ciencia de predicción de capacidades para crear la regulación correcta en eso.
Jeff: Bueno, espero que el gobierno tenga personas que puedan entender lo que estás haciendo.
Mira: Parece que más y más personas están uniéndose al gobierno que tienen una mejor comprensión de la IA, pero no lo suficiente.
Jeff: Ok. En términos de industrias, tienes el mejor asiento, tal vez en el mundo, para ver cómo esto va a impactar diferentes industrias. Quiero decir, ya lo está haciendo en finanzas, y contenido, y medios, y atención médica. Pero, ¿qué industrias crees que, cuando miras hacia adelante, crees que serán más impactadas por la IA y el trabajo que estás haciendo en OpenAI?
Mira: Sí, esto es similar a la pregunta que solía recibir de los emprendedores cuando comenzamos a construir un producto sobre GPT-3, donde la gente me preguntaba, «¿Qué puedo hacer con esto? ¿Para qué es bueno?» Y yo decía, para todo. Así que solo pruébalo. Y así que es similar en el sentido de que creo que afectará todo, y no habrá un área que no sea impactada, en términos de trabajo cognitivo y el trabajo cognitivo. Tal vez tomará un poco más de tiempo llegar al mundo físico, pero creo que todo será impactado por esto. Ahora mismo hemos visto… Así que diría que ha habido un poco de retraso en áreas que tienen mucho riesgo, como la atención médica o los dominios legales. Y así que hay un poco de retraso allí, y con razón. Primero, quieres entender y traerlo en casos de uso que sean de menor riesgo, riesgo medio, realmente asegurarte de que esos sean manejados con confianza antes de aplicarlo a cosas que sean de mayor riesgo. E inicialmente, debería haber más supervisión humana, y luego la delegación debería cambiar, y en la medida en que puedan ser más colaborativos, pero…
Jeff: ¿Hay casos de uso que personalmente te encantan, o que estás viendo, o que están a punto de ver?
Mira: Sí, así que creo que básicamente la primera parte de cualquier cosa que estés tratando de hacer, ya sea creando nuevos diseños, ya sea codificación, o escribiendo un ensayo, o escribiendo un correo electrónico, básicamente todo, la primera parte de todo lo que estás tratando de hacer se vuelve mucho más fácil. Y ese ha sido mi uso favorito hasta ahora. Realmente lo he usado…
Jeff: Primer borrador para todo.
Mira: Sí, primer borrador para todo. Es mucho más rápido. Baja la barrera para hacer algo y puedes enfocarte en la parte que es un poco más creativa y más difícil, especialmente en codificación. Puedes externalizar mucho del trabajo tedioso.
Jeff: Documentación y todo ese tipo de cosas.
Mira: Sí, documentación y… Pero en la industria, hemos visto muchas aplicaciones. El servicio al cliente es definitivamente una gran aplicación con chatbots, y la escritura, también el análisis, porque ahora hemos conectado muchas herramientas al modelo central, y esto hace que los modelos sean mucho más utilizables y más productivos. Así que tienes herramientas como el análisis de código. Puede realmente analizar una tonelada de datos. Puedes volcar todo tipo de datos allí, y puede ayudarte a analizar y filtrar los datos, o podrías usar imágenes y podrías usar la herramienta de navegación. Así que si estás preparando, digamos, un documento, la parte de investigación del trabajo puede hacerse mucho más rápido y de una manera más rigurosa. Así que creo que esta es la siguiente capa que se va a añadir a la productividad, añadiendo estas herramientas a los modelos centrales y haciéndolo muy fluido. El modelo decide cuándo usar, digamos, la herramienta de análisis frente a la búsqueda frente a otra cosa.
Jeff: Escribir un programa, sí, sí. Interesante. ¿Ha visto cada programa de televisión y película en el mundo, y va a empezar a escribir guiones y hacer películas?
Mira: Bueno, es una herramienta. Y así que ciertamente puede hacer eso como una herramienta, y espero que colaboremos con ella, y va a hacer que nuestra creatividad se expanda. Y ahora mismo, si piensas en cómo los humanos consideran la creatividad, vemos que es algo muy especial que solo está al alcance de estas pocas personas muy talentosas. Y estas herramientas realmente lo hacen, bajan la barrera para que cualquiera piense en sí mismo como creativo y expanda su creatividad. Así que en ese sentido, creo que va a ser realmente increíble.
Jeff: Sí, podría darme 200 diferentes cliffhangers para el final del episodio uno o lo que sea, muy fácilmente.
Mira: Sí. Y puedes extender la historia, la historia nunca termina. Puedes simplemente continuar.
Jeff: Seguir adelante. He terminado de escribir, pero sigue adelante. Eso es interesante.
Mira: Pero creo que realmente va a ser una herramienta colaborativa, especialmente en los espacios creativos donde…
Jeff: Yo también.
Mira: Sí, más personas se volverán más creativas.
Jeff: Hay algo de miedo ahora mismo.
Mira: Sí, por supuesto.
Jeff: Pero estás diciendo que eso cambiará y los humanos encontrarán cómo hacer que la parte creativa del trabajo sea mejor.
Mira: Creo que sí, y algunos trabajos creativos tal vez desaparecerán, pero tal vez no deberían haber estado allí en primer lugar si el contenido que sale de ellos no es de muy alta calidad, pero realmente creo que usarlo como una herramienta para la educación, la creatividad expandirá nuestra inteligencia, y creatividad, e imaginación.
Jeff: Bueno, la gente pensaba que CGI y cosas así iban a arruinar la industria del cine en su momento. Estaban bastante asustados. Esto es, creo, algo más grande, pero sí, cualquier cosa nueva como esa, la reacción inmediata va a ser, «Oh dios, esto es…» Pero espero que tengas razón sobre el cine y la televisión.
Mira: Sí.
Jeff: Bien, el tema del trabajo que mencionaste, y olvidemos el material de Hollywood, pero hay muchos trabajos que la gente está preocupada porque piensan que están en riesgo. ¿Cuál es tu opinión sobre el desplazamiento de empleos en IA y realmente no solo el trabajo que estás haciendo en OpenAI, sino en general? ¿Debería la gente estar realmente preocupada por eso, y qué tipo de trabajos, o cómo ves que todo funcione?
Mira: Sí, la verdad es que no entendemos realmente el impacto que la IA va a tener en los trabajos todavía. Y el primer paso es realmente ayudar a las personas a entender de qué son capaces los sistemas, qué pueden hacer, integrarlos en sus flujos de trabajo, y luego comenzar a predecir y pronosticar el impacto. Y también, creo que la gente no se da cuenta de cuánto ya se están usando estas herramientas, y eso no se está estudiando en absoluto. Y deberíamos estar estudiando lo que está pasando ahora mismo con la naturaleza del trabajo, la naturaleza de la educación, y eso nos ayudará a predecir cómo prepararnos para estas capacidades crecientes. En términos de trabajos específicamente, no soy economista, pero ciertamente anticipo que muchos trabajos cambiarán, algunos trabajos se perderán, algunos trabajos se ganarán. No sabemos específicamente cómo se verá, pero puedes imaginar muchos trabajos que son repetitivos, que son simplemente estrictamente repetitivos y la gente no está avanzando más, esos serían reemplazados.
Jeff: Personas como QA, y probar código, y cosas así, esos trabajos…
Mira: Sí, y si es estrictamente solo eso o estrictamente…
Jeff: Se acabaron.
Mira: Sí, y si es estrictamente solo eso o estrictamente…
Jeff: Solo es un ejemplo. Hay muchas cosas así.
Mira: Sí, muchas cosas.
Jeff: ¿Crees que habrá suficientes trabajos creados en otros lugares para compensar eso?
Mira: Creo que se van a crear muchos trabajos, pero el peso de cuántos trabajos se crean, cuántos trabajos cambian, cuántos trabajos se pierden, no lo sé. Y no creo que nadie lo sepa realmente, porque no se está estudiando rigurosamente, y realmente debería serlo. Y sí, pero creo que la economía se transformará y se creará mucho valor con estas herramientas. Y entonces la pregunta es, ¿cómo se aprovecha este valor? Si la naturaleza de los trabajos realmente cambia, entonces, ¿cómo estamos distribuyendo el valor económico en la sociedad? ¿Es a través de beneficios públicos? ¿Es a través de UBI? ¿Es a través de algún otro nuevo sistema? Así que hay muchas preguntas por explorar y averiguar.
Jeff: Hay un gran papel para la educación superior en ese trabajo que estás describiendo allí. Simplemente no está sucediendo del todo todavía.
Mira: Sí.
Jeff: ¿Qué más para la educación superior y el futuro de la IA? ¿Cuál crees que es el papel de la educación superior en lo que ves y cómo esto está evolucionando?
Mira: Creo que realmente averiguar cómo usamos estas herramientas y la IA para avanzar en la educación. Porque creo que una de las aplicaciones más poderosas de la IA va a ser en la educación, avanzando nuestra creatividad y conocimiento. Y tenemos una oportunidad para construir una educación de súper alta calidad y muy accesible e idealmente gratuita para cualquiera en el mundo en cualquiera de los idiomas o matices culturales que puedas imaginar. Realmente puedes tener una comprensión personalizada y una educación personalizada para cualquiera en el mundo. Y por supuesto, en instituciones como Dartmouth, las clases son más pequeñas y tienes mucha atención, pero aún puedes imaginar tener tutorías uno a uno, incluso aquí, por no mencionar en el resto del mundo.
Jeff: Complementar.
Mira: Sí. Porque no pasamos suficiente tiempo aprendiendo a aprender. Eso sucede muy tarde, tal vez en la universidad. Y eso es algo fundamental, cómo aprendes, de lo contrario, puedes perder mucho tiempo. Y las clases, el plan de estudios, los conjuntos de problemas, todo puede personalizarse a cómo aprendes como individuo.
Jeff: Entonces crees que podría realmente, en un lugar como Dartmouth, podría complementar algo del aprendizaje que está sucediendo. Oh, absolutamente, sí.
Mira: Oh, absolutamente, sí.
Jeff: Tener IA como tutores y cosas así. ¿Deberíamos abrirlo?
Mira: ¿Te importa responder algunas preguntas del público? ¿Está bien?
Mira: Encantada, sí.
Jeff: Bien. ¿Por qué no hacemos eso? Dave, ¿quieres empezar?
Dave: Claro, si no te importa.
Orador: Espera un segundo. Te daré un micrófono.
Dave: Uno de los primeros científicos de la computación de Dartmouth, John Kemeny, una vez dio una conferencia sobre cómo cada programa de computadora que los humanos construyen incorpora valores humanos en ese programa, ya sea intencionalmente o no. Y lo que me pregunto es, ¿qué valores humanos crees que están incorporados en los productos GPT, o, dicho de otra manera, cómo deberíamos incorporar valores como el respeto, la equidad, la justicia, la honestidad, la integridad, cosas así en estas herramientas?
Mira: Esa es una gran pregunta y realmente difícil y algo en lo que pensamos, hemos estado pensando durante años. Así que ahora mismo, si miras estos sistemas, muchos de los valores se introducen en los datos, y esos son los datos en Internet, datos con licencia, también datos que provienen de contratistas humanos que etiquetarán ciertos problemas o preguntas. Y cada una de estas entradas tiene valores específicos. Así que esa es una colección de sus valores y eso importa. Y luego, una vez que realmente pones estos productos en el mundo, creo que tienes una oportunidad de obtener una colección mucho más amplia de valores al ponerlo en manos de muchas, muchas personas. Así que ahora mismo, ChatGPT, tenemos una oferta gratuita de ChatGPT que tiene los sistemas más capaces, y es utilizado por más de 100 millones de personas en el mundo. Y cada una de estas personas puede proporcionar comentarios a ChatGPT. Y si nos permiten usar los datos, los usaremos para crear este agregado de valores que hace que el sistema sea mejor, más alineado con lo que las personas quieren que haga. Pero ese es el sistema predeterminado. Lo que quieres en la parte superior de eso es también una capa para la personalización donde cada comunidad puede tener sus propios valores, digamos una escuela, una iglesia, un país, incluso un estado. Pueden proporcionar sus propios valores que son más específicos y más precisos sobre este sistema predeterminado que tiene valores humanos básicos. Y así que estamos trabajando en formas de hacer eso también. Pero es obviamente un problema realmente difícil porque tienes el problema humano donde no estamos de acuerdo en las cosas, y luego tienes el problema tecnológico. Y en el problema tecnológico, creo que hemos hecho mucho progreso. Tenemos métodos como el aprendizaje por refuerzo con retroalimentación humana donde das a las personas la oportunidad de proporcionar sus valores en el sistema. Hemos desarrollado recientemente esto que llamamos la Especificación que proporciona transparencia en los valores que están en el sistema. Y estamos construyendo un mecanismo de retroalimentación donde recolectamos entrada y datos sobre cómo avanzar la Especificación. Puedes pensar en ello como una constitución para los sistemas de IA, pero es una que evoluciona con el tiempo porque nuestros valores también evolucionan con el tiempo, y se vuelve más precisa. Es algo en lo que estamos trabajando mucho. Y creo que ahora estamos pensando en valores básicos. Pero a medida que los sistemas se vuelvan más y más complejos, vamos a tener que pensar en más granularidad en los valores que…
Jeff: ¿Puedes evitar que se enojen?
Mira: ¿Enojarse?
Jeff: Sí. ¿Es ese uno de los valores?
Mira: Bueno, eso debería ser… No. Así que eso debería depender de ti. Así que si tú como usuario…
Jeff: Oh, si quieres un chatbot enojado, puedes tenerlo.
Mira: Sí, si quieres un chatbot enojado, deberías tener un chatbot enojado. Sí.
Jeff: Ok, justo aquí, sí.
Dr. Joy: Hola. Gracias. Dr. Joy aquí. Y también, felicidades por el título honorífico y todo lo que has estado haciendo con OpenAI. Tengo mucha curiosidad sobre cómo estás pensando sobre los derechos creativos y los derechos biométricos. Así que antes mencionabas que tal vez algunos trabajos creativos no deberían existir, y has tenido muchos creativos que están pensando en cuestiones de consentimiento, de compensación, de tener modelos propietarios o incluso modelos de código abierto, donde se toman los datos de Internet. Así que tengo mucha curiosidad sobre tus pensamientos sobre el consentimiento y la compensación en relación con los derechos creativos. Y dado que estamos en una universidad, conoces la pieza de preguntas multipartes. Así que la otra cosa es pensar en los derechos biométricos, y así cuando se trata de la voz, cuando se trata de caras y demás. Así que con la reciente controversia alrededor de la voz de Sky y cómo también puedes tener personas que suenan igual, personas que se ven igual, y todas las amenazas de desinformación que surgen en un año de elecciones tan importante, me gustaría mucho conocer tu perspectiva sobre los aspectos de los derechos biométricos también.
Mira: Sí, bueno… Ok, comenzaré con la última parte sobre… Hemos hecho mucha investigación sobre tecnologías de voz y no las lanzamos hasta hace poco precisamente porque plantean tantos riesgos y problemas. Pero también es importante llevar a la sociedad junto, dar acceso de una manera que puedas tener reglas de seguridad y controlar los riesgos, y dejar que otras personas estudien y hagan avances en problemas como, por ejemplo, estamos colaborando con instituciones para ayudarnos a pensar sobre la interacción humano-IA ahora que tienes voz y video que son modalidades muy evocativas emocionalmente. Y necesitamos comenzar a entender cómo van a desarrollarse estas cosas y para qué prepararnos. En ese caso particular, la voz de Sky no era la de Scarlett Johansson, y no tenía la intención de serlo, y fue un proceso completamente paralelo. Yo estaba a cargo de la selección de la voz, y nuestro CEO estaba teniendo conversaciones con Scarlett Johansson y… Pero por respeto a ella, la bajamos. Y algunas personas ven algunas similitudes. Estas cosas son subjetivas, y creo que puedes… Sí, puedes idear procesos de red teaming donde si la voz, por ejemplo, se consideraba que era muy, muy similar a una voz pública muy conocida, entonces tal vez no seleccionas esa en particular. En nuestro red teaming, esto no surgió, pero por eso es importante también tener red teaming más extendido para detectar estas cosas temprano si es necesario. Pero en términos más generales, con el problema de los biométricos, creo que nuestra estrategia aquí es dar acceso a unas pocas personas, inicialmente expertos o red teamers que nos ayuden a entender el riesgo y las capacidades muy bien. Luego construimos mitigaciones, y luego damos acceso a más personas a medida que nos sentimos más seguros con esas mitigaciones. Así que no permitimos que las personas hagan sus propias voces con esta tecnología porque todavía estamos estudiando los riesgos y no nos sentimos seguros de que podamos manejar el mal uso en esa área todavía. Pero nos sentimos bien manejando el mal uso con las reglas de seguridad que tenemos en voces muy específicas en un estado pequeño en este momento, que es esencialmente red teaming extendido. Y luego, cuando lo extendemos a mil usuarios, nuestra versión Alpha, trabajaremos muy de cerca con esos usuarios, recopilando comentarios y entendiendo los casos extremos para poder prepararnos para estos casos extremos a medida que ampliamos el uso a, digamos, 100,000 personas. Y luego va a ser un millón, y luego 100 millones, y así sucesivamente. Pero se hace con mucho control, y esto es lo que llamamos despliegue iterativo. Y si no podemos sentirnos cómodos con estos casos de uso, entonces simplemente no los lanzaremos en este específico… Para usuarios extendidos o para estos casos de uso específicos, probablemente trataremos de lobotomizar el producto de alguna manera porque la capacidad y el riesgo van de la mano. Pero también estamos trabajando en mucha investigación para ayudarnos a lidiar con problemas de procedencia de contenido y autenticidad de contenido para que las personas tengan herramientas para entender si algo es un deep fake o difunde desinformación y así sucesivamente. Desde el comienzo de OpenAI, de hecho, hemos estado trabajando en estudiar la desinformación y hemos construido muchas herramientas como el watermarking, políticas de contenido que nos permiten gestionar la posibilidad de desinformación, especialmente este año dado que es un año de elecciones global. Hemos intensificado ese trabajo aún más. Pero esta es un área extremadamente desafiante en la que nosotros, como creadores de tecnología y productos, necesitamos hacer mucho trabajo, pero también colaborar con la sociedad civil, los medios, y los creadores de contenido para averiguar cómo abordar estos problemas. Cuando hacemos tecnologías como audio o Sora, las primeras personas con las que trabajamos después de los red teamers que estudian los riesgos son los creadores de contenido. para realmente entender cómo la tecnología les ayudaría y cómo construyes un producto que sea seguro, útil y útil, y que realmente avance a la sociedad. Y esto es lo que hicimos con DALL-E, y esto es lo que estamos haciendo con SORA, nuestro modelo de generación de video nuevamente. Y la primera parte de tu pregunta…
Dr. Joy: Derechos creativos. Así que para los…
Mira: Derechos creativos…
Dr. Joy: Sobre compensación, consentimiento, control y crédito.
Mira: Sí, eso también es muy importante y desafiante. ahora mismo trabajamos, hacemos muchas asociaciones con empresas de medios y también damos a las personas mucho control sobre cómo se usan sus datos en el producto. Así que si no quieren que sus datos se usen para mejorar el modelo o para que hagamos alguna investigación o entrenemos en ellos, eso está totalmente bien. No usamos los datos. Y luego, para la comunidad de creadores en general, damos acceso a estas herramientas temprano. Así que podemos escuchar de ellos primero sobre cómo les gustaría usarlo y construir productos que sean más útiles. Y también estas cosas son investigaciones producidas. así que no tenemos que construir productos a toda costa. Solo lo hacemos si podemos encontrar una modalidad que sea realmente útil para avanzar a las personas. Y también estamos experimentando con métodos para básicamente crear herramientas que permitan a las personas ser compensadas por la contribución de datos. Esto es bastante complicado tanto desde la perspectiva técnica como también simplemente construir un producto como ese porque tienes que resolver cuánto valor crea una cantidad específica de datos en un modelo que se ha entrenado posteriormente. Y tal vez los datos individuales serían muy difíciles de evaluar cuánta valor proporcionarían. Pero si puedes crear consorcios de datos agregados y pools donde las personas puedan proporcionar sus datos, tal vez eso sea mejor. Así que durante los últimos, diría, dos años, hemos estado experimentando con varias versiones de esto. No hemos desplegado nada, pero hemos estado experimentando en el lado técnico y tratando de entender realmente el problema técnico. Y estamos un poco más avanzados, pero es un problema realmente difícil.
Jeff: Lo es. Apuesto a que habrá muchas nuevas empresas tratando de construir soluciones para eso.
Mira: Sí, hay otras compañías.
Jeff: Es tan difícil.
Mira: Lo es.
Jeff: ¿Qué tal allá atrás?
Participante: Muchas gracias por su tiempo y por tomarse su tiempo para venir a hablar con nosotros. Mi pregunta es bastante simple. Si tuvieras que regresar a la escuela hoy, te encontraras de nuevo en Thayer o en Dartmouth en general, ¿qué harías de nuevo y qué no harías de nuevo? ¿En qué te especializarías o te involucrarías en más cosas? Algo así.
Mira: Creo que estudiaría las mismas cosas, pero tal vez con menos estrés.
(todos se ríen)
Mira: Sí, creo que todavía estudiaría matemáticas y haría… Sí. Tal vez tomaría más cursos de ciencias de la computación, en realidad. Pero sí, me estresaría menos porque entonces estudias con más curiosidad y más alegría, y eso es más productivo. Pero sí, recuerdo que como estudiante siempre estaba un poco estresada sobre lo que vendría después. Y si supiera lo que sé ahora, y a mi yo más joven, le diría, y en realidad todos me decían, «no te estreses», pero de alguna manera no lo…
Jeff: Gracias por todo esto porque estoy seguro de que tu vida…
Mira: Gracias.
Jeff: Es estresante.