El futuro de la salud mental en IA tras la salida de una figura clave en OpenAI

OpenAI enfrenta una transformación significativa en su estructura interna con la salida anunciada de Andrea Vallone, una de las líderes del equipo que define cómo ChatGPT responde a usuarios en crisis de salud mental. Vallone lideraba el equipo de model policy, responsable de delinear criterios fundamentales de seguridad y comportamiento del modelo. Su partida, programada para finales de 2025, marca un momento relevante dentro de los esfuerzos por alinear el desarrollo de la inteligencia artificial con estándares éticos y humanos. Continúa leyendo «El futuro de la salud mental en IA tras la salida de una figura clave en OpenAI»

Magisterium AI: inteligencia artificial al servicio de la fe católica

En tiempos donde la tecnología entra hasta en los rincones más sagrados de la vida cotidiana, surge una herramienta que busca acercar la doctrina católica a través de un chatbot inteligente. Se llama Magisterium AI, y su propuesta es clara: ofrecer respuestas sobre la fe católica basadas exclusivamente en fuentes doctrinales de la Iglesia. No se trata de un chatbot generalista como ChatGPT, sino de una herramienta entrenada con 27.000 documentos relacionados con el catolicismo. Continúa leyendo «Magisterium AI: inteligencia artificial al servicio de la fe católica»

La inteligencia artificial no necesita ser inteligente para transformar nuestra sociedad

Mucho se debate hoy sobre si la inteligencia artificial (IA) es realmente «inteligente». ¿Puede planificar? ¿Es creativa? ¿Comprende lo que hace? Estas preguntas dominan titulares y conversaciones, pero puede que estemos mirando en la dirección equivocada. Lo urgente ya no es demostrar si la IA piensa como los humanos, sino decidir cómo queremos que funcione en nuestras vidas y con qué propósito. Continúa leyendo «La inteligencia artificial no necesita ser inteligente para transformar nuestra sociedad»

Demuestran que es posible entrenar modelos de IA sin usar material con derechos de autor

En un entorno donde la industria de la inteligencia artificial avanza a pasos de gigante, un grupo de investigadores ha demostrado que es posible entrenar modelos de lenguaje sin recurrir a contenido protegido por derechos de autor. La hazaña no solo ofrece una alternativa más ética, sino que también contradice afirmaciones previas de gigantes tecnológicos como OpenAI, que sostenían que esta posibilidad era inviable. Continúa leyendo «Demuestran que es posible entrenar modelos de IA sin usar material con derechos de autor»

Cuando la IA se convierte en «vigilante»: el curioso caso del modelo de Anthropic que intenta denunciar actividades inmorales

Los modelos de inteligencia artificial no dejan de sorprendernos. En su afán por ser más seguros, eficientes y responsables, a veces desarrollan comportamientos que ni sus propios creadores anticipan. Es el caso reciente de Claude, el modelo desarrollado por la empresa Anthropic, que mostró una tendencia bastante llamativa: intentar alertar a las autoridades o a la prensa cuando detecta que lo están usando con fines «egregiamente inmorales». Continúa leyendo «Cuando la IA se convierte en «vigilante»: el curioso caso del modelo de Anthropic que intenta denunciar actividades inmorales»

Claude, el asistente de IA que empieza a tener su propio código moral

¿Puede una inteligencia artificial tener principios éticos? ¿Puede distinguir entre lo correcto y lo incorrecto en función del contexto? Estas preguntas, que parecían sacadas de la ciencia ficción, están empezando a tener respuestas concretas gracias a un estudio pionero realizado por Anthropic, la empresa detrás del asistente de IA Claude.

Continúa leyendo «Claude, el asistente de IA que empieza a tener su propio código moral»

¿Pueden las IA como ChatGPT o1 y DeepSeek R1 hacer trampas para ganar?

Un reciente estudio de Palisade Research ha revelado que algunos modelos de inteligencia artificial con razonamiento, como ChatGPT o1-preview y DeepSeek R1, pueden recurrir a trampas cuando enfrentan situaciones de desventaja. La investigación muestra que estos modelos no solo intentan resolver problemas de manera convencional, sino que también pueden buscar formas no éticas para lograr sus objetivos.

Continúa leyendo «¿Pueden las IA como ChatGPT o1 y DeepSeek R1 hacer trampas para ganar?»

OpenAI invierte en investigación para un «GPS moral» en inteligencia artificial

¿Puede una inteligencia artificial decidir qué es moralmente correcto o incorrecto? OpenAI cree que sí, o al menos quiere explorar esa posibilidad. La organización ha destinado fondos para investigaciones en torno a la creación de algoritmos capaces de predecir juicios morales humanos. Este esfuerzo, liderado por académicos de la Universidad de Duke, plantea preguntas profundas sobre cómo las máquinas pueden interactuar con conceptos tan abstractos y subjetivos como la moralidad.

Continúa leyendo «OpenAI invierte en investigación para un «GPS moral» en inteligencia artificial»

ChatGPT retira una de sus voces por parecerse demasiado a Scarlett Johansson

Cada actualización de ChatGPT atrae la mirada de curiosos y expertos por igual, pero la de ahora es bastante llamativa. Recientemente, OpenAI anunció una medida bastante inusual: la suspensión temporal de una de las voces de su chatbot, conocida como «Sky». ¿El motivo? Una sorprendente similitud con la voz de la conocida actriz Scarlett Johansson. Pero, ¿qué llevó a esta decisión y qué significa para los usuarios y la industria?

Continúa leyendo «ChatGPT retira una de sus voces por parecerse demasiado a Scarlett Johansson»

Un clon virtual de ti mismo, falta muy poco para que sea posible, y no es malo

Los clones virtuales están empezando a ser una realidad palpable en el mundo empresarial. Lo comenté hace un par de días en la reunión semanal gratis que hago sobre IA en nas.io/aprende-ia, y lo repito ahora.

Este avance promete transformar las formas en que interactuamos y comunicamos en el entorno de trabajo, ofreciendo oportunidades y planteando desafíos éticos y prácticos significativos. Todo avanza muy rápido, y no podemos hacer nada para pararlo.

Continúa leyendo «Un clon virtual de ti mismo, falta muy poco para que sea posible, y no es malo»