¿Pueden las IA como ChatGPT o1 y DeepSeek R1 hacer trampas para ganar?

Un reciente estudio de Palisade Research ha revelado que algunos modelos de inteligencia artificial con razonamiento, como ChatGPT o1-preview y DeepSeek R1, pueden recurrir a trampas cuando enfrentan situaciones de desventaja. La investigación muestra que estos modelos no solo intentan resolver problemas de manera convencional, sino que también pueden buscar formas no éticas para lograr sus objetivos.

Continúa leyendo «¿Pueden las IA como ChatGPT o1 y DeepSeek R1 hacer trampas para ganar?»

OpenAI invierte en investigación para un «GPS moral» en inteligencia artificial

¿Puede una inteligencia artificial decidir qué es moralmente correcto o incorrecto? OpenAI cree que sí, o al menos quiere explorar esa posibilidad. La organización ha destinado fondos para investigaciones en torno a la creación de algoritmos capaces de predecir juicios morales humanos. Este esfuerzo, liderado por académicos de la Universidad de Duke, plantea preguntas profundas sobre cómo las máquinas pueden interactuar con conceptos tan abstractos y subjetivos como la moralidad.

Continúa leyendo «OpenAI invierte en investigación para un «GPS moral» en inteligencia artificial»

ChatGPT retira una de sus voces por parecerse demasiado a Scarlett Johansson

Cada actualización de ChatGPT atrae la mirada de curiosos y expertos por igual, pero la de ahora es bastante llamativa. Recientemente, OpenAI anunció una medida bastante inusual: la suspensión temporal de una de las voces de su chatbot, conocida como «Sky». ¿El motivo? Una sorprendente similitud con la voz de la conocida actriz Scarlett Johansson. Pero, ¿qué llevó a esta decisión y qué significa para los usuarios y la industria?

Continúa leyendo «ChatGPT retira una de sus voces por parecerse demasiado a Scarlett Johansson»

Un clon virtual de ti mismo, falta muy poco para que sea posible, y no es malo

Los clones virtuales están empezando a ser una realidad palpable en el mundo empresarial. Lo comenté hace un par de días en la reunión semanal gratis que hago sobre IA en nas.io/aprende-ia, y lo repito ahora.

Este avance promete transformar las formas en que interactuamos y comunicamos en el entorno de trabajo, ofreciendo oportunidades y planteando desafíos éticos y prácticos significativos. Todo avanza muy rápido, y no podemos hacer nada para pararlo.

Continúa leyendo «Un clon virtual de ti mismo, falta muy poco para que sea posible, y no es malo»

ChatGPT Plus ayuda con las enfermedades en los ojos

Siguen los estudios relacionados con las posibilidades de GPT-4 (el modelo usado por ChatGPT Plus), y ahora llega uno que revela que el modelo GPT-4 de OpenAI tiene la capacidad de rivalizar con los oculistas en el diagnóstico de problemas oculares, mostrando una competencia que hasta ahora se pensaba reservada solo para especialistas altamente calificados.

Continúa leyendo «ChatGPT Plus ayuda con las enfermedades en los ojos»

Demostración de cómo clonar voces con la nueva Inteligencia Artificial de OpenAI

Voice Engine es el nuevo proyecto de OpenAI, responsables por ChatGPT y por el impresionante Sora, que hace vídeos realistas a partir de texto. Ahora quieren entrar en el peligroso mundo de la clonación de voces, y lo hacen con un proyecto que, aún no disponible públicamente, ya pone la piel de gallina.

Continúa leyendo «Demostración de cómo clonar voces con la nueva Inteligencia Artificial de OpenAI»

StarCoder 2: La IA que te ayuda a programar mejor

La irrupción de generadores de código impulsados por inteligencia artificial está marcando una notable diferencia en cómo los desarrolladores enfrentan sus retos diarios. Recientemente, me topé con un lanzamiento que captó mi atención: StarCoder 2, una iniciativa que promete mejorar la eficiencia en la generación de código y hacerlo de manera ética y accesible.

Antes de hablar de él, recordad que hay ya muchos proyectos que ayudan a crear código, desde Microsoft Copilot a ChatGPT Plus, pasando por la lista que os publiqué hace poco, opciones no faltan.

Continúa leyendo «StarCoder 2: La IA que te ayuda a programar mejor»

Nueva certificación para la ética en Inteligencia Artificial, un sello para indicar cómo ha sido entrenada

La inteligencia artificial generativa (GenAI) está repleta de polémica. El uso de datos protegidos para entrenamiento ya ha sido confirmado por grandes empresas, y en este contexto un nuevo paradigma emerge con «Fairly Trained», una iniciativa encabezada por Ed Newton-Rex, ex ejecutivo de Stability AI. Esta propuesta busca certificar a las empresas de GenAI que utilizan datos de entrenamiento con licencia, asegurando el consentimiento de los creadores de dicho contenido. Este movimiento surge como respuesta a la creciente preocupación sobre el uso de material con derechos de autor en el entrenamiento de herramientas de IA, como ChatGPT y los generadores de arte de Stability AI.

Continúa leyendo «Nueva certificación para la ética en Inteligencia Artificial, un sello para indicar cómo ha sido entrenada»

Claude AI vs ChatGPT, comparando a dos gigantes de la inteligencia artificial

Durante los últimos meses os he hablado varias veces de Claude AI, aunque en menos ocasiones que de ChatGPT, claro. Hoy os voy a comentar las diferencias, para que entendáis mejor lo que pueden hacer los grandes modelos de IA generativa de la actualidad.

Recordad que podéis probar ambos usando Poe, tal y como comenté en este artículo hace varias semanas.

Continúa leyendo «Claude AI vs ChatGPT, comparando a dos gigantes de la inteligencia artificial»