ChatGPT limita el acceso a su función de reconocimiento de imágenes

Publicado el

reconocimiento de imagen

OpenAI, la reconocida organización de inteligencia artificial, ha decidido limitar el acceso público a las capacidades de reconocimiento de imágenes de su modelo de IA, GPT-4, debido a preocupaciones sobre la privacidad.

GPT-4 y sus capacidades multimodales

El modelo GPT-4 no solo puede procesar y generar texto, sino que también tiene la capacidad de analizar e interpretar imágenes. Esta característica multimodal abre una nueva dimensión de interacción con el modelo de IA, permitiendo una amplia gama de aplicaciones.

Colaboración con Be My Eyes

OpenAI probó estas capacidades en colaboración con la startup Be My Eyes, que desarrolla una aplicación para describir imágenes a usuarios ciegos, ayudándoles a interpretar su entorno. Sin embargo, surgieron preocupaciones cuando la aplicación comenzó a reconocer a individuos específicos.

Desafíos de privacidad

El sistema de OpenAI es capaz de identificar a figuras públicas, como aquellas con una página de Wikipedia. Sin embargo, existe la preocupación de que esta característica pueda infringir las leyes de privacidad en regiones como Illinois y Europa, donde el uso de información biométrica requiere el consentimiento explícito de los ciudadanos.

Preocupaciones adicionales

Además de las preocupaciones de privacidad, OpenAI también expresó su preocupación de que Be My Eyes pueda malinterpretar o malrepresentar aspectos de los rostros de las personas, como el género o el estado emocional, lo que podría llevar a resultados inapropiados o dañinos.

Microsoft, un importante inversor en OpenAI, está probando una implementación limitada de la herramienta de análisis visual en su chatbot Bing, basado en la tecnología GPT-4. Google también ha introducido características de análisis de imágenes en su chatbot Bard.

La visión por computadora impulsada por IA puede llegar a todos los dispositivos más temprano que tarde. Sin embargo, es evidente que las empresas necesitarán resolver las complicaciones antes de que podamos ver lanzamientos amplios con un impacto ético mínimo.

Más información en arstechnica.com

Comparte en: