AILuminate: El nuevo estándar para medir los riesgos de la inteligencia artificial

En el vertiginoso mundo de la inteligencia artificial (IA), donde los avances suceden a un ritmo acelerado, garantizar la seguridad y la ética en el desarrollo de modelos se ha convertido en una prioridad global. En este contexto, surge AILuminate, una iniciativa de MLCommons, una organización sin ánimo de lucro que busca establecer puntos de referencia rigurosos para evaluar los riesgos de los sistemas de IA.

Continúa leyendo «AILuminate: El nuevo estándar para medir los riesgos de la inteligencia artificial»

OpenAI y Anthropic compartirán sus modelos con el gobierno de EE. UU.

OpenAI y Anthropic han acordado permitir al gobierno de los Estados Unidos el acceso a sus principales nuevos modelos de inteligencia artificial antes de su lanzamiento al público, con el objetivo de mejorar su seguridad. Esta colaboración se formalizó a través de memorandos de entendimiento firmados con el Instituto de Seguridad de la IA de EE. UU., tal como anunció la agencia este jueves.

Continúa leyendo «OpenAI y Anthropic compartirán sus modelos con el gobierno de EE. UU.»

Mucha gente piensa que ChatGPT es consciente. Este es el motivo.

¿Alguna vez te has preguntado si ChatGPT es consciente? Pues, no estás solo. Un estudio reciente de la Universidad de Waterloo ha descubierto que una sorprendente proporción de usuarios activos de ChatGPT creen que el chatbot de OpenAI es consciente, con emociones y recuerdos propios. Clara Combatto, profesora de psicología y autora principal del estudio, señala que dos tercios de los encuestados tienen esta percepción errónea. Aunque la mayoría de los expertos afirman que la IA actual no puede ser consciente, esta creencia popular plantea nuevos desafíos para la industria de la inteligencia artificial.

Continúa leyendo «Mucha gente piensa que ChatGPT es consciente. Este es el motivo.»