La Comisión Europea presentó esta semana su legislación sobre Inteligencia Artificial, un primer paso para tener esta tecnología bajo control, para que se sepa que «no todo vale», que hay ciertos derechos que deben respetarse.
Esta nueva normativa tiene dos objetivos:
– Garantizar la seguridad en diferentes áreas. No se pueden pisar derechos fundamentales de los ciudadanos (incluyendo la privacidad).
– Permitir una inversión más inteligente en IA en Europa.
Esta propuesta cuenta con cuatro niveles de riesgo, pero el uso militar no tendrá tantas restricciones. El nivel más peligroso es «riesgo inaceptable», y si un sistema entra en ese nivel, estará prohibido en todos los países miembro. Los sistemas de «alto riesgo» tendrán que ser analizados, determinando riesgos y siempre con supervisión humana.
Riesgo inaceptable y alto riesgo
Entre los puntos más importantes que tenemos en dicha legislación, están:
– Manipular el comportamiento humano e incitar a la violencia. Riesgo inaceptable.
– Puntuar a los ciudadanos para diferenciarlos. Riesgo inaceptable.
– Hacer trampas en exámenes o crear sistemas que afecten a la educación. Alto riesgo.
– Diseñar componentes para realizar cirugías. Alto riesgo.
– Diseñar sistemas de reclutamiento de profesionales. Alto riesgo.
– Identificación biométrica remota. Alto riesgo. El reconocimiento facial en zonas públicas estará prohibido, por ejemplo, pero tendremos excepciones (para buscar a niños desaparecidos o evitar actos terroristas).
Riesgo limitado y bajo riesgo
Otros puntos con menos riesgo, dentro de «riesgo limitado», son:
– Chatbots. Será necesario avisar a los usuarios que hay una máquina por detrás.
Y con riesgo mínimo entramos en videojuegos y editores de imagen, por ejemplo.
De momento solo se ha presentado, ahora tiene que aprobarse antes de implantarse, por lo que quedan algunos meses antes de que podamos darla por buena.
Podéis leer más en ec.europa.eu