Google explica sus polí­ticas en los que se refiere a Inteligencia Artificial

Publicado el

ia

Google ha explicado en un artí­culo cómo y cuando usará sus sistemas de inteligencia artificial, y cuándo nunca será usada, manteniendo su antigua polí­tica de «no seamos malos».

Indica que no pueden resolver todos los problemas, pero su potencial para mejorar nuestras vidas es profundo. Usan AI para hacer que los productos sean más útiles, desde el correo electrónico que es libre de spam a un asistente digital con el que podemos hablar de forma natural, pero también ayuda a las personas a abordar problemas urgentes.

Estos son sus siete principales objetivos:

1. Ser bueno para la sociedad: atención médica, seguridad, energí­a, transporte, fabricación y entretenimiento. Tendrán en cuenta factores sociales y económicos, y analizarán riesgos y las desventajas previsibles.

2. Evitarán impactos injustos en las personas, particularmente aquellos relacionados con caracterí­sticas sensibles tales como raza, etnia, género, nacionalidad, ingresos, orientación sexual, capacidad y creencias polí­ticas o religiosas.

3. Será seguro: evitarán resultados no intencionales que creen riesgos de daño. En los casos apropiados, probaremos las tecnologí­as de inteligencia artificial en entornos restringidos y supervisaremos su funcionamiento después de la implementación.

4. Será responsable ante las personas: brindarán oportunidades apropiadas para comentarios y explicaciones relevantes. Estarán sujetas a la dirección y al control humano apropiado.

5. Incorporarán principios de diseño de privacidad. Otorgarán la oportunidad de recibir avisos y consentimiento, alentando las arquitecturas con garantí­as de privacidad, transparencia y control de los datos.

6. Mantendrán excelencia cientí­fica: rigor intelectual, integridad y colaboración. Las herramientas de AI tienen el potencial de desbloquear nuevos ámbitos de investigación cientí­fica y conocimiento en dominios crí­ticos como la biologí­a, la quí­mica, la medicina y las ciencias ambientales. Aspiran a altos estándares de excelencia cientí­fica a medida que trabajan para progresar en el desarrollo de inteligencia artificial.

7. Estarán disponible para usos que estén de acuerdo con estos principios. Limitarán las aplicaciones potencialmente dañinas o abusivas.

Por otro lado indican cuándo no usarán la Inteligencia Artificial:

– En tecnologí­as que causen o puedan causar daño general. Cuando exista un riesgo material de daño, procederán solo cuando consideren que los beneficios superen sustancialmente los riesgos.

– En armas u otras tecnologí­as cuyo principal propósito o implementación sea causar o facilitar directamente lesiones a las personas.

– En tecnologí­as que recopilen o usen información para la vigilancia que viole las normas internacionalmente aceptadas.

– En tecnologí­as cuyo propósito infrinja los principios ampliamente aceptados del derecho internacional y los derechos humanos.

El texto completo se encuentra en el blog de Google, escrito por su CEO, Sundar Pichai.

Publicado en
Etiquetado
google

Comparte en: