Google explica sus políticas en los que se refiere a Inteligencia Artificial

ia

Google ha explicado en un artículo cómo y cuando usará sus sistemas de inteligencia artificial, y cuándo nunca será usada, manteniendo su antigua política de “no seamos malos”.

Indica que no pueden resolver todos los problemas, pero su potencial para mejorar nuestras vidas es profundo. Usan AI para hacer que los productos sean más útiles, desde el correo electrónico que es libre de spam a un asistente digital con el que podemos hablar de forma natural, pero también ayuda a las personas a abordar problemas urgentes.

Estos son sus siete principales objetivos:

1. Ser bueno para la sociedad: atención médica, seguridad, energía, transporte, fabricación y entretenimiento. Tendrán en cuenta factores sociales y económicos, y analizarán riesgos y las desventajas previsibles.

2. Evitarán impactos injustos en las personas, particularmente aquellos relacionados con características sensibles tales como raza, etnia, género, nacionalidad, ingresos, orientación sexual, capacidad y creencias políticas o religiosas.

3. Será seguro: evitarán resultados no intencionales que creen riesgos de daño. En los casos apropiados, probaremos las tecnologías de inteligencia artificial en entornos restringidos y supervisaremos su funcionamiento después de la implementación.

4. Será responsable ante las personas: brindarán oportunidades apropiadas para comentarios y explicaciones relevantes. Estarán sujetas a la dirección y al control humano apropiado.

5. Incorporarán principios de diseño de privacidad. Otorgarán la oportunidad de recibir avisos y consentimiento, alentando las arquitecturas con garantías de privacidad, transparencia y control de los datos.

6. Mantendrán excelencia científica: rigor intelectual, integridad y colaboración. Las herramientas de AI tienen el potencial de desbloquear nuevos ámbitos de investigación científica y conocimiento en dominios críticos como la biología, la química, la medicina y las ciencias ambientales. Aspiran a altos estándares de excelencia científica a medida que trabajan para progresar en el desarrollo de inteligencia artificial.

7. Estarán disponible para usos que estén de acuerdo con estos principios. Limitarán las aplicaciones potencialmente dañinas o abusivas.

Por otro lado indican cuándo no usarán la Inteligencia Artificial:

– En tecnologías que causen o puedan causar daño general. Cuando exista un riesgo material de daño, procederán solo cuando consideren que los beneficios superen sustancialmente los riesgos.

– En armas u otras tecnologías cuyo principal propósito o implementación sea causar o facilitar directamente lesiones a las personas.

– En tecnologías que recopilen o usen información para la vigilancia que viole las normas internacionalmente aceptadas.

– En tecnologías cuyo propósito infrinja los principios ampliamente aceptados del derecho internacional y los derechos humanos.

El texto completo se encuentra en el blog de Google, escrito por su CEO, Sundar Pichai.

Juan Diego Polo

Estudió Ingeniería de Telecomunicaciones en la UPC (Barcelona), trabajando como ingeniero, profesor y analista desde 1998 hasta 2005, cuando decidió emprender creando wwwhatsnew.com.