Google anunció que no desarrollará inteligencia artificial para armas o para “causar o facilitar directamente lesiones a personas”, al presentar un conjunto de principios para el uso de esta tecnología.
“Continuaremos nuestro trabajo con el gobierno y las fuerzas armadas en muchas otras áreas”, escribió el presidente (CEO) de la empresa, Sundar Pichai, en medio de presiones por un contrato con el sector militar que el gigante tecnológico dijo la semana pasada que no sería renovado.
Pichai detalló los siete principios en los que Google basa el uso de inteligencia artificial (IA) o cualquier computación avanzada que pueda simular comportamiento humano inteligente.
Dijo que Google usa IA para “ayudar a la gente a abordar problemas urgentes” como predecir incendios forestales, ayudar a los agricultores, diagnosticar enfermedades o prevenir la ceguera.
“Reconocemos que una tecnología tan poderosa levanta igualmente poderosas preguntas sobre su uso”, dijo Pichai en el blog. “Como la IA es desarrollada y usada tendrá un impacto significativo en la sociedad por muchos años. Como líderes en IA, sentimos una profunda responsabilidad de hacer esto de forma correcta”, agregó.
El CEO garantizó que los programas de IA serán diseñados para aplicaciones que son “socialmente benéficas” y que “evitarán crear o reforzar prejuicios injustos”.
Los principios incluyen que los proyectos sean “construidos y probados para su seguridad”, que sean “responsables” e “incorporen principios de diseño de privacidad”.
Google evitará el uso de cualquier tecnología “que cause o pueda causar un daño general”, escribió Pichai.
Eso significa evitar las “armas u otras tecnologías cuyo objetivo principal o implementación es causar o facilitar lesiones a personas” y sistemas “que recopilen o usen información para vigilancia que violen las normas internacionales”.
El anuncio se produce en medio de una preocupación creciente de que se pueda perder el control de sistemas automatizados o robóticos, generando un caos.
Varias empresas de tecnología han acordado mediante unos principios generales el uso de inteligencia artificial para el bien, pero Google fue más preciso en sus estándares.
La compañía, que es miembro de la Alianza de Inteligencia Artificial, que incluye docenas de empresas tecnológicas comprometidas con los principios de IA, enfrentó críticas por un contrato con el Pentágono llamado Proyecto Maven, destinado a distinguir personas de objetos en videos de aviones no tripulados.
Después de una petición firmada por miles de empleados y de hacer frente a críticas fuera de la compañía, Google anunció que el contrato de 10 millones de dólares no sería renovado, según reportes de prensa.