Google delimita su propio uso de la inteligencia artificial

Google ha elaborado un conjunto de directrices donde establece sus principios para el uso de la inteligencia artificial. En principio, se compromete a no participar en actividades que impliquen el uso de inteligencia artificial con fines bélicos.

La medida obedece a un cierto desasosiego interno en Google motivado por la participación de la empresa en el proyecto Maven, iniciativa de investigación científica militar a cargo del gobierno de Estados Unidos, donde se desarrolla un motor de monitoreo de drones basado en inteligencia artificial.

La participación de Google en este proyecto motivó una serie de protestas entre sus empleados, algunos de los cuales incluso decidieron renunciar. El resultado fue que Google optó por no renovar el contrato con el Pentágono, cuando éste caduque en marzo de 2019.

El CEO de Google, Sundar Pichai, no menciona Project Maven en un artículo publicado en el blog de la empresa, donde aborda los principios rectores de las actividades de Google en el ámbito de la inteligencia artificial. Sin embargo, Pichai admite que tecnologías potentes como esta resultan en cuestionamientos igualmente enérgicos sobre su uso.

Pichai asegura que los nuevos principios elaborados por Google no son decorativos sino “estándares concretos que activamente fortalecerán las investigaciones y el desarrollo de productos al interior de Google, lo que también incidirá en las decisiones comerciales de la empresa”.

Las directrices consisten de siete principios, que serán tomados en cuenta para todas las aplicaciones de Google basadas en Inteligencia Artificial.

Entre otras cosas, la empresa recalca la necesidad de no crear o fomentar prejuicios, que la IA sea responsable frente a los humanos y que sea diseñada y probada en conformidad con las mejores prácticas de seguridad.

Junto con sus siete principios para aplicaciones de IA, la empresa también ha elaborado una lista de cuatro puntos sobre las áreas en que no utilizará IA.

En general se trata de tecnologías donde el valor que aporte la tecnología no sea considerablemente mayor al riesgo de que cause daño. Específicamente, la empresa se refiere a armas y otras tecnologías cuyo cometido sea dañar a las personas o tecnologías de recolección y utilización de información para vigilancia, que deliberadamente infrinja normas internacionalmente aceptadas, como asimismo tecnologías cuyo objetivo vulnere principios públicamente aceptados en los ámbitos del derecho internacional y derechos humanos.

Lo anterior no implica que las tecnologías de IA de Google no puedan ser utilizadas para fines no aprobados por la empresa. En efecto, gran parte de las soluciones creadas por Google están disponibles para todos los interesados en forma de código abierto.

Pichai recalca que aunque la empresa no desarrollará inteligencia artificial para fines bélicos, de todas formas continuará cooperando con autoridades públicas y las fuerzas armadas en diversas otras temáticas afines.

Fotografía Nguyen Hung Vu vía Flickr (licencia CC)

Inteligencia Artificial de Google permite «hablar» con 100.000 libros

Microsoft presenta nuevas propuestas de Inteligencia Artificial

Proyecto DeepMind de Google crea inteligencia artificial que puede «imaginar el futuro»


Únase a la conversación

Contacto | Diario TI es una publicación de MPA Publishing International Ltd., Reino Unido. © Copyright 1997-2022