Google desarrolla “interruptor de emergencia” para Inteligencia Artificial

La empresa considera imprescindible que exista la capacidad de intervenir cuando la inteligencia artificial pueda ser perjudicial para s铆 misma o para los humanos.

En el sector tecnol贸gico hay opiniones encontradas sobre el ritmo y alcance de los desarrollos en inteligencia artificial. Una de las principales preocupaciones en tal sentido es que el desarrollo sea tan acelerado que se pierda control de la situaci贸n. En enero de 2015, un grupo de 150 cient铆ficos firm贸 una carta abierta donde propon铆an dar prioridad a las investigaciones que permitiesen controlar adecuadamente la inteligencia artificial. 鈥淗ay pleno consenso en que las investigaciones sobre inteligencia artificial consiguen cada vez nuevos avances, y que es probable que la IA en grado cada vez mayor tenga un efecto en la sociedad. Las potenciales ventajas son enormes, debido a que todo lo que actualmente ofrece la sociedad es resultado de la inteligencia humana. No podemos prever los resultados que ser铆a posible alcanzar cuando esta inteligencia sea incrementada con la ayuda de herramientas derivadas de la inteligencia artificial; uno de tales escenarios es la eliminaci贸n de las enfermedades y la pobreza. Debido al may煤sculo potencial que representa la inteligencia artificial es importante investigar sobre la forma en que es posible aprovechar las ventajas, pero evitando los peligros鈥, explicar los cient铆ficos en la misiva.

Aunque las aprensiones est谩n inspiradas principalmente en la ciencia ficci贸n, el sector considera importante prevenir el surgimiento de situaciones peligrosas, o en 煤ltimo caso abortarlas.

Producto de lo anterior, cient铆ficos de Google DeepMind, en colaboraci贸n con colegas de la Universidad de Oxford, buscan desarrollar un interruptor que d茅 a los operadores humanos la posibilidad de “apagar” sistemas de machine learning en caso de ser necesario.

En un art铆culo (documento PDF de 18 p谩ginas),elaborado por Laurent Orseau, de Google DeepMind y Stuart Armstrong de The Future of Humanity Institute (Instituto del Futuro de la Humanidad), de la Universidad de Oxford, indican que un mecanismo de interrupci贸n de tales caracter铆sticas ser谩 relevante para un tipo espec铆fico de inteligencia artificial; es decir, agentes basados en el aprendizaje por refuerzo, donde individuos intentan, dentro de un contexto predeterminado, encontrar la soluci贸n ideal, y donde son premiados o sancionados dependiendo si el procedimiento elegido les acerca o aleja de una soluci贸n.

Seg煤n los investigadores, es improbable que este tipo de agentes tengan un comportamiento 贸ptimo en todo momento al interactuar con sistemas complejos, como por ejemplo la vida real.

“Si un agente de este tipo opera en tiempo real bajo supervisi贸n humana, ser谩 necesario ocasionalmente que el operador humano active el bot贸n rojo para impedir que el agente contin煤e ejecutando una secuencia da帽ina, con actos da帽inos ya sea para el agente o para su entorno, consigui茅ndose as铆 llevarle a una situaci贸n m谩s segura. Sin embargo, si el agente en esta situaci贸n de aprendizaje espera ser premiado por tal secuencia es posible que tambi茅n aprenda a evitar ser interrumpido, por ejemplo desactivando el bot贸n rojo. Esto ser铆a, indudablemente, un desprop贸sito”, escriben los cient铆ficos en el art铆culo.

En el art铆culo se describe, por lo tanto, la posibilidad de asegurar a los operadores humanos que un agente de aprendizaje autom谩tico no aprenda la forma de impedir, o facilitar, una interrupci贸n de sus actividades, ya sea por el entorno o por un operador humano.

Aunque otros expertos anteriormente han demostrado que distintos tipos de algoritmos pueden ser interrumpidos mediante procedimientos seguros, ya sea directamente o mediante un ajuste de procedimientos y configuraci贸n, hasta ahora no han podido garantizar que el procedimiento de interrupci贸n sea aplicable a todo tipo de algoritmos.

Google compr贸 la empresa brit谩nica DeepMind en 2014. Su proyecto m谩s conocido es AlphaGo, software que venci贸 al mejor gamer del mundo, Lee Sedol, en un torneo.

The Future of Humanity Institute de la Universidad de Oxford concentra sus investigaciones en aspectos hol铆sticos de la humanidad, incluyendo amenazas contra su subsistencia.

Ilustraci贸n 漏 Imredesiuk v铆a Shutterstock




Contacto | Diario TI es una publicaci贸n de MPA Publishing International Ltd.