Científicos recomiendan precaución con la inteligencia artificial

A juicio de un destacado grupo de científicos, ya es hora que la humanidad se defina frente a los aparatos dotados de inteligencia artificial, por lo que plantean una acuciosa iniciativa de investigación interdisciplinaria sobre la materia.

En numerosas obras de ciencia ficción, diversos autores han advertido sobre lo que podrían ser las consecuencias si las computadoras llegan a un nivel tan alto de inteligencia y auto-conciencia, que podrían convertirse en una amenaza contra los seres humanos.

Claro está, el mundo real estaba muy rezagado respecto de las situaciones presentadas en libros y películas de ciencia ficción. Por ejemplo, la creación de un sistema como Skynet, de Terminator está situado 18 años en el futuro. Sin embargo, paralelamente se están dando una serie de pasos pequeños, pero firmes, en el ámbito de la inteligencia artificial. Asimismo, pareciera ser que la investigación científica está siendo realizada, e impulsada, por empresas que ya se benefician de este tipo de soluciones. Con ello, un avance decisivo en la materia podría ser repentino y tener consecuencias insospechadas.

Esta situación ha resultado en que un grupo de científicos haya recomendado precauciones en cuanto al desarrollo de la inteligencia artificial. Por ejemplo, en diciembre de 2014 Stephen Hawkins, declaró a la BBC que el desarrollo de inteligencia artificial cabal podría representar el fin de la humanidad. Hawkins es considerado uno de los mayores físicos del mundo.

Hawkins ha sido secundado por un gran número de científicos que comparte su opinión, aunque no necesariamente anunciando el fin de la humanidad. Un común denominador para el grupo, integrado por más de 150 científicos, es que a diario trabajan precisamente con inteligencia artificial, en instituciones académicas o empresas comerciales como Microsoft, Google, IBM, Tesla y Amazon.

Carta abierta

Los 150 científicos han firmado una carta abierta donde proponen dar prioridad a las investigaciones que contribuyan al desarrollo de una inteligencia artificial robusta y controlada.

“Hay pleno consenso en que las investigaciones sobre inteligencia artificial consiguen cada vez nuevos avances, y que es probable que la IA en grado cada vez mayor tenga un efecto en la sociedad. Las potenciales ventajas son enormes, debido a que todo lo que actualmente ofrece la sociedad es resultado de la inteligencia humana. No podemos prever los resultados que sería posible alcanzar cuando esta inteligencia sea incrementada con la ayuda de herramientas derivadas de la inteligencia artificial; uno de tales escenarios es la eliminación de las enfermedades y la pobreza. Debido al mayúsculo potencial que representa la inteligencia artificial es importante investigar sobre la forma en que es posible aprovechar las ventajas, pero evitando los peligros”, se indica en la carta.

“Esta investigación es necesariamente interdisciplinaria, debido a que involucra a la sociedad y a la inteligencia artificial. Abarca ámbitos que van desde la economía, el derecho y la fisiología, a la seguridad de los datos, métodos formales y, naturalmente, a las ramas de la inteligencia artificial en sí”.

Los científicos plantean directamente que “los sistemas de inteligencia artificial deben limitarse a actuar en conformidad con nuestras instrucciones”.

En un documento separado se mencionan varios ejemplos de problemáticas que surgen cuando las máquinas comienzan a tomar sus propias decisiones.

Automóviles autónomos

Una de estas ramas, que comienza a ser cada vez más patente, son los vehículos autónomos que, a juicio de muchos, serán una realidad dentro de la próxima década.

Este proyecto de automoción plantea dos problemáticas, que a juicio de los científicos deberían ser despejadas con la concurrencia de diversas disciplinas. Se trata, claro está, de los accidentes, ya que si bien es cierto los vehículos autónomos podrían reducir los accidentes de tránsito, los fabricantes indudablemente estarán expuestos a más demandas, debido a que no sólo serán responsables de fabricar los vehículos, sino también de su comportamiento en el tránsito. Esto plantea, a su vez, la necesidad de considerar y establecer leyes y normativas sobre los vehículos autónomos.

La segunda problemática está relacionada con la ética de las máquinas. ¿Qué ocurrirá cuando un vehículo autónomo deba elegir entre dos alternativas, en una situación donde ambos resultados implican daños: una de las alternativas implica un peligro de lesión humana leve, mientras que la segunda alternativa implica un cuantioso daño material?

Diario TI publica hoy una nota de NVIDIA sobre la automoción del mañana, facilitada por chips avanzados. El CEO de NVIDIA, Jen-Hsun Huang, declara: “Muy pronto, los vehículos serán capaces no solo de ‘ver’ los objetos, sino también de comprender la situación a su alrededor y reaccionar automáticamente según corresponda. Se conducirán y estacionarán solos”.

Armas autónomas

¿Será posible crear armas autónomas que actúen en conformidad con la ley humanitaria? ¿De qué forma podría integrarse las armas autónomas en estructuras existentes de comando y control, con el fin de distribuir y asignar responsabilidades? ¿Resultarán las armas autónomas en una mayor reticencia frente a los conflictos, o quizás en efectos no anticipados de guerras y conflictos?

Privacidad

¿Cuál será la interacción entre sistemas de inteligencia artificial con la información obtenida, que va desde el correo electrónico para grabaciones de cámaras de vigilancia?

¿Las posibilidades que tenemos que aprovechar cabalmente las sinergias entre inteligencia artificial y “big data” dependerá en parte de nuestra capacidad de gestionar y salvaguardar la privacidad”, se indica en el documento.

Al momento de publicación de este artículo aún es posible firmar la carta abierta, que ha sido publicada por la organización Future of Life.

Ilustración: Mopic © Shutterstock.com


Únase a la conversación

Contacto | Diario TI es una publicación de MPA Publishing International Ltd., Reino Unido. © Copyright 1997-2022