La programación ética, imprescindible para el comportamiento ético de las máquinas

Según Gartner, los CIOs deben actuar ahora para asegurar el control de las máquinas inteligentes. A futuro, una máquina inteligente, que sea consciente de sí misma y que tenga la capacidad de reflexionar, será responsable de su propia conducta.

Los CIO deben empezar a considerar cómo desarrollar la programación ética para máquinas inteligentes, escribe la consultora Gartner. Aprovechar el potencial de las máquinas inteligentes – y asegurar resultados satisfactorios para las empresas que las utilizan – dependerá de la confianza que pueda establecerse con las máquinas  inteligentes y la forma de mantener vigente esa confianza. Un elemento clave para establecer esta confianza será la presencia de valores éticos que las personas reconozcan y acepten.

“Indudablemente, para poder aceptar y usar las máquinas inteligentes, la gente debe primero confiar en ellas”, dijo Frank Buytendijk, vicepresidente de investigación y analista de Gartner. “La capacidad de inspirar confianza debe ser parte de cualquier iniciativa de implementar inteligencia artificial (IA) o máquinas inteligentes. Asimismo, será un argumento importante a la hora de comercializar esta tecnología. Los CIOs deben ser capaces de controlar la tecnología de IA frente a las consecuencias no intencionadas de uso público y actuar sin demora, potenciando los resultados positivos imprevistos y neutralizando los negativos”.

Para asegurarse de que las máquinas inteligentes se comportan éticamente y merecen nuestra confianza en el futuro, los CIO deben prepararse para el debate ético y programación. Gartner ha identificado cinco niveles de programación y desarrollo de sistemas, en función de su impacto ético:

Nivel 0: Programación No-Ética

En este nivel, no hay consideraciones éticas explícitas para el comportamiento de la tecnología. El fabricante de tecnología asume responsabilidades éticas muy reducidas, y se limita a asegurar que la tecnología debe proporcionar las funciones prometidas con seguridad y fiabilidad.

Los ejemplos incluyen “vaporware” (tecnologías que se anuncian al público, pero que nunca son entregadas) que puede reducir la confianza del cliente en un fabricante. La primera versión de cualquier software es rara vez completa, lo que significa que los clientes pueden tener expectativas limitadas frente al software “versión 1.0”.

Gartner recomienda que los fabricantes de tecnología comuniquen con transparencia lo que van a entregar y las eventuales circunstancias y variables que puedan alterar lo que han anunciado y lo que pueden, a fin de cuentas, entregar.  Esto debe incluir acuerdos de nivel de servicio (SLA) que especifiquen lo que se entrega y cómo.

Nivel 1: Supervisión Ética

El siguiente grado de sofisticación no tiene programación ética, pero el despliegue y uso de la tecnología puede tener consecuencias éticas. Es posible usar las máquinas inteligentes, pero básicamente depende de los usuarios qué hacer con los resultados. La principal responsabilidad ética está en manos de quienes utilizan las máquinas inteligentes.

Algunas empresas han establecido un comité de ética y algunas organizaciones de usuarios finales – en particular en el área de servicios financieros – también han establecido estos consejos; pero son una pequeña minoría.

Gartner recomienda que las organizaciones establezcan prácticas de gobierno que garanticen, al menos, que no se infringirá la ley. También deben procurar que la dimensión ética sea incorporada a la gerencia mediante la identificación y discusión de dilemas que el uso de las nuevas tecnologías pone de relieve.

Nivel 2: Programación Ética

Este siguiente nivel de complejidad está siendo estudiado en forma paralela a la llegada de máquinas inteligentes, como asistentes personales virtuales (VPA). Aquí, la perspectiva del usuario cambia considerablemente. Mientras que en los niveles 0 y 1 el usuario es generalmente una empresa profesional que cumple un trabajo, en el nivel 2, el usuario es a menudo un cliente, consumidor o ciudadano.

La responsabilidad es compartida entre el usuario, el proveedor de servicios y el diseñador. Los usuarios son responsables por el contenido de las interacciones que se inician (como una búsqueda o una solicitud), pero no por la respuesta que reciben. El diseñador es responsable de examinar las consecuencias no intencionadas de uso de la tecnología (dentro de lo razonable). El proveedor de servicios tiene la clara responsabilidad de interactuar con los usuarios de una manera ética, mientras que paralelamente enseña correctamente la tecnología y monitoriza su uso y comportamiento.

Por ejemplo, un asistente personal virtual instalado en un teléfono inteligente le ayudaría a llegar hasta el puente más cercano si usted le dice que le gustaría saltar de uno. Ahora, el sistema está programado para recoger tales señales y sugerirle una línea de ayuda. Este cambio pone de relieve la recomendación de Gartner para supervisar la tecnología de las consecuencias no intencionadas derivadas de su uso público, y responder en consecuencia.

Nivel 3: Programación Ética Evolutiva

Este nivel presenta la programación ética como parte de una máquina que aprende y evoluciona. Cuanto más aprende una máquina inteligente, más se aleja de su diseño original, y más individual se vuelve su comportamiento. En este nivel el concepto de usuario cambia nuevamente. En el nivel 2, el usuario todavía está en control, pero en el Nivel 3 muchas tareas se subcontratan y ejecutan de manera autónoma por las máquinas inteligentes.

Cuanto menos responsabilidad tenga el usuario, más confianza se hace vital para la adopción de las máquinas inteligentes. Por ejemplo, si usted no confía en su asistente personal virtual como para confiarle informes de gastos, entonces no lo autorizará a actuar en su nombre. Si usted no confía en su vehículo autónomo para conducir a través de un paso de montaña, usted recuperará el control en esa situación. Teniendo en cuenta el efecto de las tecnologías inteligentes en la sociedad, el nivel 3 requerirá una considerable nueva regulación y legislación.

Gartner recomienda que, como parte de la planificación a largo plazo, los CIOs consideren cómo sus organizaciones manejarán las tecnologías autónomas que actúan en nombre del propietario. Por ejemplo, ¿debería una máquina inteligente estar autorizada para acceder a la tarjeta de crédito personal o corporativa de un empleado, o incluso tener su propia tarjeta de crédito?

Nivel 4: Ética Desarrollada por Máquinas

Gartner no espera que las máquinas inteligentes se vuelvan auto-conscientes dentro de un marco de tiempo que requiera planificación ahora. Sin embargo, el nivel 4 predice que las máquinas inteligentes eventualmente llegarán a ser auto-conscientes. Tendrán que ser formadas e instruidas, y su ética tendrá que evolucionar. En el nivel 4, el concepto de “usuarios” ha desaparecido. Nos quedamos con sólo el concepto de “actores” que inician interacciones, responden y se adaptan.

En última instancia, una máquina inteligente, que sea consciente de sí misma y que tenga la capacidad de reflexionar, será responsable de su propia conducta.

“Las preguntas que debemos hacernos son: ¿Cómo vamos a garantizar que estas máquinas se mantengan fieles a sus responsabilidades? ¿Vamos a tratar a las máquinas inteligentes como animales domésticos, donde los propietarios seguirán siendo responsables por ellas? ¿O las trataremos como niños, criándolas hasta que sean capaces de asumir la responsabilidad por sí mismas?”, concluyó señalando Buytendijk.

Ilustración: Imredesiuk © Shutterstock.com


Únase a la conversación

Contacto | Diario TI es una publicación de MPA Publishing International Ltd., Reino Unido. © Copyright 1997-2022