Navegando el estallido de la inteligencia: Consideraciones éticas sobre la IA

A medida que nos acercamos a la creación de una IA general más inteligente que los humanos, debemos abordar las implicaciones éticas y los riesgos existenciales.

Nick Bostrom, filósofo, futurista y director del Instituto del Futuro de la Humanidad de la Universidad de Oxford, comparte sus ideas sobre el futuro de la IA en un vídeo publicado por Big Think’s en YouTube. Sostiene que es probable que en este siglo se desarrolle una IA general con una inteligencia que supere a la humana, lo que conllevará enormes responsabilidades y riesgos potenciales. El desarrollo de la superinteligencia de las máquinas puede conducirnos a un gran futuro si consideramos cuidadosamente nuestras responsabilidades hacia la IA y entre nosotros.

Bostrom cree que existe una enorme brecha entre la inteligencia humana y la inteligencia suprema, y una vez que superemos las capacidades humanas, la IA podría dar lugar a una explosión de inteligencia, transformando drásticamente el mundo. Prevé un futuro en el que la IA avanzada podría ayudar a resolver retos globales como las enfermedades, la contaminación y la pobreza, creando un mundo mejor para la humanidad.

Sin embargo, Bostrom también destaca los riesgos existenciales asociados al desarrollo de la superinteligencia de las máquinas, incluida la posibilidad de que una superinteligencia no alineada se imponga a la civilización humana.

Otra preocupación es el posible uso indebido de la tecnología de la IA con fines destructivos. Bostrom también plantea la disyuntiva ética de cómo garantizar el bienestar de las entidades de IA con estatus moral, haciendo hincapié en nuestras obligaciones hacia ellas.

Al respecto, Bostrom comenta: “Si vamos a construir mentes digitales que quizá sean conscientes o tengan un estatus moral de diversos grados, entonces ¿cómo podemos asegurarnos de que se les trata bien? Si lo piensa, la mayoría de nosotros reconocería que diversos animales no humanos tienen grados de estatus moral. Incluso algo tan simple como un humilde ratón de laboratorio. En ese punto, se convierte en una cuestión activa de si tenemos obligaciones con las IAs no sólo para asegurarnos de que no hacemos un mal uso de las IAs unos contra otros o para protegernos de las IAs, sino también para asegurarnos de que hacemos lo adecuado con respecto a las IAs. Y si tenemos éxito en eso y las cosas van bien, entonces podremos imaginarnos vivir vidas, mucho más allá de lo que es posible ahora”.

A pesar de estos retos, Bostrom cree que abordar las implicaciones éticas y los riesgos potenciales asociados a la IA puede conducirnos a un gran futuro. Nos anima a considerar las tensiones entre la realidad actual y un futuro radicalmente distinto configurado por la IA avanzada, instándonos a equilibrar nuestras perspectivas y a esforzarnos por lograr un resultado positivo. A medida que la IA progresa, es crucial reconocer y abordar estas preocupaciones para crear un futuro en el que los sistemas de IA contribuyan positivamente a la humanidad y al medio ambiente.

Ilustración: fotograma del video



Únase a la conversación

Contacto | Diario TI es una publicación de MPA Publishing International Ltd., Reino Unido. © Copyright 1997-2022