En una carta abierta dirigida a todos los laboratorios de IA, firmada, entre otros, por el fundador de Apple, Steve Wozniak, el director general de Stability AI, Emad Mostaque, Elon Musk, Yuval Noah Harari, se hace un llamamiento a la industria para que frene el desarrollo de modelos de IA.
La carta, redactada por la organización no gubernamental Future of Life Institute, ha sido firmada al momento de publicación de este artículo por 1.123 personas. La lista incluye a personalidades internacionales de la IA como Yoshua Bengio, profesor de la Universidad de Montreal, y Stuart Russel, profesor y director del Centro de Sistemas Inteligentes de Berkely, así como a investigadores de numerosos países.
– “No deberían desarrollarse sistemas de IA de gran potencia hasta que estemos seguros de que los efectos serán positivos y de que los riesgos son manejables”, dice la carta.
Después de que OpenAI lanzara su ChatGPT al público el pasado otoño, muchos han advertido contra posibles usos perjudiciales, como en la ciberdelincuencia, el phishing y la desinformación. Aun así, el lanzamiento desencadenó una auténtica carrera armamentística en la industria. Los gigantes tecnológicos compiten por ser los primeros con los modelos más potentes.
La tecnología podría provocar cambios significativos en la historia de la humanidad, argumentan los autores.
– ¿Debemos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedades? ¿Deberíamos automatizar todos los trabajos, incluidos los que nos gusta hacer? ¿Deberíamos desarrollar mentes no humanas que con el tiempo puedan superarnos, ser más inteligentes que nosotros y hacernos redundantes? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización?, pregunta retóricamente la carta.
Este tipo de interrogantes no deben delegarse en líderes no elegidos, afirma el Future and Life Institute.
– “Hemos llegado a un punto en el que debemos detenernos y obtener una evaluación independiente de hacia dónde nos dirigimos”, afirman.
– Por lo tanto, instamos a todos los laboratorios de IA a que suspendan inmediatamente, durante al menos seis meses, el entrenamiento de sistemas de IA más potentes que el GPT-4. Esta pausa debe ser pública y verificable e incluir a todas las partes interesadas clave”, dice la carta. La pausa debe utilizarse para desarrollar y aplicar un conjunto de mecanismos de seguridad comunes supervisados por expertos independientes. Al mismo tiempo, los desarrolladores deben colaborar con los políticos y los burócratas para acelerar el proceso normativo, afirman Wozniak y otros.
Firmantes hispanohablantes de la petición (al 29.03.2023, 13:25 UTC)
Carles Sierra, Director Instituto de Investigación en Inteligencia Artificial, IIIA-CSIC; Presidente de la Asociación Europea de IA, EurAI., Profesor de Investigación del CSIC, EurAI Fellow.
Ramón López De Mantaras, Instituto de Investigación en Inteligencia Artificial, Profesor de Investigación, Premio Robert S. Engelmore Memorial de la AAAI, EurAI Fellow, Premio Nacional de Investigación en Matemáticas del Gobierno de España.
Nayat Sanchez-Pi, Inria Chile, CEO, Inria Chile.
Ricardo Baeza-Yates, Northeastern University, Director de Investigación, EAI, ACM & IEEE Fellow, Premios Nacionales en Chile y España
Helena Matute, Universidad de Deusto, España, Catedrática de Psicología.
Joan Manuel del Pozo Alvarez, España, Prof. de Filosofía, Exministro de Educación y Universidades.
Juan-Antonio Fernández-Madrigal, Universidad de Málaga (España), Catedrático de Robótica, Sistemas en Tiempo Real y Control por Ordenador; investigador en Robótica Cognitiva.
Ilustración: Fotografía de Steve Wozniak vía Wikipedia, composición Diario TI