OpenAI aborda los riesgos de la IA con una nueva estrategia

Dirigido por un científico del MIT, un equipo de OpenAI pretende mitigar los sesgos de la IA y las amenazas futuras.

OpenAI, la organización que está detrás de ChatGPT, acaba de presentar una estrategia integral para hacer frente a los peligros potenciales asociados a la inteligencia artificial. Esta iniciativa, anunciada en el blog de la organización el 18 de diciembre, se centra especialmente en prevenir el uso indebido de la IA para crear armas químicas y biológicas por parte de ciberdelincuentes.

La iniciativa estará encabezada por un equipo de “capacidad/disposición de respuesta” de reciente creación, dirigido por Aleksander Madry, estimado profesor de IA del MIT. Este equipo estará formado por un grupo diverso de profesionales, entre ellos investigadores de IA, informáticos, expertos en seguridad nacional y políticos. Madry, muy apreciado por su trabajo en el Center for Deployable Machine Learning del MIT y codirector del MIT AI Policy Forum, se reincorporó a OpenAI tras un breve alejamiento.

Este equipo se encarga de seguir de cerca los avances tecnológicos, realizar evaluaciones continuas y emitir alertas inmediatas si la IA supone una amenaza. Un aspecto clave de su trabajo será abordar los sesgos de la IA y desarrollar un equipo de “superalineación”, dedicado a idear estrategias contra escenarios en los que la IA supere a la inteligencia humana.

Grandes empresas tecnológicas como Google y Microsoft se han hecho eco de la urgencia de abordar los riesgos potenciales de la IA y han comparado estas amenazas con pandemias o armas nucleares. En la reciente Cumbre sobre Seguridad de la IA celebrada en el Reino Unido en noviembre, el Primer Ministro Rishi Sunak trató de calmar las preocupaciones sobre la IA, haciendo referencia a un informe del gobierno británico que destacaba el uso potencial de la IA generativa para fines perjudiciales, incluidos los ataques violentos no estatales y el aumento de los riesgos de ciberataques para 2025.

A pesar de estas preocupaciones, un segmento de los líderes empresariales de la IA cree que estos temores son exagerados y aboga por centrarse en el uso de la IA para obtener beneficios sociales y económicos. Nick Clegg, presidente de asuntos globales de Meta y ex viceprimer ministro del Reino Unido, ha comparado el discurso de la IA con el pasado “pánico moral” por los videojuegos.

La postura de OpenAI al respecto pretende ser equilibrada. Sam Altman, CEO de OpenAI, reconoce los riesgos a largo plazo, pero subraya la importancia de abordar los problemas actuales de la IA. Apoya la regulación para frenar los aspectos perjudiciales de la IA, pero advierte contra las medidas que podrían impedir el crecimiento de las empresas más pequeñas.


Únase a la conversación

Contacto | Diario TI es una publicación de MPA Publishing International Ltd., Reino Unido. © Copyright 1997-2022