Borrar
Expertos piden pausar el desarrollo de la inteligencia artificial por «riesgos»

Expertos piden pausar el desarrollo de la inteligencia artificial por «riesgos»

Solicitan una pausa de seis meses en el desarrollo de sistemas más potentes que el recién lanzado GPT-4 de OpenAI por los peligros que puede generar

Reuters

Miércoles, 29 de marzo 2023, 20:01

Necesitas ser suscriptor para acceder a esta funcionalidad.

Compartir

Un grupo de expertos en inteligencia artificial, entre ellos Elon Musk, han pedido una pausa de seis meses en el desarrollo de sistemas más potentes que el recién lanzado GPT-4 (un modelo de lenguaje de gran tamaño) de la empresa OpenAI, en una carta abierta en la que alegan los peligros que puede generar para la sociedad y la humanidad.

A principios de este mes, OpenAI, respaldada por Microsoft, presentó la cuarta actualización de su popular programa de IA GPT (Generative Pre-trained Transformer), que ha cautivado a los usuarios con su amplia gama de aplicaciones, desde entablar conversaciones similares a las humanas hasta componer canciones y resumir documentos extensos.

La carta, publicada por la organización sin ánimo de lucro 'Future of Life Institute', pedía una pausa en el desarrollo de la IA avanzada hasta que se desarrollaran, aplicaran y auditaran por expertos independientes protocolos de seguridad compartidos para tales diseños.

«Los potentes sistemas de inteligencia artificial solo deberían desarrollarse cuando estemos seguros de que sus efectos serán positivos y sus riesgos controlables», reza la misiva

Trastornos económicos y políticos

La carta detalla los riesgos potenciales para la sociedad y la civilización de los sistemas de IA en forma de trastornos económicos y políticos, y pide a los desarrolladores que colaboren con los responsables políticos.

Entre los firmantes figuran Emad Mostaque, consejero delegado de 'Stability AI', investigadores de 'DeepMind', propiedad de 'Alphabet', y los pesos pesados de la IA Yoshua Bengio, a menudo considerado uno de los «padrinos de la IA», y Stuart Russell, pionero de la investigación en este campo.

Según el registro de transparencia de la Unión Europea, el 'Future of Life Institute' está financiado principalmente por la 'Musk Foundation', así como por el grupo londinense de altruismo efectivo 'Founders Pledge' y la 'Silicon Valley Community Foundation'.

El lunes, Europol se sumó a las preocupaciones éticas y jurídicas sobre la IA avanzada como ChatGPT, advirtiendo del posible uso indebido del sistema en intentos de suplantación de identidad, desinformación y ciberdelincuencia. Mientras tanto, el Gobierno británico presentó propuestas para un marco regulador «adaptable» en torno a la IA.

El enfoque del Gobierno, esbozado en un documento político publicado el miércoles, dividiría la responsabilidad de regular la inteligencia artificial (IA) entre sus reguladores de derechos humanos, salud y seguridad, y competencia, en lugar de crear un nuevo organismo dedicado a la tecnología.

Transparencia

Musk, cuyo fabricante de automóviles Tesla está utilizando IA para un sistema de piloto automático, ha manifestado abiertamente su preocupación. Desde su lanzamiento el año pasado, ChatGPT de OpenAI ha impulsado a sus rivales a acelerar el desarrollo de grandes modelos lingüísticos similares y a las empresas a integrar modelos generativos de IA en sus productos.

La semana pasada, OpenAI anunció que se había asociado con una docena de empresas para integrar sus servicios en su chatbot, lo que permite a los usuarios de ChatGPT hacer la compra en Instacart o reservar vuelos en Expedia. Sam Altman, director ejecutivo de OpenAI, no ha firmado la carta, según ha declarado a Reuters un portavoz de 'Future of Life'.

«La carta no es perfecta, pero el espíritu es correcto: tenemos que frenar hasta que entendamos mejor las ramificaciones», dijo Gary Marcus, profesor de la Universidad de Nueva York que firmó la carta. «Los grandes actores son cada vez más herméticos sobre lo que hacen, lo que dificulta la defensa de la sociedad ante cualquier daño que pueda materializarse».

Los críticos acusaron a los firmantes de la carta de promover el «bombo publicitario de la IA», argumentando que las afirmaciones en torno al potencial actual de la tecnología habían sido muy exageradas.

«Este tipo de declaraciones pretenden crear expectación. Johanna Björklund, investigadora de IA y profesora asociada de la Universidad de Umeå, afirma: «Su objetivo es preocupar a la gente. «No creo que sea necesario echar el freno de mano».

En lugar de pausar la investigación, dijo, los investigadores de IA deberían estar sujetos a mayores requisitos de transparencia. «Si investigas sobre IA, deberías ser muy transparente sobre cómo lo haces». (Reportajes de Jyoti Narayan en Bengaluru, Krystal Hu en Nueva York, Martin Coulter en Londres y Supantha Mukhurjee en Estocolmo. Edición de Gerry Doyle y Elaine Hardcastle).

Reporta un error en esta noticia

* Campos obligatorios