Capacidad de la inteligencia artificial

0
696

Carlos Ignacio Gutiérrez, investigador de políticas del Future of Life Institute, expresó las preocupaciones de los empresarios ante la capacidad de la inteligencia artificial.

Un grupo de empresarios del sector tecnológico, expertos y políticos, entre ellos el controvertido empresario Elon Musk, solicitaron en una carta de tono apocalíptico que se suspendan durante seis meses los experimentos con inteligencia artificial (IA) muy potente porque consideran que “pueden plantear profundos riesgos para la sociedad y la humanidad”.

“La sociedad ha hecho una pausa en otras tecnologías con efectos potencialmente catastróficos en la sociedad. Podemos hacerlo aquí. Disfrutemos de una larga pausa veraniega de la IA y no nos apresuremos a caer sin estar preparados”, dice la carta abierta publicada por el organismo sin ánimo de lucro Future of Life Institute.

El director ejecutivo de Tesla, Elon Musk, el cofundador de Apple Steve Wozniak los investigadores estadounidenses Yoshua Bengio, Stuart Russel o los españoles Carles Sierra y Ramón López De Mantaras son algunos de los firmantes de esta carta abierta en la que advierten de los supuestos peligros de la IA si no es acompañada de una gestión y una planificación adecuadas.

“La IA avanzada podría representar un cambio profundo en la historia de la vida en la tierra, y debería planificarse y gestionarse con el cuidado y los recursos correspondientes”, asegura la misiva que sostiene, además, “que los laboratorios de IA se han enzarzado en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas”, se lee en el documento.

Incluso aseguran que “nadie -ni siquiera sus creadores- puede entender, predecir o controlar de forma fiable” a estas mentes digitales.

En este sentido, piden que los desarrolladores trabajen con los legisladores para acelerar un sistema legal sólido en torno a la IA.

Carlos Ignacio Gutiérrez, investigador de políticas del Future of Life Institute, explicó que no se busca pausar toda la inteligencia artificial, sino aquella que “es tan capaz que pueda crear riesgos” que aún no se han identificado y que no se está listo para enfrentar.

“Hemos pasado por varias revoluciones industriales y hemos tenido mucho tiempo para adaptarnos. Lo que nos preocupa son esas tecnologías que no nos deja tener ese periodo de transición”, añadió.

Es de señalar que la carta abierta propone que durante estos seis meses de pausa, los laboratorios de IA y los expertos independientes “desarrollen e implementen un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo avanzados de IA que sean rigurosamente auditados y supervisados por expertos externos independientes”.

Cuadro de comentarios de Facebook