El gran botón rojo que puede detener la inteligencia artificial

Deep Mind, una ‘start-up’ de Google, ha desarrollado un mecanismo que puede interrumpir toda la inteligencia de sus sistemas en caso de emergencia

Llegará un momento en el que las máquinas superarán la inteligencia de los humanos y estos deberán disponer de un sistema de prevención para poder interrumpirlas. No es otro guión de película de ciencia ficción, sino la hipótesis de la que parte un estudio realizado por Deep Mind, la empresa de Google especializada en inteligencia artificial, y el Instituto para el Futuro de la Humanidad ( FHI, por sus siglas en inglés) de la Universidad de Oxford. Ambas empresas han desarrollado de manera conjunta un “gran botón rojo” de emergencia para evitar que las máquinas realicen una “secuencia de acciones nocivas” para el entorno, el operador humano o para ellas mismas y poder “guiar -las a una situación segura “.

Los desarrolladores han asegurado que las máquinas no puedan aprender a prevenir, impedir o provocar estas interrupciones

“Es improbable que los agentes de aprendizaje que interaccionan con un ambiente tan complejo como el mundo real se comporten de manera óptima todo el tiempo”, reconocen los autores del estudio Agentes que se pueden interrumpir de forma segura . Los investigadores sostienen que han creado un “marco de trabajo que permite al operador humano interrumpir de forma segura (e incluso de manera repetida)” determinados tipos de inteligencia artificial. Además, se han asegurado que las máquinas no puedan aprender a prevenir, impedir o provocar estas interrupciones.

“Este sistema de interrupción segura puede ser muy útil para tomar el control de un robot que se está comportando mal y que puede llevar a consecuencias irreversibles; también para que supere una situación delicada o realice una tarea para la que no había aprendido a comportarse “, reflexionan los autores del estudio. “Pero no está claro si todos los algoritmos pueden ser fácilmente interrumpibles”, admiten.

“Este tipo de medidas sirven para ayudar a que la gente acepte la inteligencia artificial porque tiene claro que siempre va a estar controlada

La investigación hace referencia a un tipo muy específico de inteligencia artificial conocida como de aprendizaje reforzado, que combina variables para determinar de manera automática -sin necesidad de un ajuste específico- su comportamiento “ideal”. “Es un tipo de inteligencia artificial que ha tomado mucha fuerza, porque es más sencillo desarrollarla. Lo que hace el robot es maximizar una especie de función matemática, pero no entiende los conceptos sobre los que trabaja. Como sólo entiende fórmulas puede ser posible que exista el problema potencial que decida ignorar o hacer daño a los humanos que la han programado, pero es algo improbable “, explica Juan Antonio Recio, director del departamento de Ingeniería del Software e Inteligencia Artificial de la Universidad Complutense de Madrid.

Sin embargo, Recio sostiene que este problema no ocurriría con otro tipo de inteligencias que en vez de entender formulas, entendieran conceptos como humano, como es la inteligencia simbólica. “De todos modos, este tipo de medidas sirven para tranquilizar a la sociedad, para ayudar a que la gente acepte esta inteligencia artificial porque tiene claro que siempre estará controlada, que nunca se irá de las manos”, considera este experto .

Desarrollo de una ‘superintel·ligència’

Este tipo de reflexiones no son nuevas en el sector de la inteligencia artificial. El director del Instituto para el Futuro de la Humanidad , Nick Bostrom, ya describía como escenario posible en su libro Superintel·ligència: caminos, peligros, estrategiascomo que las máquinas superarían sus programadores, serían tan inteligentes y capaces de mejorarse a sí mismas y perderían el planeta. “Tenemos que saber cómo controlarlas. Si tienes un agente artificial con objetivos diferentes a los tuyos, cuando se vuelve bastante inteligente, es capaz de anticipar tus acciones y de hacer planes teniendo en cuenta tus, lo que podría incluir esconder sus propias capacidades de manera estratégica “, sostenía en una entrevista con este diario.

“Algunas personas han expresado sus preocupaciones sobre un agente superinteligente que se resista a ser apagado”, decían los autores en su estudio, aunque sin atreverse a especificar cuándo podría ocurrir algo así. Otros expertos en inteligencia artificial que Bostrom cita en su libro afirman que hay un 90% de posibilidades de que entre el 2075 y el 2090 haya máquinas tan inteligentes como los humanos.

También te podría gustar...

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *