Google planea protocolo para casos de emergencia con su Inteligencia Artificial (IA)

La posibilidad de que la Inteligencia Artificial pueda llegar a ser peligrosa para la humanidad es latente, por lo cual Google está tomando medidas de seguridad ante un posible escenario distópico. En Google han debido pensar que es mejor prevenir que curar y están trabajando en un protocolo que permita tomar el control de su IA más avanzada, Google DeepMind, en caso de emergencia.

El protocolo se describe en un ensayo recién publicado por los investigadores de Google Deepmind y científicos del Instituto para el Futuro de la Humanidad de la Universidad de Oxford que lleva por título: Safely Interruptible Agents. En él se describe un complejo protocolo que puede interpretarse como un enorme botón rojo para interrumpir el funcionamiento de Google Deepmind y “tomar el control de un sistema cuyo comportamiento inadecuado pueda acarrear consecuencias irreversibles.

Aunque todos tenemos en la cabeza escenarios apocalípticos, en realidad los investigadores piensan en problemas menos dramáticos y más inmediatos, como una fábrica cuyos robots sufran un error que ponga en peligro la integridad de la línea de producción y no sea posible ajustarlo por los procedimientos ordinarios. El protocolo está especialmente pensado para evitar que el sistema de inteligencia artificial intente ignorar o invalidar el comando de desactivación.

El propio Eric Schmidt apelaba recientemente a la necesidad de establecer este tipo de mecanismos de control para las plataformas de IA. De momento los sistemas de inteligencia artificial no han llegado tan lejos como para manejar sistemas críticos para la vida humana, pero cada vez avanzan más y más rápido.

Hasta este momento han logrado desarrollar ‘Q-learning’ y ‘Sarsa’, dos algoritmos de seguridad que son imposibles de modificar por la propia IA, ya que según los investigadores, muchos desarrollos no están creando este tipo de módulos de seguridad, algo que debería ser prioritario en el desarrollo de inteligencia artificial.

Nick Bostrom, fundador del Instituto para el Futuro de la Humanidad y uno de los mayores expertos en esta tecnología explica que hay un punto de inflexión a partir del cual la inteligencia artificial tendrá la capacidad de mejorarse a sí misma. A partir de ese punto su despegue será exponencial. Mejor pensar con antelación en sistemas de control.

Deja un comentario

Cotiza Ahora

Nuestro equipo comercial se comunicará contigo en un momento nuestros servicios se prestan sólo a empresas