Investigadores desarrollan un «botón rojo» para interrumpir la inteligencia artificial en caso de peligro

Investigadores desarrollan un «botón rojo» para interrumpir la inteligencia artificial en caso de peligro

Si la inteligencia artificial se sale de control, muchos filósofos y emprendedores tecnológicos creen que esto podría resultar en una actividad fuera del control humano. Por lo que algunos investigadores creen que es importante desarrollar sistemas para «interrumpir» los programas de Inteligencia Artificial (IA), y para garantizar que la IA no puedan desarrollar una forma de evitar esas interrupciones.

Un laboratorio de investigación de inteligencia artificial de Londres, propiedad de Google ha llevado a cabo un estudio para asegurarse de que podemos «tirar del enchufe» de las máquinas de auto-aprendizaje cuando queramos.

Un estudio, realizado en 2014 por el laboratorio de IA, propiedad de Google DeepMind y la Universidad de Oxford, pretendió crear un marco para entregar el control de los programas de IA a los seres humanos. En otras palabras, un «gran botón rojo» para mantener el control del software.

«Si un agente está funcionando en tiempo real bajo supervisión humana, puede ser necesario para un operador humano presionar el gran botón rojo para impedir que el agente siga una secuencia nociva de acciones, perjudicial para el agente o para el medio ambiente», se lee en el documento titulado «Safely Interruptible Agents» («Agentes interrumpibles de forma segura») y publicado en línea por el Machine Intelligence Research Institute.

A medida que más empresas de tecnología se involucran con la inteligencia artificial, los avances en IA han comenzado a ocurrir a un ritmo más rápido. DeepMind, cuyo investigador Laurent Orseau co-autor del documento indicado anteriormente, es responsable del desarrollo de AlphaGo. Este sistema de inteligencia artificial es capaz de reproducir el antiguo juego de mesa chino en un nivel superior al de los jugadores humanos más cualificados del juego. Mientras tanto, todas las compañías de gran tecnología con grandes inversiones en la computación en la nube están trabajando para desarrollar la IA en varias capacidades, incluyendo Facebook, Amazon, Google y Microsoft.

En medio de la creciente popularidad de la tecnología, numerosas organizaciones sin fines de lucro se han levantado para estudiar su efecto y garantizar que las IA tengan un impacto positivo. Entre ellos se incluyen el Machine Intelligence Research Institute y el Future of Humanity Institute del filósofo Nick Bostrom. Incluso el CEO de Tesla Motors y de SpaceX, Elon Musk ha prestado atención a las advertencias sobre la IA. Musk el año pasado cofundó Open AI, una organización sin ánimo de lucro dedicada a la prevención del software maligno y garantizar que la tecnología sea beneficiosa para la humanidad. En la Conferencia Recode’s Code celebrada esta semana, Musk insinuó que la empresa de tecnología Google, está más preocupaba más que cualquier otra cuando se trata del software de auto-aprendizaje.

Los fundadores también han asistido y hablado en varias conferencias sobre la ética en la IA, destacando que quieren asegurarse de que la tecnología que otros están desarrollando se utilice para el bien. Es probable que buscarán incorporar algunas de las conclusiones del documento «Safely Interruptible Agents» en su trabajo en el futuro.

Hace poco en CodigoOculto.com publicamos una nota acerca de la opinión de un matemático de Oxford, quien cree que cuando las máquinas basadas en software de inteligencia artificial adquieran una «conciencia» deberían tener derechos al igual que los tenemos las personas. Sin duda este choque de ideas va a ser punto de quiebre dentro de algunas décadas cuando las inteligencias artificiales alcancen un punto más alto de desarrollo.

COMMENTS

WORDPRESS: 0
DISQUS: 0