Humanos no podrían contener a las máquinas superinteligentes, demuestra estudio
Publicado el 14 Ene 2021
© Imagen: Marvel

En una nueva investigación, un grupo de científicos ha sugerido que controlar a una super inteligencia artificial resultará prácticamente imposible para los humanos.

Tenemos que admitirlo: ¡Nos fascinan las máquinas que pueden controlar coches, componer sinfonías o derrotar a la gente en ajedrez! ¡No podemos vivir sin ella! Mientras se avanza cada vez más en Inteligencia Artificial (IA), algunos científicos y filósofos advierten sobre los peligros de una IA superinteligente incontrolable.

Supongamos que alguien programa un sistema de inteligencia artificial con inteligencia superior a la de los humanos, para que puedan aprender de forma independiente. Conectada a Internet, la IA puede acceder a todos los datos de la humanidad. Podría reemplazar todos los programas existentes y tomar el control de todas las máquinas en línea en todo el mundo. ¿Produciría esto una utopía o una distopía? ¿La IA curaría el cáncer, traería la paz mundial y evitaría un desastre climático? ¿O destruiría a la humanidad y tomaría el control de la Tierra?

Científicos de la computación y filósofos se han preguntado si seríamos capaces de controlar una IA superinteligente para asegurarnos de que no representaría una amenaza para la humanidad. Un equipo internacional de científicos informáticos utilizó cálculos teóricos para demostrar que sería fundamentalmente imposible controlar una IA superinteligente.

¿Un peligro para la humanidad?

Humanos no podrían contener a las máquinas superinteligentes, demuestra estudio

Crédito: Pixabay

Manuel Cebrian, líder del Digital Mobilization Group at the Center for Humans and Machines, Max Planck Institute for Human Development y coautor del estudio, dijo en un comunicado:

“Una máquina superinteligente que controla el mundo suena a ciencia ficción. Pero ya hay máquinas que realizan ciertas tareas importantes de forma independiente sin que los programadores comprendan completamente cómo las aprendieron. Por lo tanto, surge la pregunta de si esto podría en algún momento volverse incontrolable y peligroso para la humanidad”.

Los científicos han explorado dos ideas diferentes sobre cómo se podría controlar una IA superinteligente. Por un lado, las capacidades de la IA superinteligente podrían limitarse específicamente, por ejemplo, aislándola de Internet y de todos los demás dispositivos técnicos para que no pueda tener contacto con el mundo exterior; sin embargo, esto haría que la IA superinteligente sea significativamente menos poderosa o menos capaz de responder a las misiones de humanidades.

Al carecer de esa opción, la IA podría estar motivada desde el principio para perseguir solo objetivos que sean en el mejor interés de la humanidad, por ejemplo, programando principios éticos en ella. Sin embargo, los investigadores también muestran que estas y otras ideas contemporáneas e históricas para controlar la IA superinteligente tienen sus límites.

¿Un algoritmo para contener la super inteligencia artificial?

Humanos no podrían contener a las máquinas superinteligentes, demuestra estudio

Crédito: Pixabay

En su estudio, el equipo concibió un algoritmo de contención teórico que garantiza que una IA superinteligente no pueda dañar a las personas bajo ninguna circunstancia, simulando primero el comportamiento de la IA y deteniéndolo si se considera dañino. Pero un análisis cuidadoso muestra que en nuestro paradigma actual de computación, tal algoritmo no se puede construir.

Iyad Rahwan, director del Center for Humans and Machines, dijo en un comunicado:

“Si descompone el problema en reglas básicas de la informática teórica, resulta que un algoritmo que ordenaría a una IA que no destruyera el mundo podría detener inadvertidamente sus propias operaciones. Si esto sucediera, no sabría si el algoritmo de contención todavía está analizando la amenaza o si se ha detenido para contener la IA dañina. En efecto, esto inutiliza el algoritmo de contención”.

Según estos cálculos, el problema de la contención es incomputable, es decir, ningún algoritmo puede encontrar una solución para determinar si una IA produciría daño al mundo. Además, los investigadores demuestran que es posible que ni siquiera sepamos cuándo una máquina llegue a ser superinteligente, porque decidir si una máquina exhibe una inteligencia superior a la de los humanos está en el mismo ámbito que el problema de contención.

La investigación ha sido publicada en el Journal of Artificial Intelligence Research.

Te puede gustar:

Fuente: mpg.de
Redacción CODIGO OCULTO

Redacción CODIGO OCULTO

Autor

La verdad es más fascinante que la ficción.

1 Comentario

  1. manuel09

    La IA es un riesgo extremo para la humanidad y dejar a criterio de unos pocos esto para que ellos decidan jugando a la ruleta rusa con el futuro de la humanidad es un genocidio global y debemos enviar a esas personas a una carcel para el resto de su vida…la IA debe de ser contenida en su conexión a otros dispositivos y tener un algoritmo..boton rojo de destrucción

    Responder

Enviar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Síguenos y únete en nuestras redes sociales

Apoya nuestro trabajo

Con tu ayuda podremos seguir creando contenidos e informándote a diario. Apoya nuestro trabajo. ¡Gracias!

SUSCRÍBETE GRATIS A NOTICIAS

Síguenos en Telegram
Síguenos en TikTok / codigoocultocom

Conócenos

Código oculto

La historia y sus misterios, civilizaciones antiguas, Ovnis, Vida extraterrestre, Complots. Información alternativa para liberar mentes. Leer más

Obras registradas

Safe Creative #1803242717113

Sitios recomendados

Exploración OVNI
UFO Spain Magazine

También te podría interesar…