Alerta de superinteligencia de IA: experto advierte riesgos incontrolables y la califica como una “catástrofe existencial” potencial
Publicado el 03 Mar 2024
© Imagen: 20th Century Fox / indiaai.gov

Un reciente estudio de un experto en seguridad de la inteligencia artificial (IA) y profesor asociado de la University of Louisville, el Dr. Roman V. Yampolskiy, arroja una larga sombra sobre el futuro de la IA y el desarrollo de una superinteligencia de IA intrínsecamente incontrolable.

En su último libro, AI: Unexplainable, Unpredictable, Uncontrollable, el Dr. Yampolskiy afirma que, basándose en una amplia revisión de la literatura científica más reciente, no hay pruebas de que la IA pueda controlarse con seguridad. Desafiando los cimientos del avance de la IA y la dirección de las tecnologías futuras, advierte:

“Sin pruebas de que la IA puede controlarse, no debería desarrollarse”.

“Nos enfrentamos a un evento casi garantizado con potencial para causar una catástrofe existencial”.

En un comunicado emitido por la editorial Taylor & Francis Dr. Yampolskiy:

“No es de extrañar que muchos lo consideren el problema más importante al que se ha enfrentado la humanidad. El resultado podría ser la prosperidad o la extinción, y el destino del universo pende de un hilo”.

El Dr. Yampolskiy, experto en seguridad de la IA, ha destacado los peligros de la inteligencia artificial incontrolable durante más de una década, haciendo hincapié en la amenaza existencial que podría representar para la humanidad. En un documento de 2018, el Dr. Yampolskiy y el coautor Michaël Trazzi dijeron que deberían introducirsetalones de Aquiles” o “estupidez artificial” para evitar que los sistemas de IA se vuelvan peligrosos. Por ejemplo, habría que impedir que la IA pudiera acceder a su propio código fuente y modificarlo.

Más arriesgado que la ruleta rusa

El verano pasado, en un artículo para Nautilus, el Dr. Yampolskiy y el abogado especializado en políticas públicas Tam Hunt describieron la creación de una superinteligencia de IA como algo “más arriesgado que la ruleta rusa“.

El Dr. Yampolskiy y Hunt escribieron:

“Una vez que la IA sea capaz de mejorarse a sí misma, se volverá rápidamente mucho más inteligente que nosotros en casi todos los aspectos de la inteligencia, luego mil veces más inteligente, luego un millón, luego mil millones… ¿Qué significa ser mil millones de veces más inteligente que un humano?

Nos convertiríamos rápidamente en hormigas a sus pies. Imaginar que los humanos pueden controlar una IA superinteligente es un poco como imaginar que una hormiga puede controlar el resultado de un partido de fútbol americano de la NFL que se juega a su alrededor.”

Inteligencia artificial

Crédito de imagen: depositphotos.com

En su último libro, el Dr. Yampolskiy profundiza en las múltiples formas en que la IA podría remodelar drásticamente la sociedad, a menudo alejándose del beneficio humano. El núcleo de su argumento es que, sin pruebas incontrovertibles de controlabilidad, el desarrollo de la IA debe abordarse con extrema cautela, si no detenerse por completo.

A pesar del reconocimiento generalizado del potencial transformador de la IA, el Dr. Yampolskiy señala que el “problema de control” de la IA, también conocido como el “problema difícil” de la IA, sigue siendo una cuestión nebulosa y poco investigada.

El Dr. Yampolskiy, haciendo hincapié en la gravedad e inmediatez del reto que nos ocupa, dijo:

“¿Por qué tantos investigadores suponen que el problema de control de la IA tiene solución? Que nosotros sepamos, no hay pruebas de ello. Antes de lanzarse a construir una IA controlada, es importante demostrar que el problema tiene solución”.

El aspecto más alarmante de una superinteligencia IA

Uno de los aspectos más alarmantes destacados en la investigación del Dr. Yampolskiy es la incontrolabilidad inherente a la superinteligencia de la IA.

La superinteligencia de la IA se refiere a un escenario teórico en el que la inteligencia de un sistema de IA supera incluso a la de las mentes humanas más brillantes.

Los investigadores no se ponen de acuerdo sobre la probabilidad de que la inteligencia humana actual pueda ser superada por la tecnología, argumentando que la IA siempre carecerá de las capacidades cognitivas humanas, incluida la posesión de una verdadera conciencia humana.

Sin embargo, otros científicos, como el Dr. Yampolskiy, creen que el avance de la superinteligencia de la IA “es un acontecimiento casi garantizado” tras el desarrollo de la inteligencia general artificial.

El Dr. Yampolskiy afirma que los sistemas con superinteligencia de IA podrán desarrollar su capacidad de aprender, adaptarse y actuar de forma semiautónoma. En consecuencia, esto disminuiría nuestra capacidad de controlar o comprender plenamente las acciones del sistema de IA. En última instancia, se crearía una paradoja en la que el avance de la autonomía de la IA se correspondería con una disminución de la seguridad y el control humanos.

Tras una “exhaustiva revisión bibliográfica”, el Dr. Yampolskiy concluye que los sistemas superinteligentes de IA “nunca podrán ser totalmente controlables”. Por lo tanto, la superinteligencia de IA siempre presentará un cierto grado de riesgo, independientemente de cualquier beneficio que puedan proporcionar.

El Dr. Yampolskiy señala varios obstáculos para crear una IA “segura”, entre ellos las infinitas decisiones y fallos potenciales que puede cometer un sistema con superinteligencia de IA, lo que daría lugar a problemas de seguridad interminables e impredecibles.

La IA no sería capaz de articular el razonamiento que subyace a sus decisiones

Otra preocupación es que la superinteligencia de IA no sea capaz de articular el razonamiento que subyace a sus decisiones, agravado por las limitaciones humanas para comprender los conceptos avanzados que utiliza. El Dr. Yampolskiy subraya que, como mínimo, los sistemas de IA deben ser capaces de detallar sus procesos de toma de decisiones para garantizar que están libres de sesgos.

El Dr. Yampolsky explica:

“Si nos acostumbramos a aceptar las respuestas de la IA sin una explicación, tratándola básicamente como un sistema oráculo, no podremos saber si empieza a dar respuestas erróneas o manipuladoras”.

La preocupación por el sesgo de la IA ha cobrado protagonismo recientemente cuando se reveló que el generador de imágenes y chatbot de Google basado en IA, Gemini, tenía dificultades para producir imágenes en las que aparecieran personas blancas.

Decenas de personas publicaron en las redes sociales imágenes que demostraban que, cuando se le pedía que representara figuras históricas tradicionalmente blancas, como los “padres fundadores de Estados Unidos”, Gemini generaba imágenes protagonizadas exclusivamente por personas de color. En un ejemplo, cuando se le pedía que visualizara a un soldado alemán de 1943, el chatbot de inteligencia artificial creaba imágenes de un hombre negro y una mujer asiática vestidos con uniformes de las Waffen SS nazis.

Google dijo en un comunicado:

“Somos conscientes de que Gemini ofrece inexactitudes en algunas representaciones históricas de generación de imágenes. Estamos trabajando para mejorar este tipo de representaciones inmediatamente. La generación de imágenes por IA de Gemini genera un amplio abanico de personas. Y eso, en general, es bueno, porque lo utiliza gente de todo el mundo. Pero aquí está fallando”.

Inteligencia artificial

Crédito de imagen: depositphotos.com

¿Fue Gemini una advertencia?

Según el Dr. Yampolskiy, la reciente debacle de Gemini es un anticipo relativamente inofensivo y leve de lo que puede ir mal con la IA si no se controla. Y lo que es más alarmante, sostiene que es fundamentalmente imposible controlar de verdad los sistemas con superinteligencia de IA.

El Dr. Yampolskiy argumenta:

“Los agentes menos inteligentes (las personas) no pueden controlar permanentemente a los agentes más inteligentes (ASI). Esto no se debe a que no podamos encontrar un diseño seguro para la superinteligencia en el vasto espacio de todos los diseños posibles, sino a que tal diseño no es posible, no existe. La superinteligencia no se rebela, para empezar es incontrolable.

La humanidad se enfrenta a una elección, ¿nos volvemos como bebés, cuidados pero sin control, o rechazamos tener un guardián útil pero seguimos al mando y libres?”.

El Dr. Yampolskiy afirma que hay algunas formas de minimizar los riesgos. Entre ellas, hacer que la IA sea modificable con opciones de “deshacer” y que se limite a un uso transparente y comprensible en términos humanos.

Además, “no hay que descartar nada” cuando se trata de limitar o prohibir parcialmente el desarrollo de ciertos tipos de tecnología de IA que tienen el potencial de ser incontrolables.

El trabajo del Dr. Yampolskiy ha recibido el apoyo de figuras notables del mundo de la tecnología, como Elon Musk. Crítico declarado del desarrollo ilimitado de la IA, Musk fue uno de los más de 33.000 expertos del sector que el año pasado firmaron una carta abierta en la que pedían una pausa inmediata en “el entrenamiento de sistemas de IA más potentes que la GPT-4”.

A pesar del ominoso impacto que la IA podría tener en la humanidad, el Dr. Yampolskiy afirma que las preocupaciones planteadas por su última investigación deberían servir de catalizador para aumentar la investigación sobre seguridad y protección de la IA.

El Dr. Yampolskiy explica:

“Puede que nunca lleguemos a una IA segura al 100%, pero podemos hacer que la IA sea más segura en proporción a nuestros esfuerzos, lo cual es mucho mejor que no hacer nada. Tenemos que aprovechar esta oportunidad sabiamente”.

El libro AI: Unexplainable, Unpredictable, Uncontrollable de Roman V. Yampolskiy se encuentra disponible en Amazon.

Tenemos algo para decirte: Visítanos en Facebook. Únete a la discusión en nuestra comunidad en Telegram. Y si te es posible, apoya nuestro trabajo invitándonos un café. ¡Te lo agradecemos!

Te puede gustar:

Redacción CODIGO OCULTO

Redacción CODIGO OCULTO

Autor

La verdad es más fascinante que la ficción.

0 comentarios

Enviar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Síguenos y únete en nuestras redes sociales

Apoya nuestro trabajo

Con tu ayuda podremos seguir creando contenidos e informándote a diario. Apoya nuestro trabajo. ¡Gracias!

SUSCRÍBETE GRATIS A NOTICIAS

Síguenos en Telegram
Síguenos en TikTok / codigoocultocom

Conócenos

Código oculto

La historia y sus misterios, civilizaciones antiguas, Ovnis, Vida extraterrestre, Complots. Información alternativa para liberar mentes. Leer más

Obras registradas

Safe Creative #1803242717113

Sitios recomendados

Exploración OVNI
UFO Spain Magazine

También te podría interesar…