“Apagar la Inteligencia Artificial o moriremos todos”, alerta uno de los mayores expertos del mundo
Publicado el 06 Abr 2023
© Imagen: depositphotos.com

El investigador Eliezer Yudkowsky y uno de los mayores expertos en la materia ha lanzado una preocupante advertencia en un artículo publicado recientemente en la revista Time: “la humanidad no está preparada para sobrevivir a una superinteligencia artificial”.

Yudkowsky, que lleva más de 20 años advirtiendo sobre los riesgos de la inteligencia artificial (IA), dice que hay que “apagarlo todo o simplemente moriremos”

Te puede gustar:

Un investigador de la IA que lleva advirtiendo de los peligros de esta tecnología desde principios de la década de 2000 afirma que deberíamos “cerrarlo todo”, en un alarmante artículo de opinión publicado por Time recientemente

Eliezer Yudkowsky, investigador y autor que lleva trabajando en Inteligencia Artificial General desde 2001, escribió el artículo en respuesta a una carta abierta de muchos grandes nombres del mundo de la tecnología, en la que se pedía una suspensión del desarrollo de la IA durante seis meses.

La carta, firmada por 1.125 personas, entre ellas Elon Musk y el cofundador de Apple Steve Wozniak, pedía una pausa en el entrenamiento de tecnologías de IA más potentes que la recientemente lanzada GPT-4 de OpenAI.

Eliezer Yudkowsky es uno de los mayores expertos en inteligencia artificial en el mundo

Eliezer Yudkowsky es uno de los mayores expertos en inteligencia artificial en el mundo. Crédito de imagen: Wikimedia Commons / CC BY-SA 2.0

Los peligros de una IA sobrehumanamente inteligente

El artículo de Yudkowsy, titulado “Pausing AI Developments Isn’t Enough. We Need to Shut it All Down“, decía que se abstenía de firmar la carta porque subestimaba la “gravedad de la situación” y pedía “demasiado poco para resolverla”.

Yudkowsy escribió:

“Muchos investigadores empapados en estos temas, entre los que me incluyo, prevén que el resultado más probable de construir una IA sobrehumanamente inteligente, en circunstancias remotamente parecidas a las actuales, es que muera literalmente todo el mundo en la Tierra”.

Explicó que la IA “no se preocupa por nosotros ni por la vida sensible en general”, y que actualmente estamos lejos de inculcar ese tipo de principios en la tecnología.

Yudkowsky sugirió en cambio una prohibición “indefinida y mundial”, sin excepciones para gobiernos o ejércitos.

Yudkowsky escribió:

“Si los servicios de inteligencia dicen que un país ajeno al acuerdo está construyendo un clúster de GPU, hay que tener menos miedo a un conflicto a tiros entre naciones que a que se viole la moratoria; hay que estar dispuesto a destruir un centro de datos rebelde mediante un ataque aéreo”.

Inteligencia artificial

Crédito de imagen: depositphotos.com

Apocalipsis IA

Yudkowsky lleva muchos años lanzando advertencias grandilocuentes sobre las posibles consecuencias catastróficas de la IA. A principios de marzo, Bloomberg lo describió como “AI Doomer”, y su autora, Ellen Huet, señaló que lleva mucho tiempo advirtiendo de la posibilidad de un “apocalipsis de la IA“.

El cofundador y consejero delegado de Open AI, Sam Altman, llegó a tuitear que Yudkowksy “ha hecho más por acelerar la inteligencia artificial que nadie” y que merece “el premio Nobel de la Paz” por su trabajo, en lo que Huet teorizó que era una indirecta al investigador por el hecho de que sus advertencias sobre la tecnología no han hecho más que acelerar su desarrollo.

Desde que OpenAI lanzó su chatbot ChatGPT en noviembre y se convirtió en la aplicación de consumo de mayor crecimiento en la historia de Internet, Google, Microsoft y otros gigantes tecnológicos han estado compitiendo por lanzar sus propios productos de inteligencia artificial.

Henry Ajder, experto en IA y presentador que forma parte del Consejo Asesor Europeo de Meta’s Reality Labs, declaró anteriormente a Insider que las empresas tecnológicas están inmersas en un “entorno de carrera armamentística competitiva” en un esfuerzo por ser consideradas las “pioneras”, lo que puede dar lugar a que se pasen por alto las preocupaciones en torno a la ética y la seguridad en la IA.

Incluso Altman ha reconocido los temores en torno a la IA, diciendo en un podcast la semana pasada que “sería una locura no tener un poco de miedo, y empatizo con la gente que tiene mucho miedo”.

Añadió, sin embargo, que OpenAI está tomando medidas para solucionar los problemas y las deficiencias de su tecnología: “Minimizaremos lo malo y maximizaremos lo bueno”.

Yudkowsky cree que la inteligencia artificial percibe a los humanos como cosas hechas de átomos y que el desafío es qué tan sensible puede ser esta ante la humanidad, algo, que asegura, no va a pasar y que podría tener consecuencias desastrosas.

Yudkowsky sentenció:

“Apagadlo todo. No estamos preparados ni en camino de estarlo en un futuro previsible. Si seguimos adelante con esto, todo el mundo morirá, incluidos los niños que no eligieron esto. Apagadlo todo”.

Ojo al piojo:

Algo es claro, estamos en el preciso auge mundial de la inteligencia artificial, por lo que lo último que ocurrirá es que se suspenda su desarrollo ni en 6 meses ni en un mes, y mucho menos que sean apagadas. Existe una competencia brutal entre las compañías tecnológicas más grandes del mundo por desarrollar la “super inteligencia artificial”, y en ese proceso están en juego miles de millones de dólares. Es obvio que el avance de esta tecnología no se detendrá. ¿Qué nos depara el futuro? No lo sabemos, así como no sabemos qué podría pensar de los humanos una inteligencia artificial superdotada. Posiblemente vea a los humanos como una amenaza, y ese sería el inicio del fin.

Pueden escuchar y ver más detalles en el siguiente video:

Referencias: Businessinsider / Time / Semana / The Times

Crédito imagen de portada: depositphotos.com

Gracias por leernos. Te invitamos a seguirnos en nuestra Fan Page, para estar al tanto de todas las noticias que publicamos a diario. También puedes visitar nuestra portada y enterarte de las últimas novedades. O puedes unirte a nuestro Grupo Oficial, y a nuestra comunidad en Telegram.

Redacción CODIGO OCULTO

Redacción CODIGO OCULTO

Autor

La verdad es más fascinante que la ficción.

0 comentarios

Enviar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Síguenos y únete en nuestras redes sociales

Apoya nuestro trabajo

Con tu ayuda podremos seguir creando contenidos e informándote a diario. Apoya nuestro trabajo. ¡Gracias!

SUSCRÍBETE GRATIS A NOTICIAS

Síguenos en Telegram
Síguenos en TikTok / codigoocultocom

Conócenos

Código oculto

La historia y sus misterios, civilizaciones antiguas, Ovnis, Vida extraterrestre, Complots. Información alternativa para liberar mentes. Leer más

Obras registradas

Safe Creative #1803242717113

Sitios recomendados

Exploración OVNI
UFO Spain Magazine

También te podría interesar…