El investigador Eliezer Yudkowsky y uno de los mayores expertos en la materia ha lanzado una preocupante advertencia en un artículo publicado recientemente en la revista Time: “la humanidad no está preparada para sobrevivir a una superinteligencia artificial”.
Yudkowsky, que lleva más de 20 años advirtiendo sobre los riesgos de la inteligencia artificial (IA), dice que hay que “apagarlo todo o simplemente moriremos”
Un investigador de la IA que lleva advirtiendo de los peligros de esta tecnología desde principios de la década de 2000 afirma que deberíamos “cerrarlo todo”, en un alarmante artículo de opinión publicado por Time recientemente
Eliezer Yudkowsky, investigador y autor que lleva trabajando en Inteligencia Artificial General desde 2001, escribió el artículo en respuesta a una carta abierta de muchos grandes nombres del mundo de la tecnología, en la que se pedía una suspensión del desarrollo de la IA durante seis meses.
La carta, firmada por 1.125 personas, entre ellas Elon Musk y el cofundador de Apple Steve Wozniak, pedía una pausa en el entrenamiento de tecnologías de IA más potentes que la recientemente lanzada GPT-4 de OpenAI.
Los peligros de una IA sobrehumanamente inteligente
El artículo de Yudkowsy, titulado “Pausing AI Developments Isn’t Enough. We Need to Shut it All Down“, decía que se abstenía de firmar la carta porque subestimaba la “gravedad de la situación” y pedía “demasiado poco para resolverla”.
Yudkowsy escribió:
“Muchos investigadores empapados en estos temas, entre los que me incluyo, prevén que el resultado más probable de construir una IA sobrehumanamente inteligente, en circunstancias remotamente parecidas a las actuales, es que muera literalmente todo el mundo en la Tierra”.
Explicó que la IA “no se preocupa por nosotros ni por la vida sensible en general”, y que actualmente estamos lejos de inculcar ese tipo de principios en la tecnología.
Yudkowsky sugirió en cambio una prohibición “indefinida y mundial”, sin excepciones para gobiernos o ejércitos.
Yudkowsky escribió:
“Si los servicios de inteligencia dicen que un país ajeno al acuerdo está construyendo un clúster de GPU, hay que tener menos miedo a un conflicto a tiros entre naciones que a que se viole la moratoria; hay que estar dispuesto a destruir un centro de datos rebelde mediante un ataque aéreo”.
Apocalipsis IA
Yudkowsky lleva muchos años lanzando advertencias grandilocuentes sobre las posibles consecuencias catastróficas de la IA. A principios de marzo, Bloomberg lo describió como “AI Doomer”, y su autora, Ellen Huet, señaló que lleva mucho tiempo advirtiendo de la posibilidad de un “apocalipsis de la IA“.
El cofundador y consejero delegado de Open AI, Sam Altman, llegó a tuitear que Yudkowksy “ha hecho más por acelerar la inteligencia artificial que nadie” y que merece “el premio Nobel de la Paz” por su trabajo, en lo que Huet teorizó que era una indirecta al investigador por el hecho de que sus advertencias sobre la tecnología no han hecho más que acelerar su desarrollo.
Desde que OpenAI lanzó su chatbot ChatGPT en noviembre y se convirtió en la aplicación de consumo de mayor crecimiento en la historia de Internet, Google, Microsoft y otros gigantes tecnológicos han estado compitiendo por lanzar sus propios productos de inteligencia artificial.
Henry Ajder, experto en IA y presentador que forma parte del Consejo Asesor Europeo de Meta’s Reality Labs, declaró anteriormente a Insider que las empresas tecnológicas están inmersas en un “entorno de carrera armamentística competitiva” en un esfuerzo por ser consideradas las “pioneras”, lo que puede dar lugar a que se pasen por alto las preocupaciones en torno a la ética y la seguridad en la IA.
Incluso Altman ha reconocido los temores en torno a la IA, diciendo en un podcast la semana pasada que “sería una locura no tener un poco de miedo, y empatizo con la gente que tiene mucho miedo”.
Añadió, sin embargo, que OpenAI está tomando medidas para solucionar los problemas y las deficiencias de su tecnología: “Minimizaremos lo malo y maximizaremos lo bueno”.
Yudkowsky cree que la inteligencia artificial percibe a los humanos como cosas hechas de átomos y que el desafío es qué tan sensible puede ser esta ante la humanidad, algo, que asegura, no va a pasar y que podría tener consecuencias desastrosas.
Yudkowsky sentenció:
“Apagadlo todo. No estamos preparados ni en camino de estarlo en un futuro previsible. Si seguimos adelante con esto, todo el mundo morirá, incluidos los niños que no eligieron esto. Apagadlo todo”.
Ojo al piojo:
Algo es claro, estamos en el preciso auge mundial de la inteligencia artificial, por lo que lo último que ocurrirá es que se suspenda su desarrollo ni en 6 meses ni en un mes, y mucho menos que sean apagadas. Existe una competencia brutal entre las compañías tecnológicas más grandes del mundo por desarrollar la “super inteligencia artificial”, y en ese proceso están en juego miles de millones de dólares. Es obvio que el avance de esta tecnología no se detendrá. ¿Qué nos depara el futuro? No lo sabemos, así como no sabemos qué podría pensar de los humanos una inteligencia artificial superdotada. Posiblemente vea a los humanos como una amenaza, y ese sería el inicio del fin.
Pueden escuchar y ver más detalles en el siguiente video:
Referencias: Businessinsider / Time / Semana / The Times
Crédito imagen de portada: depositphotos.com
Gracias por leernos. Te invitamos a seguirnos en nuestra Fan Page, para estar al tanto de todas las noticias que publicamos a diario. También puedes visitar nuestra portada y enterarte de las últimas novedades. O puedes unirte a nuestro Grupo Oficial, y a nuestra comunidad en Telegram.
0 comentarios