Informe del Departamento de Estado de EE. UU. advierte que la IA representa una amenaza de “extinción”
Publicado el 12 Mar 2024
© Imagen: Paramount / Courtesy Everett Collection

Un reciente estudio financiado por el Departamento de Estado de EE. UU. aboga por prohibir temporalmente la creación de inteligencia artificial avanzada que supere un determinado umbral de potencia computacional.

Según sus autores, esta tecnología supone una “amenaza de extinción para la especie humana”.

El estudio, encargado como parte de un contrato federal de 250.000 dólares, también pide “definir poderes de emergencia” para el poder ejecutivo del gobierno estadounidense “para responder a incidentes peligrosos y rápidos relacionados con la IA”, como la “robótica de enjambre”.

¿Qué pide el nuevo estudio?

Tratar los chips informáticos de gama alta como contrabando internacional, e incluso vigilar cómo se utiliza el hardware, son sólo algunas de las drásticas medidas que pide el nuevo estudio.

El informe se une a un coro de voces de la industria, el gobierno y el mundo académico que reclaman una atención reguladora agresiva sobre el potencial de la inteligencia artificial, muy perseguido y que cambia las reglas del juego, pero es socialmente perturbador.

El pasado mes de julio, la Agencia de las Naciones Unidas para la Ciencia y la Cultura (UNESCO, por sus siglas en inglés), por ejemplo, unió sus preocupaciones sobre la IA a las igualmente futuristas sobre la tecnología de chips cerebrales, a la Neuralink de Elon Musk, advirtiendo de la “neurovigilancia” que viola la “privacidad mental”.

Aunque el nuevo informe señala de entrada, en su primera página, que sus recomendaciones “no reflejan las opiniones del Departamento de Estado ni del Gobierno de los Estados Unidos”, sus autores llevan informando al Gobierno sobre la IA desde 2021.

Los autores del estudio, una consultora de IA formada por cuatro personas llamada Gladstone AI y dirigida por los hermanos Jérémie y Edouard Harris, dijeron a TIME que sus presentaciones anteriores sobre los riesgos de la IA fueron escuchadas con frecuencia por funcionarios del gobierno sin autoridad para actuar.

Eso ha cambiado con el Departamento de Estado de EE. UU., explicaron a la revista, porque su Oficina de Seguridad Internacional y No Proliferación se encarga específicamente de frenar la propagación de nuevas armas cataclísmicas.

Y el informe Gladstone AI dedica una atención considerable al “riesgo de armamentismo”.

Un nuevo estudio financiado por el Departamento de Estado de EE. UU. realizado por Gladstone AI (arriba), encargado como parte de un contrato federal de 250.000 dólares, exige "definir poderes de emergencia" para el poder ejecutivo del gobierno de EE.UU. "para responder a amenazas peligrosas y de rápida evolución relacionadas con la IA". incidentes

Un nuevo estudio financiado por el Departamento de Estado de EE. UU. realizado por Gladstone AI (arriba), encargado como parte de un contrato federal de 250.000 dólares, exige “definir poderes de emergencia” para el poder ejecutivo del gobierno de EE.UU. “para responder a amenazas peligrosas y de rápida evolución relacionadas con la IA”. incidentes

Una IA que podría atacar a los humanos

Una IA ofensiva y avanzada, escriben, “podría utilizarse potencialmente para diseñar e incluso ejecutar ataques biológicos, químicos o cibernéticos catastróficos, o permitir aplicaciones armamentísticas sin precedentes en la robótica de enjambre”.

Pero el informe plantea un segundo escenario aún más distópico, que describen como un riesgo de “pérdida de control” de la IA.

Escriben que hay “razones para creer que [la IA armamentística] puede ser incontrolable si se desarrolla con las técnicas actuales, y que podría comportarse de forma adversa a los seres humanos por defecto”.

En otras palabras, las máquinas podrían decidir por sí mismas que la humanidad (o algún subconjunto de la humanidad) es simplemente un enemigo que hay que erradicar para siempre.

El CEO de Gladstone AI, Jérémie Harris, también presentó escenarios igualmente graves ante las audiencias celebradas por el Comité Permanente de Industria y Tecnología de la Cámara de los Comunes de Canadá el año pasado, el 5 de diciembre de 2023.

En los últimos años, el director ejecutivo de Gladstone AI, Jérémie Harris (recuadro), también se presentó ante el Comité Permanente de Industria y Tecnología de la Cámara de los Comunes de Canadá (en la foto)

En los últimos años, el director ejecutivo de Gladstone AI, Jérémie Harris (recuadro), también se presentó ante el Comité Permanente de Industria y Tecnología de la Cámara de los Comunes de Canadá (en la foto).

La IA como un arma de destrucción masiva

No es exagerado afirmar que las conversaciones en la nevera de la comunidad de seguridad de la IA fronteriza enmarcan la IA del futuro próximo como un arma de destrucción masiva”, dijo Harris a los legisladores canadienses.

Tanto en público como en privado, los laboratorios de inteligencia artificial nos dicen que en los próximos años los sistemas de inteligencia artificial serán capaces de llevar a cabo ataques catastróficos con programas maliciosos y apoyar el diseño de armas biológicas, entre otras muchas capacidades alarmantes”, según la cobertura que IT World Canada hizo de sus declaraciones.

“Nuestras propias investigaciones sugieren que se trata de una evaluación razonable”.

Harris y sus coautores señalan en su nuevo informe del Departamento de Estado que las empresas de IA del sector privado, fuertemente financiadas con capital de riesgo, se enfrentan a un increíble “incentivo para escalar” y superar a sus competidores, más que a cualquier “incentivo para invertir en seguridad”.

El único medio viable de frenar esta situación es fuera del ciberespacio, mediante una regulación estricta de los chips informáticos de gama alta utilizados para entrenar los sistemas de IA en el mundo real.

El informe de Gladstone AI califica la labor de no proliferación de este hardware como “el requisito más importante para salvaguardar la seguridad mundial a largo plazo de la IA”.

Y no fue una sugerencia que hicieran a la ligera, dada la inevitable probabilidad de protestas de la industria: ‘Es una recomendación extremadamente difícil de hacer, y pasamos mucho tiempo buscando formas de evitar sugerir medidas como esta’, dijeron.

Uno de los hermanos Harris coautores del nuevo informe, el ex funcionario del Departamento de Defensa Mark Beall, fue Jefe de Estrategia y Política del Centro Conjunto de Inteligencia Artificial del Pentágono durante sus años de servicio gubernamental.

Beall parece estar actuando con urgencia ante las amenazas identificadas por el nuevo informe: el ex jefe de estrategia de IA del Departamento de Defensa ha dejado Gladstone para lanzar un super PAC dedicado a los riesgos de la IA.

El PAC, denominado Americans for AI Safety (Estadounidenses por la seguridad de la IA), se puso en marcha este lunes con la esperanza declarada de “aprobar legislación sobre la seguridad de la IA para finales de 2024”.

Fuente: TIME

Tenemos algo para decirte: Visítanos en Facebook. Únete a la discusión en nuestra comunidad en Telegram. Y si te es posible, apoya nuestro trabajo invitándonos un café. ¡Te lo agradecemos!

Redacción CODIGO OCULTO

Redacción CODIGO OCULTO

Autor

La verdad es más fascinante que la ficción.

0 comentarios

Enviar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Síguenos y únete en nuestras redes sociales

Apoya nuestro trabajo

Con tu ayuda podremos seguir creando contenidos e informándote a diario. Apoya nuestro trabajo. ¡Gracias!

SUSCRÍBETE GRATIS A NOTICIAS

Síguenos en Telegram
Síguenos en TikTok / codigoocultocom

Conócenos

Código oculto

La historia y sus misterios, civilizaciones antiguas, Ovnis, Vida extraterrestre, Complots. Información alternativa para liberar mentes. Leer más

Obras registradas

Safe Creative #1803242717113

Sitios recomendados

Exploración OVNI
UFO Spain Magazine

También te podría interesar…