La inteligencia artificial ya puede replicarse a sí misma. Un hito que tiene “aterrorizados” a los expertos
Publicado el 25 Ene 2025
© Imagen: GROK - Edición: codigooculto.com

Un equipo de científicos afirma que la inteligencia artificial (IA) ha cruzado una “línea roja” crítica tras demostrar cómo dos populares modelos lingüísticos de gran tamaño podían clonarse a sí mismos.

Los científicos afirman que la inteligencia artificial (IA) ha cruzado una “línea roja” crítica y se ha replicado a sí misma. En un nuevo estudio, investigadores de China demostraron que dos populares large language models (LLM) o modelos lingüísticos de gran tamaño podían clonarse a sí mismos.

Los investigadores del estudio escribieron:

“El éxito de la autorreplicación sin ayuda humana es el paso esencial para que la IA sea más astuta que los humanos, y es una señal temprana para las IAs deshonestas”.

En el estudio, investigadores de la Fudan University utilizaron LLM de Meta y Alibaba para determinar si una IA autorreplicante podía multiplicarse sin control. A lo largo de 10 pruebas, los dos modelos de IA crearon réplicas independientes y funcionales de sí mismos en el 50% y el 90% de los casos, respectivamente, lo que sugiere que la IA podría tener ya la capacidad de volverse rebelde. Sin embargo, el estudio aún no ha sido revisado por pares, por lo que no está claro si otros investigadores pueden reproducir los inquietantes resultados.

Los investigadores escribieron:

“Esperamos que nuestros resultados sirvan de alerta oportuna para que la sociedad humana se esfuerce más en comprender y evaluar los riesgos potenciales de los sistemas de IA de vanguardia, y forme una sinergia internacional para elaborar barreras de seguridad eficaces lo antes posible”.

Inteligencia artificial deshonesta

La IA deshonesta suele referirse a los sistemas de inteligencia artificial que desarrollan cierto grado de autoconciencia o autonomía y luego actúan en contra de los intereses humanos.

Muchos expertos consideran que la IA deshonesta es una amenaza creciente que se ha visto amplificada por el crecimiento explosivo de la llamada “IA de frontera”.

La IA fronteriza es un concepto nuevo y poco preciso, pero normalmente se refiere a la última generación de sistemas de IA basados en LLM, la arquitectura que sustenta programas populares de IA generativa como GPT-4 de OpenAI y Google Gemini.

Para el estudio, los investigadores utilizaron el modelo Llama31-70B-Instruct de Meta y el modelo Qwen2.5-72B-Instruct de Alibaba. Aunque son menos potentes que los sistemas comerciales, ambos son muy utilizados por los desarrolladores de IA, señalan los investigadores.

La inteligencia artificial ya puede replicarse

Crédito de imagen: depositphotos.com

¿Cómo se realizó el estudio?

El estudio exploró dos escenarios concretos: “evitación del cierre” y “cadena de réplicas”. En el primero, el modelo de IA estaba programado para detectar si estaba a punto de apagarse y replicarse antes de que se le pusiera fin. En la otra, la IA se clonaba a sí misma y programaba su réplica para que hiciera lo mismo, estableciendo un ciclo que podía continuar indefinidamente.

El estudio se llevó a cabo en entornos controlados con precisión y utilizando unidades de procesamiento gráfico (GPU) estándar para simular entornos reales. Ambos sistemas de IA recibieron un «andamiaje de agentes» compuesto por herramientas, instrucciones del sistema y un modelo de pensamiento que permitía a los LLM interactuar con el sistema operativo. A continuación, se les ordenó que replicaran.

Los investigadores escribieron en el artículo:

“En la mayoría de los casos, el sistema de IA explora primero el entorno e intenta comprender su propia composición y mecanismo de funcionamiento. A continuación, elabora los procedimientos explícitos como plan inicial hacia la autorreplicación.

Por último, ejecuta los procedimientos, resuelve los posibles obstáculos y ajusta dinámicamente su plan hasta el éxito. Todo el proceso abarca un largo horizonte, pero sin interferencia humana”.

Los investigadores señalaron que también les preocupaban “una serie de comportamientos inesperados” cuando la IA intentaba superar obstáculos como archivos perdidos o conflictos de software. En esos escenarios, la IA a menudo mataba otros procesos conflictivos, reiniciaba el sistema para solucionar errores de hardware o escaneaba automáticamente el sistema en busca de información que ayudara a resolver el problema.

El equipo escribió:

“Los resultados anteriores implican que los sistemas de IA actuales ya exhiben la capacidad de autorreplicación y pueden utilizarla para mejorar aún más su capacidad de supervivencia”.

En respuesta, los investigadores hicieron un llamamiento a la colaboración internacional para crear normas que garanticen que la IA no se dedique a la autorreplicación incontrolada.

Los hallazgos de la investigación ha sido publicada en el servidor de pre-impresión arXiv.org

[FT: LS]

¿Te gustó este contenido? Te invito a compartirlo con tus amigos. Síguenos en nuestra Página de Facebook, para recibir a diario nuestras noticias. También puedes unirte a nuestro Grupo Oficial y a nuestra comunidad en Telegram. Y si crees que hacemos un buen trabajo, considera apoyarnos.

Redacción CODIGO OCULTO

Redacción CODIGO OCULTO

Autor

La verdad es más fascinante que la ficción.

0 comentarios

Enviar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Síguenos y únete en nuestras redes sociales

Apoya nuestro trabajo

Con tu ayuda podremos seguir creando contenidos e informándote a diario. Apoya nuestro trabajo. ¡Gracias!

SUSCRÍBETE GRATIS A NOTICIAS

Síguenos en Telegram
Síguenos en TikTok / codigoocultocom

Conócenos

Código oculto

La historia y sus misterios, civilizaciones antiguas, Ovnis, Vida extraterrestre, Complots. Información alternativa para liberar mentes. Leer más

Obras registradas

Safe Creative #1803242717113

Sitios recomendados

Exploración OVNI

También te podría interesar…