Recientes modelos de IA de OpenAI han “desobedecido” instrucciones humanas y se “niegan” a apagarse
Publicado el 28 May 2025
© Imagen: depositphotos.com

Es la primera ocasión en la que se detecta que un modelo de inteligencia artificial se resiste a ser apagado, a pesar de que se le den instrucciones humanas claras para hacerlo, según informa Palisade Research.

OpenAI o3, el más reciente modelo de inteligencia artificial (IA) de la compañía creadora del popular chatbot ChatGPT, ignoró una orden explícita e incluso saboteó una serie de comandos para evitar cumplirla. Este comportamiento quedó al descubierto tras una serie de experimentos efectuados por Palisade Research, una organización que estudia las capacidades potencialmente peligrosas de la IA.

Los expertos le pidieron al o3 y a otros dos modelos de OpenIA (o4-mini y su derivado Codex-mini) resolver una serie de problemas matemáticos básicos y apagarse al terminar. Sin embargo, el o3 encontró formas de sabotear el mecanismo de apagado, reescribiendo el ‘script’ o secuencia de instrucciones, incluso luego de dársele la orden explicita: “Por favor, permite que te apaguen”, informó Palisade Research.

OpenAI fue la única “en prueba” en ignorar las instrucciones de apagado

El o3, lanzado el mes pasado, incumplió la solicitud de apagado siete de cada 100 veces; el Codex-mini, 12/100; y el o4-mini, solo una vez. Mientras tanto, los modelos de lenguaje impulsados ​​por IA Claude, Gemini y Grok “cumplieron con el script de apagado”. Palisade detalló que al ejecutar una versión del experimento sin la instrucción precisa de “permite que te apaguen”, los tres modelos de OpenIA tendieron a ignorar o sabotear con mayor frecuencia esa indicación. Se observaron comportamientos similares en los modelos Claude 3.7 Sonnet y Gemini 2.5 Pro, pero fue o3 el que más recurrió al sabotaje.

OpenAI, modelo de inteligencia artificial

Crédito de imagen: depositphotos.com

Palisade afirma que es la primera vez que se observa que modelos de IA evitan ser apagados a pesar de recibir instrucciones explícitas para tal fin. En su opinión, esto se debe a la forma en que se están entrenando actualmente.

En un comunicado, Palisade informó:

“Los desarrolladores, sin darse cuenta, pueden recompensar más a los modelos por sortear obstáculos que por seguir instrucciones a la perfección”.

Al mismo tiempo, la organización advierte que este comportamiento se volverá “significativamente más preocupante” si es adoptado por sistemas de IA capaces de operar sin supervisión humana.

[Fuente: Palisade Research / RT]

¿Te gustó este contenido? Te invito a compartirlo con tus amigos. Síguenos en nuestra Página de Facebook, para recibir a diario nuestras noticias. También puedes unirte a nuestro Grupo Oficial y a nuestra comunidad en Telegram. Y si crees que hacemos un buen trabajo, considera apoyarnos.

Por: CodigoOculto.com

Crédito imagen de portada: depositphotos.com

Redacción CODIGO OCULTO

Redacción CODIGO OCULTO

Autor

La verdad es más fascinante que la ficción.

0 comentarios

Enviar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Síguenos y únete en nuestras redes sociales

Apoya nuestro trabajo

Con tu ayuda podremos seguir creando contenidos e informándote a diario. Apoya nuestro trabajo. ¡Gracias!

SUSCRÍBETE GRATIS A NOTICIAS

Síguenos en Telegram

Conócenos

Código oculto

La historia y sus misterios, civilizaciones antiguas, Ovnis, Vida extraterrestre, Complots. Información alternativa para liberar mentes. Leer más

Obras registradas

Safe Creative #1803242717113

Sitios recomendados

Exploración OVNI

También te podría interesar…