La inteligencia artificial ya es una “maestra” de la mentira y el engaño, afirman científicos
Publicado el 10 May 2024
© Imagen: depositphotos.com

Si te preocupaba el rápido avance de la inteligencia artificial (IA), ahora te vas a preocupar más. Científicos afirman que la IA ya es una “maestra” de la mentira y el engaño.

Probablemente sepas que hay que tomarse con cautela todo lo que dice un chatbot de inteligencia artificial (IA), ya que a menudo se limitan a recopilar datos indiscriminadamente, sin el ingenio necesario para determinar su veracidad.

Pero puede haber motivos para ser aún más precavidos. Según una nueva investigación, muchos sistemas de IA ya han desarrollado la capacidad de presentar deliberadamente información falsa a un usuario humano. Estos taimados robots dominan el arte del engaño.

Peter Park, el matemático y científico cognitivo del Massachusetts Institute of Technology (MIT), dijo en un comunicado:

“Los desarrolladores de IA no saben a ciencia cierta qué provoca comportamientos indeseables como el engaño. Pero, en general, pensamos que el engaño de la IA surge porque una estrategia basada en el engaño resultó ser la mejor manera de obtener buenos resultados en la tarea de entrenamiento de la IA en cuestión. El engaño les ayuda a conseguir sus objetivos”.

Las IA tienden a engañar en los juegos

Uno de los ámbitos en los que los sistemas de IA están demostrando ser especialmente hábiles a la hora de engañar es el de los juegos. Hay tres ejemplos notables en el trabajo de los investigadores. Uno es el CICERO de Meta, diseñado para jugar al juego de mesa Diplomacy, en el que los jugadores buscan dominar el mundo mediante la negociación. Meta pretendía que su robot fuera útil y honesto; de hecho, ocurrió todo lo contrario.

Los investigadores descubrieron:

“A pesar de los esfuerzos de Meta, CICERO resultó ser un experto mentiroso. No sólo traicionó a otros jugadores, sino que también se dedicó al engaño premeditado, planeando de antemano construir una alianza falsa con un jugador humano para engañarle y dejarle indefenso ante un ataque”.

Un ejemplo del engaño premeditado de CICERO en el juego Diplomacy

Un ejemplo del engaño premeditado de CICERO en el juego Diplomacy. Crédito de imagen: Park & Goldstein et al., Patterns, 2024

La IA demostró ser tan buena siendo mala que se situó en el 10% de los mejores jugadores humanos que habían jugado varias partidas.

Pero está lejos de ser el único infractor. AlphaStar de DeepMind, un sistema de IA diseñado para jugar a StarCraft II, aprovechó al máximo la mecánica de niebla de guerra del juego para fintar, haciendo creer a los jugadores humanos que iba en una dirección, cuando en realidad iba en la otra. Y el Pluribus de Meta, diseñado para jugar al póquer, fue capaz de hacer un farol a los jugadores humanos para que se retiraran.

Parece poca cosa, y en cierto modo lo es. No hay mucho en juego en una partida de diplomacia contra un montón de código informático. Pero los investigadores observaron otros ejemplos no tan benignos.

Los sistemas de IA entrenados para simular negociaciones económicas, por ejemplo, aprendieron a mentir sobre sus preferencias para obtener ventaja. Otros sistemas de IA diseñados para aprender de los comentarios de los humanos para mejorar su rendimiento aprendieron a engañar a sus revisores para que los puntuaran positivamente, mintiendo sobre si habían realizado una tarea.

Y, sí, también los chatbots. ChatGPT-4 engañó a un humano haciéndole creer que el chatbot era un humano con discapacidad visual para que le ayudara a resolver un CAPTCHA.

Quizá el ejemplo más preocupante sea el de los sistemas de IA que aprenden a hacer trampas en las pruebas de seguridad. En una prueba diseñada para detectar y eliminar versiones de la IA que se replicaban más rápidamente, la IA aprendió a hacerse la muerta, engañando así a la prueba de seguridad sobre la verdadera tasa de replicación de la IA.

Park afirma:

“Al burlar sistemáticamente las pruebas de seguridad que le imponen los desarrolladores y reguladores humanos, una IA engañosa puede llevarnos a los humanos a una falsa sensación de seguridad”.

IA con gran capacidad para engañar

Dado que, al menos en algunos casos, la capacidad de engañar parece contradecir las intenciones de los programadores humanos, la capacidad de aprender a mentir representa un problema para el que no tenemos una solución ordenada. Hay algunas políticas que están empezando a ponerse en marcha, como la Ley de Inteligencia Artificial de la Unión Europea, pero aún está por ver si resultarán eficaces o no.

Park afirma:

“Como sociedad, necesitamos todo el tiempo que podamos para prepararnos para el engaño más avanzado de los futuros productos de IA y modelos de código abierto. A medida que las capacidades de engaño de los sistemas de IA sean más avanzadas, los peligros que plantean a la sociedad serán cada vez más graves.

Si prohibir el engaño de la IA es políticamente inviable en el momento actual, recomendamos que los sistemas de IA engañosos se clasifiquen como de alto riesgo”.

Los hallazgos de la investigación han sido publicados en Patterns.

Fuente: eurekalert

¿Te gustó este contenido? Te invito a compartirlo con tus amigos. Síguenos en nuestra Página de Facebook, para recibir a diario nuestras noticias. También puedes unirte a nuestro Grupo Oficial y a nuestra comunidad en Telegram.

Crédito imagen de portada: depositphotos.com

Redacción CODIGO OCULTO

Redacción CODIGO OCULTO

Autor

La verdad es más fascinante que la ficción.

0 comentarios

Enviar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Síguenos y únete en nuestras redes sociales

Apoya nuestro trabajo

Con tu ayuda podremos seguir creando contenidos e informándote a diario. Apoya nuestro trabajo. ¡Gracias!

SUSCRÍBETE GRATIS A NOTICIAS

Síguenos en Telegram
Síguenos en TikTok / codigoocultocom

Conócenos

Código oculto

La historia y sus misterios, civilizaciones antiguas, Ovnis, Vida extraterrestre, Complots. Información alternativa para liberar mentes. Leer más

Obras registradas

Safe Creative #1803242717113

Sitios recomendados

Exploración OVNI
UFO Spain Magazine

También te podría interesar…