Inteligencia artificial aprende a pensar más como los humanos, revela estudio
Publicado el 26 Jul 2024
© Imagen: depositphotos.com

De acuerdo a un nuevo estudio, la inteligencia artificial (IA) no solo funciona con gran precisión, sino que, por primera vez, “piensa” de forma muy similar a los humanos.

Los trabajos sobre modelos de IA se han centrado durante mucho tiempo en la escala de tareas o la precisión, pero un grupo de investigadores está estudiando más de cerca cómo toma decisiones la IA. Si se desarrolla un proceso más similar al de la mente humana, podrían mitigarse las preocupantes tendencias a las «alucinaciones» de la inteligencia artificial.

Colmar la brecha entre la IA y el ser humano

Un importante punto de convergencia entre el razonamiento humano y la IA es que ésta utiliza el mismo número de cálculos para la información simple que para la compleja e incierta. Ante la incertidumbre y la previsibilidad de la información, el ser humano piensa de forma distinta a cuando se enfrenta a información rutinaria.

Ahora, la RTNet, llamada así por su similitud con el tiempo de respuesta humano y desarrollada por investigadores de la Georgia Tech University, representa el último intento de seguir el ejemplo humano en la toma de decisiones estocásticas y, según un nuevo estudio, “exhibe las firmas críticas” de tales procesos que actualmente sólo se asocian con nuestros propios cerebros.

El estado de las redes neuronales artificiales

En una red neuronal normal, cada neurona artificial está conectada a toda la red. Cada neurona crea una pequeña salida que envía a través del sistema a los demás nodos. En una red neuronal convolucional, algunas neuronas no están conectadas a toda la red, sino que sirven para abstraer información o compararla con información de su entorno. Por ejemplo, pueden contrastar un píxel con los que lo rodean.

Las redes convolucionales son beneficiosas para ayudar a los ordenadores a comprender imágenes identificando formas y patrones. Sin embargo, aunque pueden imitar e incluso superar la visión humana en determinados aspectos, el proceso real de toma de decisiones carece de matices humanos.

Inteligencia artificial

Crédito de imagen: depositphotos.com

La RTNet de cara al futuro

La RTNet se desarrolló para mejorar las redes convolucionales añadiendo modelos cognitivos tradicionales de la neurociencia. Tiene ocho capas: cinco convolucionales y tres de conexión regular. El resultado combina la capacidad de procesamiento de imágenes de la IA con el razonamiento estocástico dinámico del ser humano.

RTNet procesa cada imagen varias veces utilizando muestras de una red neuronal bayesiana. Esto imita las respuestas aleatorias de las neuronas del cerebro humano al comparar lo que está viendo con objetos de la memoria. Cuando se supera un determinado umbral, se selecciona una salida. La “acumulación ruidosa”, como la denomina el estudio, está diseñada para reflejar la función cognitiva de la mente humana.

RTNet se probó con MNIST, un conjunto de números manuscritos utilizado en muchos experimentos de aprendizaje automático, en el que se introdujo ruido visual en las imágenes, lo que dificultó su lectura.

Durante el proceso de desarrollo, el equipo hizo algo novedoso: no se limitó a comprobar si el modelo determinaba correctamente qué dígito mostraba la imagen, sino que también lo comparó con un grupo de 60 humanos reales que realizaron la misma tarea más de 960 veces cada uno.

El conjunto de datos resultante fue uno de los mayores jamás reunidos y se centró en las reacciones humanas al MNIST.

Farshad Rafiei, autor del estudio, dijo en un comunicado:

“En general, no disponemos de suficientes datos humanos en la literatura existente sobre informática”.

RTNet no sólo dice, también predice

Para reproducir realmente la forma en que los humanos toman decisiones no basta con acertar, sino que hay que entender las peculiaridades de su forma de sacar conclusiones. Un elemento importante en el desarrollo de un marco de evaluación para RTNet fue lo que se conoce como el equilibrio entre velocidad y precisión, o SAT. En pocas palabras, cuanto menos tiempo le dediquemos a un problema, menos probabilidades tendremos de llegar a la respuesta correcta. El SAT era importante en los tres criterios con los que se medían las respuestas humanas y automáticas: velocidad, precisión y, quizás de forma exclusiva, confianza.

La confianza es un elemento de la toma de decisiones humana que ha sido difícil de recrear en la IA. Los modelos de IA suelen desviar la pregunta si no encuentran la respuesta en lugar de admitir lo que no saben. Por ejemplo, cuando se les plantearon preguntas sobre las elecciones de 2024, como quién sería el candidato demócrata poco después de que Joe Biden abandonara la carrera, muchos chatbots de IA respondieron erróneamente o se negaron a responder cuando no estaban seguros.

Las respuestas de RTNet solo eran correctas a veces, pero el patrón imitaba bastante el de los resultados humanos. A veces, el mismo estímulo daba resultados diferentes, aunque, por lo general, cuanto más tiempo se dedicaba a descodificar, más acertada resultaba la respuesta. Uno de los puntos más críticos del estudio fue que la red podía dar un índice de confianza a cada decisión que reflejaba con precisión la probabilidad de que la decisión fuera correcta y también se asemejaba mucho a los resultados de confianza y precisión humanos.

El futuro humano de la IA

RTNet representa un importante paso adelante en el aprendizaje automático, ya que presenta todos los elementos principales del pensamiento humano. Superó a otros modelos en las pruebas gracias a su acumulación de pruebas y validación empírica. De cara al futuro, el equipo sugiere desarrollar RTNet para ayudarnos a acercarnos aún más al cerebro humano. Aunque su “sistema de acumulación de pruebas puede considerarse una red recurrente”, aún hay margen para aumentar el número de sistemas recurrentes en RTNet, con el objetivo de mejorar su predicción del comportamiento humano y permitir la extrapolación de instancias simplemente pasadas para resolver problemas más complicados en el futuro.

Los hallazgos de la investigación “The neural network RTNet exhibits the signatures of human perceptual decision-making“, ha sido publicada en el último número de la revista Nature Human Behavior.

[FT: sciencedaily]

Tenemos algo para decirte: Visítanos en Facebook. Únete a la discusión en nuestra comunidad en Telegram. Y si te es posible, apoya nuestro trabajo invitándonos un café. También puedes unirte a la conversación, dejando un comentario. ¡Te lo agradecemos!

Crédito imagen de portada: depositphotos.com

Redacción CODIGO OCULTO

Redacción CODIGO OCULTO

Autor

La verdad es más fascinante que la ficción.

0 comentarios

Enviar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Síguenos y únete en nuestras redes sociales

Apoya nuestro trabajo

Con tu ayuda podremos seguir creando contenidos e informándote a diario. Apoya nuestro trabajo. ¡Gracias!

SUSCRÍBETE GRATIS A NOTICIAS

Síguenos en Telegram
Síguenos en TikTok / codigoocultocom

Conócenos

Código oculto

La historia y sus misterios, civilizaciones antiguas, Ovnis, Vida extraterrestre, Complots. Información alternativa para liberar mentes. Leer más

Obras registradas

Safe Creative #1803242717113

Sitios recomendados

Exploración OVNI
UFO Spain Magazine

También te podría interesar…