De acuerdo a un nuevo estudio, la inteligencia artificial (IA) no solo funciona con gran precisión, sino que, por primera vez, “piensa” de forma muy similar a los humanos.
Los trabajos sobre modelos de IA se han centrado durante mucho tiempo en la escala de tareas o la precisión, pero un grupo de investigadores está estudiando más de cerca cómo toma decisiones la IA. Si se desarrolla un proceso más similar al de la mente humana, podrían mitigarse las preocupantes tendencias a las «alucinaciones» de la inteligencia artificial.
Colmar la brecha entre la IA y el ser humano
Un importante punto de convergencia entre el razonamiento humano y la IA es que ésta utiliza el mismo número de cálculos para la información simple que para la compleja e incierta. Ante la incertidumbre y la previsibilidad de la información, el ser humano piensa de forma distinta a cuando se enfrenta a información rutinaria.
Ahora, la RTNet, llamada así por su similitud con el tiempo de respuesta humano y desarrollada por investigadores de la Georgia Tech University, representa el último intento de seguir el ejemplo humano en la toma de decisiones estocásticas y, según un nuevo estudio, “exhibe las firmas críticas” de tales procesos que actualmente sólo se asocian con nuestros propios cerebros.
El estado de las redes neuronales artificiales
En una red neuronal normal, cada neurona artificial está conectada a toda la red. Cada neurona crea una pequeña salida que envía a través del sistema a los demás nodos. En una red neuronal convolucional, algunas neuronas no están conectadas a toda la red, sino que sirven para abstraer información o compararla con información de su entorno. Por ejemplo, pueden contrastar un píxel con los que lo rodean.
Las redes convolucionales son beneficiosas para ayudar a los ordenadores a comprender imágenes identificando formas y patrones. Sin embargo, aunque pueden imitar e incluso superar la visión humana en determinados aspectos, el proceso real de toma de decisiones carece de matices humanos.
La RTNet de cara al futuro
La RTNet se desarrolló para mejorar las redes convolucionales añadiendo modelos cognitivos tradicionales de la neurociencia. Tiene ocho capas: cinco convolucionales y tres de conexión regular. El resultado combina la capacidad de procesamiento de imágenes de la IA con el razonamiento estocástico dinámico del ser humano.
RTNet procesa cada imagen varias veces utilizando muestras de una red neuronal bayesiana. Esto imita las respuestas aleatorias de las neuronas del cerebro humano al comparar lo que está viendo con objetos de la memoria. Cuando se supera un determinado umbral, se selecciona una salida. La “acumulación ruidosa”, como la denomina el estudio, está diseñada para reflejar la función cognitiva de la mente humana.
RTNet se probó con MNIST, un conjunto de números manuscritos utilizado en muchos experimentos de aprendizaje automático, en el que se introdujo ruido visual en las imágenes, lo que dificultó su lectura.
Durante el proceso de desarrollo, el equipo hizo algo novedoso: no se limitó a comprobar si el modelo determinaba correctamente qué dígito mostraba la imagen, sino que también lo comparó con un grupo de 60 humanos reales que realizaron la misma tarea más de 960 veces cada uno.
El conjunto de datos resultante fue uno de los mayores jamás reunidos y se centró en las reacciones humanas al MNIST.
Farshad Rafiei, autor del estudio, dijo en un comunicado:
“En general, no disponemos de suficientes datos humanos en la literatura existente sobre informática”.
RTNet no sólo dice, también predice
Para reproducir realmente la forma en que los humanos toman decisiones no basta con acertar, sino que hay que entender las peculiaridades de su forma de sacar conclusiones. Un elemento importante en el desarrollo de un marco de evaluación para RTNet fue lo que se conoce como el equilibrio entre velocidad y precisión, o SAT. En pocas palabras, cuanto menos tiempo le dediquemos a un problema, menos probabilidades tendremos de llegar a la respuesta correcta. El SAT era importante en los tres criterios con los que se medían las respuestas humanas y automáticas: velocidad, precisión y, quizás de forma exclusiva, confianza.
La confianza es un elemento de la toma de decisiones humana que ha sido difícil de recrear en la IA. Los modelos de IA suelen desviar la pregunta si no encuentran la respuesta en lugar de admitir lo que no saben. Por ejemplo, cuando se les plantearon preguntas sobre las elecciones de 2024, como quién sería el candidato demócrata poco después de que Joe Biden abandonara la carrera, muchos chatbots de IA respondieron erróneamente o se negaron a responder cuando no estaban seguros.
Las respuestas de RTNet solo eran correctas a veces, pero el patrón imitaba bastante el de los resultados humanos. A veces, el mismo estímulo daba resultados diferentes, aunque, por lo general, cuanto más tiempo se dedicaba a descodificar, más acertada resultaba la respuesta. Uno de los puntos más críticos del estudio fue que la red podía dar un índice de confianza a cada decisión que reflejaba con precisión la probabilidad de que la decisión fuera correcta y también se asemejaba mucho a los resultados de confianza y precisión humanos.
El futuro humano de la IA
RTNet representa un importante paso adelante en el aprendizaje automático, ya que presenta todos los elementos principales del pensamiento humano. Superó a otros modelos en las pruebas gracias a su acumulación de pruebas y validación empírica. De cara al futuro, el equipo sugiere desarrollar RTNet para ayudarnos a acercarnos aún más al cerebro humano. Aunque su “sistema de acumulación de pruebas puede considerarse una red recurrente”, aún hay margen para aumentar el número de sistemas recurrentes en RTNet, con el objetivo de mejorar su predicción del comportamiento humano y permitir la extrapolación de instancias simplemente pasadas para resolver problemas más complicados en el futuro.
Los hallazgos de la investigación “The neural network RTNet exhibits the signatures of human perceptual decision-making“, ha sido publicada en el último número de la revista Nature Human Behavior.
[FT: sciencedaily]
Tenemos algo para decirte: Visítanos en Facebook. Únete a la discusión en nuestra comunidad en Telegram. Y si te es posible, apoya nuestro trabajo invitándonos un café. También puedes unirte a la conversación, dejando un comentario. ¡Te lo agradecemos!
Crédito imagen de portada: depositphotos.com
0 comentarios